ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

제프 호킨스 - 어떻게 뇌과학이 컴퓨터를 바꿀까

Filmed:
1,674,773 views

트레오의 창시자인 제프 호킨스는, 뇌에 대한 새로운 접근이 필요하다고- 뇌를 속도 빠른 프로세서로 볼 것이 아니라, 경험을 저장하고 다시 재생함으로써 앞으로 어떤 일이 벌어질 지를 지적으로 예측하게 해 주는 하나의 기억 체계로 보라고 우리에게 충고합니다.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I design디자인 mobile변하기 쉬운 computers컴퓨터들 and I study연구 brains두뇌.
0
0
3000
전 두 가지 일을 합니다. 모바일 컴퓨터 디자인을 하고 뇌 연구를 합니다.
00:29
And today's오늘의 talk is about brains두뇌 and,
1
4000
2000
오늘 강연은 뇌에 대해서, 그리고
00:31
yay, somewhere어딘가에 I have a brain fan부채 out there.
2
6000
2000
예, 뇌 팬이 어딘가에 있으시군요.
00:33
(Laughter웃음)
3
8000
2000
(웃음)
00:35
I'm going to, if I can have my first slide슬라이드 up here,
4
10000
2000
저는, 여기에 제 첫번째 슬라이드가 뜬다면
00:37
and you'll see the title표제 of my talk and my two affiliations제휴.
5
12000
4000
제 강연의 제목과 저의 두가지 소속이 보이실 것입니다.
00:41
So what I'm going to talk about is why we don't have a good brain theory이론,
6
16000
4000
이제 저는 왜 우리에게 뇌 이론이 없는지에 대해 말해보겠습니다,
00:45
why it is important중대한 that we should develop나타나게 하다 one and what we can do about it.
7
20000
3000
우리가 뇌 이론을 정립하는 게 왜 중요한 지와, 그걸 정립하기 위해서 무얼 할 수 있는지도요.
00:48
And I'll try to do all that in 20 minutes의사록. I have two affiliations제휴.
8
23000
3000
이 모든 것을 20분 동안 강연하려 합니다. 전 소속이 두 곳입니다.
00:51
Most가장 of you know me from my Palm손바닥 안에 감추다 and Handspring재주 넘기 days,
9
26000
3000
많은 분들이 제가 팜, 그리고 핸드스프링에서 일하던 시절로부터 절 알고 계시지만
00:54
but I also또한 run운영 a nonprofit비영리 단체 scientific과학적 research연구 institute학회
10
29000
3000
저는 비영리 과학 연구소도 경영하고 있습니다.
00:57
called전화 한 the Redwood세쿼이아 Neuroscience신경 과학 Institute학회 in Menlo멘로 Park공원,
11
32000
2000
멘로파크에 있는 레드우드 뇌과학 연구소-라는 곳입니다.
00:59
and we study연구 theoretical이론적 인 neuroscience신경 과학,
12
34000
2000
여기선 이론적인 뇌과학과
01:01
and we study연구 how the neocortex신피질 works공장.
13
36000
2000
대뇌 신피질이 어떻게 기능하는지에 대해 연구합니다.
01:03
I'm going to talk all about that.
14
38000
2000
이제 저는 이것들에 대해 말해보려 합니다.
01:05
I have one slide슬라이드 on my other life, the computer컴퓨터 life, and that's the slide슬라이드 here.
15
40000
3000
또 하나의 슬라이드에는 저의 다른 삶에 관한 것입니다, 컴퓨터 삶이죠, 여기있는 슬라이드입니다.
01:08
These are some of the products제작품 I've worked일한 on over the last 20 years연령,
16
43000
3000
이 제품들은 제가 지난 20년동안 작업해온 것들입니다,
01:11
starting출발 back from the very original실물 laptop휴대용 퍼스널 컴퓨터 to some of the first tablet태블릿 computers컴퓨터들
17
46000
4000
아주 최초의 랩탑에서부터 시작해서 초반의 태블릿 컴퓨터,
01:15
and so on, and ending종결 up most가장 recently요새 with the Treo트레오,
18
50000
2000
다른 여러 제품들, 그리고 마지막에 있는 최근의 트레오까지 있죠.
01:17
and we're continuing계속하다 to do this.
19
52000
2000
그리고 저희는 이 작업을 계속 이어가고 있습니다.
01:19
And I've done끝난 this because I really believe that mobile변하기 쉬운 computing컴퓨팅
20
54000
2000
제가 이렇게 지금껏 연구해온 이유은 저는 정말 모바일 컴퓨팅이
01:21
is the future미래 of personal개인적인 computing컴퓨팅, and I'm trying견딜 수 없는 to make the world세계
21
56000
3000
개인용 컴퓨터의 미래라고 생각하기때문이죠,그래서 이런것을 개발함으로 이 세상을
01:24
a little bit비트 better by working on these things.
22
59000
3000
조금더 살기 좋은 곳으로 만들어보려합니다.
01:27
But this was, I have to admit들이다, all an accident사고.
23
62000
2000
제가 인정하는 건. 이게 다 우연이였다는 것입니다.
01:29
I really didn't want to do any of these products제작품
24
64000
2000
저는 이런 제품 관련일을 할 생각이 없었습니다.
01:31
and very early이른 in my career직업 I decided결정적인
25
66000
2000
게다가 막 경력이 시작할 때부터
01:33
I was not going to be in the computer컴퓨터 industry산업.
26
68000
3000
컴퓨터 사업 쪽은 안 할거라고 결심했었습니다.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
제가 여기에 대해서 더 말하기 전에 또 알려드릴게 있습니다.
01:38
this one little picture그림 of graffiti낙서 there I picked뽑힌 off the web편물 the other day.
28
73000
2000
이 그래피티 사진은 제가 어느 웹사이트에서 가져온 것입니다.
01:40
I was looking for a picture그림 of graffiti낙서, little text본문 input입력 language언어,
29
75000
3000
저는 그래피티 사진을 찾고 있었습니다, 조그마한 텍스트 입력 언어 같은 것이죠.
01:43
and I found녹이다 the website웹 사이트 dedicated헌신적 인 to teachers교사 who want to make these,
30
78000
3000
그러다 이런 것들을 직접 만들고 싶은 선생님들을 위한 웹사이트를 찾았습니다.
01:46
you know, the script스크립트 writing쓰기 things across건너서 the top상단 of their그들의 blackboard칠판,
31
81000
3000
다들 아시는 칠판 위에 쓰는 스크립트 같은 것들 있잖아요, 그리고
01:49
and they had added추가 된 graffiti낙서 to it, and I'm sorry about that.
32
84000
3000
그들은 거기다 그래피티를 추가했던 것이였죠. 그리고 그게 참 유감이긴해요.
01:52
(Laughter웃음)
33
87000
2000
(웃음)
01:54
So what happened일어난 was, when I was young어린 and got out of engineering공학 school학교
34
89000
5000
그래서 어떻게 됬냐면, 제가 젊고, 공대를 막 나왔을 때,
01:59
at Cornell코넬 in '79, I decided결정적인 -- I went갔다 to work for Intel인텔 and
35
94000
4000
79년 코넬대에서였죠, 저는 인텔에 가 일하기로 결정했습니다.
02:03
I was in the computer컴퓨터 industry산업 -- and three months개월 into that,
36
98000
3000
컴퓨터 산업에 있었던 거죠. 그리고 삼개월이 지나
02:06
I fell되다 in love with something else그밖에, and I said, "I made만든 the wrong잘못된 career직업 choice선택 here,"
37
101000
4000
"경력 선택을 잘못했어" 라고 말하면서, 전 좀 다른것에 빠지게 됩니다
02:10
and I fell되다 in love with brains두뇌.
38
105000
3000
뇌에 빠져버리게 된 것입니다.
02:13
This is not a real레알 brain. This is a picture그림 of one, a line drawing그림.
39
108000
3000
이건 진짜 뇌는 아닙니다. 뇌의 선화 그림이죠.
02:16
But I don't remember생각해 내다 exactly정확하게 how it happened일어난,
40
111000
3000
사실 제가 왜 뇌에 빠지게 됐는지 정확하게 다 기억나지는 않지만
02:19
but I have one recollection회상, which어느 was pretty예쁜 strong강한 in my mind마음.
41
114000
3000
아직도 제가 확실히 기억하고있는 딱 하나가 있습니다.
02:22
In September구월 1979, Scientific과학 American미국 사람 came왔다 out
42
117000
3000
1979년 9월판 사이언티픽 아메리칸 (역자 주: 미국의 과학잡지) 이 나왔는데,
02:25
with a single단일 topic이야기 issue발행물 about the brain. And it was quite아주 good.
43
120000
3000
한 가지 주제만 다루는, 뇌에 관한 특별판이었어요. 내용이 꽤 괜찮았죠.
02:28
It was one of the best베스트 issues문제 ever. And they talked말한 about the neuron뉴런
44
123000
3000
그 특별판은 그간 나온 것들 중 최고에 속했어요. 뉴런에 대한 기사도 있었고,
02:31
and development개발 and disease질병 and vision시력 and all the things
45
126000
2000
발달과 질병 그리고 시각등을 다루는 등
02:33
you might want to know about brains두뇌. It was really quite아주 impressive인상적인.
46
128000
3000
뇌에 대해 알고 싶을만한 모든 것들을 기사로 실었습니다. 정말 인상적이였죠.
02:36
And one might have the impression인상 that we really knew알고 있었다 a lot about brains두뇌.
47
131000
3000
이걸 읽고 나면 사람들이, 아- 우리가 뇌에 대해서 정말 많은 걸 알고 있구나-하는 느낌을 받을 정도였죠.
02:39
But the last article in that issue발행물 was written by Francis프란시스 Crick근육 경련 of DNADNA fame명성.
48
134000
4000
이 이슈의 마지막 기사 글은 DNA로 명성이 있는 프랜시스 크릭이 쓴 내용입니다.
02:43
Today오늘 is, I think, the 50th anniversary기념일 of the discovery발견 of DNADNA.
49
138000
3000
오늘이, 아마, DNA를 발견한지 50주년이 되죠.
02:46
And he wrote a story이야기 basically원래 saying속담,
50
141000
2000
한마디로 이런 내용이였습니다.
02:48
well, this is all well and good, but you know what,
51
143000
3000
지금까지의 것들은 다 괜찮긴하지만, 우리는
02:51
we don't know diddleyDiddley squat쪼그리고 앉은 about brains두뇌
52
146000
2000
뇌에 관하여 무지합니다 그리고
02:53
and no one has a clue실마리 how these things work,
53
148000
2000
아무도 이게 어떻게 돌아가는지도 전혀 모르죠.
02:55
so don't believe what anyone누군가 tells말하다 you.
54
150000
2000
그러니 누가 뭐라고 하든 믿지마세요.
02:57
This is a quote인용문 from that article. He said, "What is conspicuously눈에 띄게 lacking부족한,"
55
152000
3000
그 기사에서 발췌한 내용입니다. 그는 '현저하게 부족합니다" 라고 말했죠,
03:00
he's a very proper적절한 British영국인 gentleman신사 so, "What is conspicuously눈에 띄게 lacking부족한
56
155000
4000
그 분은 품위있는 영국신사입니다, "현저하게 모자라고 있는것은
03:04
is a broad넓은 framework뼈대 of ideas아이디어 in which어느 to interpret새기다 these different다른 approaches구혼."
57
159000
3000
이런 다양한 접근법들을 그 테두리 안에서 해석하게 해 줄 폭 넓은 사고의 틀입니다."
03:07
I thought the word워드 framework뼈대 was great.
58
162000
2000
전 틀,뼈대라는 단어가 멋지다고 생각했습니다.
03:09
He didn't say we didn't even have a theory이론. He says말한다,
59
164000
2000
그는 '우리는 이론이 없습니다'라고 말하지 않고,
03:11
we don't even know how to begin시작하다 to think about it --
60
166000
2000
'우리는 뇌에 관하여 어떻게 시작해야 하는지 조차 모르고있습니다 --
03:13
we don't even have a framework뼈대.
61
168000
2000
우리는 심지어 틀도 없죠'라고 말했습니다.
03:15
We are in the pre-paradigm사전 패러다임 days, if you want to use Thomas도마 Kuhn.
62
170000
3000
토마스 쿤을 응용하자면 우리는 패러다임의 이전 세상에 존재하고 있는거죠.
03:18
And so I fell되다 in love with this, and said look,
63
173000
3000
그래서 전 뇌에 푹 빠졌습니다. 그리고 말했죠, 이거 봐-
03:21
we have all this knowledge지식 about brains두뇌. How hard단단한 can it be?
64
176000
3000
우린 뇌에 대해서 벌써 이만큼이나 지식을 갖고 있는데, 어려워 봤자 얼마나 어렵겠어?
03:24
And this is something we can work on my lifetime일생. I felt펠트 I could make a difference,
65
179000
3000
이건 내 인생에 해 볼만한 것 같아. 전 무언가 해낼 수 있겠다는 생각이 들었죠.
03:27
and so I tried시도한 to get out of the computer컴퓨터 business사업, into the brain business사업.
66
182000
4000
그래서 전 컴퓨터 사업에서 벗어나서 뇌와 관련된 쪽으로 전환해 보려고 시도했어요.
03:31
First, I went갔다 to MITMIT, the AIAI lab was there,
67
186000
2000
처음에는 MIT로 갔죠. AI 연구소가 거기있었으니까요.
03:33
and I said, well, I want to build짓다 intelligent지적인 machines기계들, too,
68
188000
2000
'나도 한번 지능형머신을 만들어 보고 싶어'하면서요.
03:35
but the way I want to do it is to study연구 how brains두뇌 work first.
69
190000
3000
하지만 전 뇌가 어떻게 작동하는지부터 공부하고 싶었어요.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
그런데 거기서는, '아 그런건 몰라도 돼'
03:41
We're just going to program프로그램 computers컴퓨터들; that's all we need to do.
71
196000
2000
'그냥 우린 컴퓨터 프로그래밍만 할꺼야. 우린 그것만 하면 돼'
03:43
And I said, no, you really ought to study연구 brains두뇌. They said, oh, you know,
72
198000
3000
전, '아니죠. 우린 뇌에대해서도 공부를 해야되요.'라고 했습니다.
03:46
you're wrong잘못된. And I said, no, you're wrong잘못된, and I didn't get in.
73
201000
2000
'아니, 당신들이 틀렸다'고 했죠. 그리고 합격하지 못했습니다.
03:48
(Laughter웃음)
74
203000
1000
(웃음)
03:50
But I was a little disappointed실망한 -- pretty예쁜 young어린 -- but I went갔다 back again
75
205000
2000
전 조금 실망 실망했었습니다 - 꽤 어렸으니까요. 그렇지만 다시 돌아갔죠.
03:52
a few조금 years연령 later후에 and this time was in California캘리포니아, and I went갔다 to Berkeley버클리.
76
207000
3000
몇년이 지나 이번엔 캘리포니아의 버클리로 갔습니다.
03:55
And I said, I'll go in from the biological생물학의 side측면.
77
210000
4000
'이번엔 생물학쪽으로 한번 들어가보자'하면서요.
03:59
So I got in -- in the PhPh.D. program프로그램 in biophysics생물 물리학, and I was, all right,
78
214000
3000
그래서 생물리학 박사과정으로 들어가게 됬어요. 전 '그래'
04:02
I'm studying공부하는 brains두뇌 now, and I said, well, I want to study연구 theory이론.
79
217000
3000
지금부터 뇌에 대해서 공부하는구나. 전 '이론을 공부해 보고 싶다' 고 했죠.
04:05
And they said, oh no, you can't study연구 theory이론 about brains두뇌.
80
220000
2000
그러자 거기서, '아니, 뇌 이론은 안 되지' 그러는 거예요.
04:07
That's not something you do. You can't get funded자금을 조달 한 for that.
81
222000
2000
'그건 할 만한 게 못 돼. 연구비 지원도 못 받아'
04:09
And as a graduate졸업하다 student학생, you can't do that. So I said, oh my gosh어리석은.
82
224000
4000
대학원생으로서, 그럼 할 수가 없었죠. 전 '아, 이런.'
04:13
I was very depressed우울한. I said, but I can make a difference in this field.
83
228000
2000
하고 낙담했었죠. '난 이 분야에서 독특하게 무언가 할 수 있는데' 했으니까요.
04:15
So what I did is I went갔다 back in the computer컴퓨터 industry산업
84
230000
3000
그래서 저는 다시 컴퓨터 산업 쪽으로 돌아가게 됩니다.
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
아 당분간은 뭔가 하면서 이 쪽에서 일해야겠구나' 하면서요.
04:20
That's when I designed디자인 된 all those computer컴퓨터 products제작품.
86
235000
3000
그랬던 그 때가, 바로 여기 보시는 모든 컴퓨터 제품들을 디자인했던 시기에요.
04:23
(Laughter웃음)
87
238000
1000
(웃음)
04:24
And I said, I want to do this for four years연령, make some money,
88
239000
3000
전 그랬죠, '난 4년 동안 이렇게 하면서 돈도 벌고
04:27
like I was having a family가족, and I would mature성숙한 a bit비트,
89
242000
4000
가족도 갖고, 좀 성숙해지고 싶다고,
04:31
and maybe the business사업 of neuroscience신경 과학 would mature성숙한 a bit비트.
90
246000
3000
아마 뇌 과학쪽도 조금은 성숙해지겠지' 하면서요.
04:34
Well, it took~했다 longer더 길게 than four years연령. It's been about 16 years연령.
91
249000
3000
그런데 4년보다 더 걸리더라구요. 16년 정도가 됬어요.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
그렇지만 지금은 하고 있습니다, 뇌에 관하여 이야기하죠.
04:39
So why should we have a good brain theory이론?
93
254000
3000
그러니깐 왜 우리가 좋은 뇌 이론을 가져야 하죠?
04:42
Well, there's lots of reasons원인 people do science과학.
94
257000
3000
음, 사람들이 과학을 하는 이유는 다양합니다.
04:45
One is -- the most가장 basic기본 one is -- people like to know things.
95
260000
3000
한 가지는-가장 기본적이기도 한데요- 우린 알아내고 싶어하기 때문입니다.
04:48
We're curious이상한, and we just go out and get knowledge지식, you know?
96
263000
2000
우리는 호기심이 가득해요. 그 호기심을 채우려고 나가서 지식을 얻죠, 그렇잖아요?
04:50
Why do we study연구 ants개미? Well, it's interesting재미있는.
97
265000
2000
왜 우리가 개미를 연구하죠? 그냥 재밌으니까요.
04:52
Maybe we'll learn배우다 something really useful유능한 about it, but it's interesting재미있는 and fascinating매혹적인.
98
267000
3000
어쩌면 뭔가 유용한 걸 밝혀낼수도 있겠죠. 그래도 재밌고 신비합니다.
04:55
But sometimes때때로, a science과학 has some other attributes속성들
99
270000
2000
그런데 때때로 과학에는 다른 특성들이 있습니다
04:57
which어느 makes~을 만든다 it really, really interesting재미있는.
100
272000
2000
아주 재미있게 만들어 주는 것들이죠.
04:59
Sometimes때때로 a science과학 will tell something about ourselves우리 스스로,
101
274000
3000
과학은 우리 자신에 대해 무언가 알려주기도 하죠.
05:02
it'll그것은 tell us who we are.
102
277000
1000
우리가 누구인가에 대해서도.
05:03
Rarely드물게, you know: evolution진화 did this and Copernicus코페르니쿠스 did this,
103
278000
3000
드물게는, 여러분께서 알다시피 진화론과 코페르니쿠스가 했던 것처럼
05:06
where we have a new새로운 understanding이해 of who we are.
104
281000
2000
우리 자신에 대해 새로운 발상을 하게 하죠.
05:08
And after all, we are our brains두뇌. My brain is talking말하는 to your brain.
105
283000
4000
결국에는 우리가 바로 뇌이니까요. 제 뇌가 여러분의 뇌에게 말하고 있는 것처럼 말이죠.
05:12
Our bodies시체 are hanging교수형 along...을 따라서 for the ride타기, but my brain is talking말하는 to your brain.
106
287000
3000
우리 몸은 뇌에 걸쳐져 있는 것 뿐이고, 제 뇌가 여러분 뇌에게 말하고 있는 것이죠.
05:15
And if we want to understand알다 who we are and how we feel and perceive지각하다,
107
290000
3000
그리고 만약 우리가 우리 자신이 누군지, 어떻게 느끼고 지각하는 지 등을 알고 싶다면,
05:18
we really understand알다 what brains두뇌 are.
108
293000
2000
정말 뇌가 무엇인지를 이해해야 해요.
05:20
Another다른 thing is sometimes때때로 science과학
109
295000
2000
또 한 가지는 때때로 과학은
05:22
leads리드 to really big societal사회 benefits은혜 and technologies기술,
110
297000
2000
사회적으로 큰 이익이나 기술이나 사업같은 쪽으로 우릴 이끌어 갈 때가 있어요
05:24
or businesses사업, or whatever도대체 무엇이, that come out of it. And this is one, too,
111
299000
2000
그리고 뇌과학 역시 그래요.
05:26
because when we understand알다 how brains두뇌 work, we're going to be able할 수 있는
112
301000
3000
왜냐면 우리가 뇌가 어떻게 기능하는지 알게 되면
05:29
to build짓다 intelligent지적인 machines기계들, and I think that's actually사실은 a good thing on the whole완전한,
113
304000
3000
지능형 머신을 만들 수 있습니다, 전체적으로 보아 사실상 잘 된 일이죠.
05:32
and it's going to have tremendous거대한 benefits은혜 to society사회,
114
307000
2000
사회에 엄청난 이익을 가져올 것입니다.
05:34
just like a fundamental기본적인 technology과학 기술.
115
309000
2000
근본적인 기술처럼 말이죠.
05:36
So why don't we have a good theory이론 of brains두뇌?
116
311000
2000
그럼 왜 우린 좋은 뇌 이론이 없을까요?
05:38
And people have been working on it for 100 years연령.
117
313000
3000
사람들이 100년씩이나 연구해오고 있는데도 말입니다.
05:41
Well, let's first take a look at what normal표준 science과학 looks외모 like.
118
316000
2000
그럼, 우선 전형적 과학은 어떤 식인지 살펴볼까요.
05:43
This is normal표준 science과학.
119
318000
2000
이것이 전형적인 과학입니다.
05:45
Normal표준 science과학 is a nice좋은 balance밸런스 between중에서 theory이론 and experimentalists실험 주의자.
120
320000
4000
보통의 과학은 이론과 실험이 적절한 평형을 이루죠.
05:49
And so the theorist이론가 guys say, well, I think this is what's going on,
121
324000
2000
이론을 공부하는 사람은, '그래, 이건 이런 원리인거 같아'하죠.
05:51
and the experimentalist실험 주의자 says말한다, no, you're wrong잘못된.
122
326000
2000
그리고 실험하는 사람은, '아니, 그건 틀렸어'
05:53
And it goes간다 back and forth앞으로, you know?
123
328000
2000
알다시피, 그러면서 주거니 받거니 하는거죠.
05:55
This works공장 in physics물리학. This works공장 in geology지질학. But if this is normal표준 science과학,
124
330000
2000
이건 물리, 지질학에서 통합니다. 이게 전형적 과학이라면,
05:57
what does neuroscience신경 과학 look like? This is what neuroscience신경 과학 looks외모 like.
125
332000
3000
뇌과학은 어떻게 생겼을까요? 이게 뇌과학의 모습입니다.
06:00
We have this mountain of data데이터, which어느 is anatomy해부, physiology생리학 and behavior행동.
126
335000
5000
우리는 산더미처럼 쌓인 데이터가 있습니다. 해부학, 생리학, 행동학같은.
06:05
You can't imagine상상하다 how much detail세부 묘사 we know about brains두뇌.
127
340000
3000
우리가 뇌에 대해서 얼마나 세세하게 알고있는지 아마 상상도 못하실 것입니다
06:08
There were 28,000 people who went갔다 to the neuroscience신경 과학 conference회의 this year,
128
343000
4000
올해 뇌과학 컨퍼런스에 28,000명이 모였어요.
06:12
and every...마다 one of them is doing research연구 in brains두뇌.
129
347000
2000
그리고 그 한 사람 한 사람이 모두 뇌에 관한 연구를 하고있죠.
06:14
A lot of data데이터. But there's no theory이론. There's a little, wimpy위핌 box상자 on top상단 there.
130
349000
4000
많은 자료가 있는데 이론은 없습니다. 아주 조금 있죠,
06:18
And theory이론 has not played연주 한 a role역할 in any sort종류 of grand멋진 way in the neurosciences신경 과학.
131
353000
5000
이론은 뇌과학에서 중대한 방법으로서 제 역할도 못하고 있습니다.
06:23
And it's a real레알 shame부끄러움. Now why has this come about?
132
358000
3000
이건 정말 안 된 일이에요. 자, 그럼 왜 이런 현상이 나타나는 걸까요?
06:26
If you ask청하다 neuroscientists신경 과학자, why is this the state상태 of affair,
133
361000
2000
뇌과학자들에게 왜 이런 상태냐고 묻는다면
06:28
they'll그들은 할 것이다 first of all admit들이다 it. But if you ask청하다 them, they'll그들은 할 것이다 say,
134
363000
3000
우선 인정은 할 것입니다. 그리고 그들은 말하겠죠,
06:31
well, there's various여러 reasons원인 we don't have a good brain theory이론.
135
366000
3000
"음, 왜 만족스런 뇌 이론이 없는지에 대한 이유는 많죠."
06:34
Some people say, well, we don't still have enough충분히 data데이터,
136
369000
2000
어떤 사람은, '아직도 자료가 충분치 않아요,'
06:36
we need to get more information정보, there's all these things we don't know.
137
371000
3000
'더 많은 지식이 필요해요, 우리가 모르는게 이렇게 많은데요'
06:39
Well, I just told you there's so much data데이터 coming오는 out your ears.
138
374000
3000
그런데 제가 방금 자료는 넘쳐나고 있다는 걸 말씀드렸죠.
06:42
We have so much information정보, we don't even know how to begin시작하다 to organize구성 it.
139
377000
3000
우리는 자료가 너무 많습니다. 어디서부터 정리해야 될 지 모를 정도이죠.
06:45
What good is more going to do?
140
380000
2000
더 많아진다 한들 무슨 도움이 될까요?
06:47
Maybe we'll be lucky운이 좋은 and discover발견하다 some magic마법 thing, but I don't think so.
141
382000
3000
아주 운이 좋으면 마술같은 것을 발견할 수도 있겠죠. 가능성은 낮지만요.
06:50
This is actually사실은 a symptom징후 of the fact that we just don't have a theory이론.
142
385000
3000
이게 사실 우리가 이론이 없다는 것에 대한 반증입니다.
06:53
We don't need more data데이터 -- we need a good theory이론 about it.
143
388000
3000
우리는 데이터가 더 필요한 게 아니에요. 뇌에 대한 좋은 이론이 필요한 거죠.
06:56
Another다른 one is sometimes때때로 people say, well, brains두뇌 are so complex복잡한,
144
391000
3000
또 다른 사실 하나는, 사람들이 가끔 이렇게 얘기합니다. '뇌라는 건 너무 복잡해-
06:59
it'll그것은 take another다른 50 years연령.
145
394000
2000
50년은 더 걸릴거야.' 라고 말이죠.
07:01
I even think Chris크리스 said something like this yesterday어제.
146
396000
2000
심지어 크리스도 어제 이런식으로 이야기 했었죠.
07:03
I'm not sure what you said, Chris크리스, but something like,
147
398000
2000
크리스 씨가 한말이 무엇인지 정확히 생각이 나지 않지만,
07:05
well, it's one of the most가장 complicated복잡한 things in the universe우주. That's not true참된.
148
400000
3000
아마 뇌가 우주에서 제일 복잡한 것이라는 설명이였죠. 그러데 그건 사실이 아닙니다.
07:08
You're more complicated복잡한 than your brain. You've got a brain.
149
403000
2000
여러분들이 여러분의 뇌보다 복잡하죠. 뇌를 갖고 계시잖아요.
07:10
And it's also또한, although이기는 하지만 the brain looks외모 very complicated복잡한,
150
405000
2000
뇌는 보기에는 복잡해 보여도요
07:12
things look complicated복잡한 until...까지 you understand알다 them.
151
407000
3000
이해하기 전까진 다 복잡해 보이는 법이죠.
07:15
That's always been the case케이스. And so all we can say, well,
152
410000
3000
지금껏 다 그랬듯요. 우리는, 음,
07:18
my neocortex신피질, which어느 is the part부품 of the brain I'm interested관심있는 in, has 30 billion십억 cells세포들.
153
413000
4000
신피질, 제가 흥미를 가지는 이 부분은 300억개의 세포로 되어있다고 말할 수 있습니다
07:22
But, you know what? It's very, very regular정규병.
154
417000
2000
그러데 알고계시나요? 이 피질은 아주 일정하다는 것이죠.
07:24
In fact, it looks외모 like it's the same같은 thing repeated반복 된 over and over and over again.
155
419000
3000
실제로, 똑같은 것이 계속 반복되는 것처럼 보이죠.
07:27
It's not as complex복잡한 as it looks외모. That's not the issue발행물.
156
422000
3000
뇌는 보이는 것만큼 복잡하지가 않다는 겁니다. 그래서 복잡함-은 이슈가 되지 않아요.
07:30
Some people say, brains두뇌 can't understand알다 brains두뇌.
157
425000
2000
어떤 사람은, 뇌가 뇌를 이해할 수는 없을 것이라고 합니다.
07:32
Very Zen-like선 같은. Whoo. (Laughter웃음)
158
427000
3000
오오. 꼭 도에 관한 것 (zen=선,禪)같지 않나요.
07:35
You know,
159
430000
1000
(웃음)
07:36
it sounds소리 good, but why? I mean, what's the point포인트?
160
431000
3000
멋있게 들리죠, 근데 왜죠? 그러니까 무슨 뜻인 것이죠?
07:39
It's just a bunch다발 of cells세포들. You understand알다 your liver.
161
434000
3000
그냥 세포 뭉텅이죠. 여러분들, 간에 대해서 다 이해하시잖아요.
07:42
It's got a lot of cells세포들 in it too, right?
162
437000
2000
간도 세포가 많은데요, 그렇죠?
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
그럼 이건 아닌거 같네요.
07:46
And finally마침내, some people say, well, you know,
164
441000
2000
마지막으로, 몇몇의 사람들은 말하죠,
07:48
I don't feel like a bunch다발 of cells세포들, you know. I'm conscious의식이있는.
165
443000
4000
'난 내가 세포 뭉텅이 같진 않아, 알다시피, 난 의식하고 있잖아.
07:52
I've got this experience경험, I'm in the world세계, you know.
166
447000
2000
알다시피, 난 경험도 쌓았고, 이 세상에 있는데,
07:54
I can't be just a bunch다발 of cells세포들. Well, you know,
167
449000
2000
세포 뭉텅이일수가 없지. 안 그래?'
07:56
people used to believe there was a life force to be living생활,
168
451000
3000
옛날엔 살아가게 하는 생명의 힘(life force)의 존재를 믿었습니다.
07:59
and we now know that's really not true참된 at all.
169
454000
2000
그리고 지금은 그건 전혀 사실이 아닌 것을 알고있죠.
08:01
And there's really no evidence증거 that says말한다 -- well, other than people
170
456000
3000
믿고 있지 않는 사람들 빼고는 딱히 증거는 없습니다.
08:04
just have disbelief불신 that cells세포들 can do what they do.
171
459000
2000
그들은 세포들이 그런식의 제 역할을 할 수 있다는 것을 못 믿죠.
08:06
And so, if some people have fallen타락한 into the pit피트 of metaphysical형이상학 적 dualism이중성,
172
461000
3000
몇몇의 사람들이 형이상학적인 이원론에 빠져있다면,
08:09
some really smart똑똑한 people, too, but we can reject받지 않다 all that.
173
464000
3000
똑똑한 사람들도 마찬가지죠. 하지만 우린 이런 것을 다 거부할 수 있습니다.
08:12
(Laughter웃음)
174
467000
2000
(웃음)
08:14
No, I'm going to tell you there's something else그밖에,
175
469000
3000
또 다른 게 있다는 것을 알려드리겠습니다,
08:17
and it's really fundamental기본적인, and this is what it is:
176
472000
2000
정말 기본적인 것입니다, 바로 이것이죠:
08:19
there's another다른 reason이유 why we don't have a good brain theory이론,
177
474000
2000
좋은 뇌 이론이 없는 또 다른 이유가 있습니다.
08:21
and it's because we have an intuitive직관적 인, strongly-held강하게 개최 된,
178
476000
3000
우리를 강하게 사로잡는 직감을 가지고 있기 때문이죠,
08:24
but incorrect부정확 한 assumption인수 that has prevented예방 된 us from seeing the answer대답.
179
479000
5000
하지만 이 부정확한 가정은 우리가 바른 답을 볼 수 없도록 막아왔습니다.
08:29
There's something we believe that just, it's obvious분명한, but it's wrong잘못된.
180
484000
3000
말하자면, 우리가 믿는 무언가가 있다고 합시다. 아주 분명한 것 같은데, 사실은 그게 틀린- 그런 경우에요.
08:32
Now, there's a history역사 of this in science과학 and before I tell you what it is,
181
487000
4000
자, 뭔지 여러분께 말씀 드리기 전에- 지금까지 과학에서는 이런 경우가 쭉 있어 왔습니다.
08:36
I'm going to tell you a bit비트 about the history역사 of it in science과학.
182
491000
2000
과학 안에서의 그 역사에 대해서 조금 말씀드리기로 하죠.
08:38
You look at some other scientific과학적 revolutions혁명,
183
493000
2000
(뇌과학이 아닌 분야에서의) 다른 과학적 진화들을 한 번 생각해 보세요
08:40
and this case케이스, I'm talking말하는 about the solar태양 system체계, that's Copernicus코페르니쿠스,
184
495000
2000
예를 들자면 태양계 이론 같은 걸 말하는 겁니다, 이건 코페르니쿠스였구요-
08:42
Darwin's다윈 evolution진화, and tectonic지각의 plates, that's Wegener베게너.
185
497000
3000
다윈의 진화론, 그리고 또 판 구조론, 이건 베게너였죠.
08:45
They all have a lot in common공유지 with brain science과학.
186
500000
3000
모두 뇌과학과 많은 공통점이 있습니다.
08:48
First of all, they had a lot of unexplained설명 할 수없는 data데이터. A lot of it.
187
503000
3000
첫 번째로, 앞에 언급한 케이스들 모두 설명되지 않은 데이터만 많이 있었습니다.
08:51
But it got more manageable다루기 쉬운 once일단 they had a theory이론.
188
506000
3000
하지만 일단 이론이 나오고 나서부터는 그 데이터들을 다루기가 쉬워졌었죠.
08:54
The best베스트 minds마음 were stumped뒤죽박죽 -- really, really smart똑똑한 people.
189
509000
3000
최고의 학자들도 (이론이 나오기 전까진) 그렇게 막혔었어요. 정말, 정말 똑똑한 사람들이었는데도요.
08:57
We're not smarter똑똑한 now than they were then.
190
512000
2000
우리는 그들보다 똑똑하지 않습니다.
08:59
It just turns회전 out it's really hard단단한 to think of things,
191
514000
2000
결국 이런 이론들을 생각해내는 게 정말 어렵다고 판명된 겁니다.
09:01
but once일단 you've thought of them, it's kind종류 of easy쉬운 to understand알다 it.
192
516000
2000
그렇지만 한 번 생각해 내고 나면, 그 다음엔 이해하기가 꽤 쉬운 거죠.
09:03
My daughters understood이해 된 these three theories이론들
193
518000
2000
저의 딸들은 이 세 개의 이론을 이해했습니다
09:05
in their그들의 basic기본 framework뼈대 by the time they were in kindergarten유치원.
194
520000
3000
유치원에 들어갈 무렵에는 벌써 그 이론들의 기본적인 틀은 다 이해했어요.
09:08
And now it's not that hard단단한, you know, here's여기에 the apple사과, here's여기에 the orange주황색,
195
523000
3000
어려운 것들이 아니거든요, 알다시피, 여기 사과, 오렌지가 있고,
09:11
you know, the Earth지구 goes간다 around, that kind종류 of stuff물건.
196
526000
3000
알다시피, 지구가 태양 주위를 돈다는 이론 같은 것들이죠.
09:14
Finally마침내, another다른 thing is the answer대답 was there all along...을 따라서,
197
529000
2000
그리고 또 하나 짚고 넘어갈 건, 그 답이 언제나 거기 있었다는 사실입니다.
09:16
but we kind종류 of ignored무시당한 it because of this obvious분명한 thing, and that's the thing.
198
531000
3000
그렇지만 우린 그걸 무시해오곤 했어요, 왜냐하면 너무 당연하고-
09:19
It was an intuitive직관적 인, strong-held강하게 잡힌 belief믿음 that was wrong잘못된.
199
534000
3000
직관적이고, 그래서 우리를 강하게 지배해 온 그 틀린 믿음 때문에요.
09:22
In the case케이스 of the solar태양 system체계, the idea생각 that the Earth지구 is spinning제사
200
537000
3000
태양계를 예로 들어보자면, 기본 개념은 그거죠- 지구가 회전하고,
09:25
and the surface표면 of the Earth지구 is going like a thousand miles마일 an hour시간,
201
540000
3000
지구의 표면이 한시간에 천 마일정도 움직이며,
09:28
and the Earth지구 is going through...을 통하여 the solar태양 system체계 about a million백만 miles마일 an hour시간.
202
543000
3000
그리고 지구가 시간 당 백만 마일 정도의 속도로 태양계 안을 돈다, 라는 거에요.
09:31
This is lunacy전광. We all know the Earth지구 isn't moving움직이는.
203
546000
2000
말이 안 되는 것이죠. 모두 지구가 움직이지 않는다는 것을 알고 있습니다.
09:33
Do you feel like you're moving움직이는 a thousand miles마일 an hour시간?
204
548000
2000
한 시간에 지구가 천 마일 정도 움직이는 것이 느껴지나요?
09:35
Of course코스 not. You know, and someone어떤 사람 who said,
205
550000
2000
당연히 그렇게 느껴지지 않잖아요. 안그래요? (그 당시에) 누군가가 이렇게 말했다고 합시다,
09:37
well, it was spinning제사 around in space공간 and it's so huge거대한,
206
552000
2000
음, 지구는 우주를 돌아, 그리고 매우 크지,
09:39
they would lock자물쇠 you up, and that's what they did back then.
207
554000
2000
그런 말을 했다면, 당신은 아마 감옥에 갇힐 거에요. 당시에는 그렇게 감금을 했었구요.
09:41
(Laughter웃음)
208
556000
1000
(웃음)
09:42
So it was intuitive직관적 인 and obvious분명한. Now what about evolution진화?
209
557000
3000
그래요, 그건 직관적이고 너무 당연했거든요. 그럼 진화는 어떨까요?
09:45
Evolution's진화론 the same같은 thing. We taught가르쳤다 our kids아이들, well, the Bible성경 says말한다,
210
560000
3000
진화론도 똑같아요. 우리는 아이들한테 이렇게 가르쳤어요, 음, 성경에 따르면,
09:48
you know, God created만들어진 all these species, cats고양이 are cats고양이, dogs are dogs,
211
563000
2000
신이 모든 종을 창조했단 말입니다. 그래서, 고양이는 고양이이고- 개는 개이고,
09:50
people are people, plants식물 are plants식물, they don't change변화.
212
565000
3000
사람은 사람이고 식물은 식물이에요, 바뀌거나 하지 않습니다.
09:53
Noah남자 이름 put them on the Ark방주 in that order주문, blah~을, blah~을, blah~을. And, you know,
213
568000
4000
그리고 노아가 모든 종들을 그 순서대로 방주에 실었고 어쩌구 저쩌구- 아시다시피 말이에요-
09:57
the fact is, if you believe in evolution진화, we all have a common공유지 ancestor선조,
214
572000
4000
하지만 사실은, 만약 여러분들이 진화론을 믿는다면요, 우린 다 같은 조상을 가지고 있다는 것입니다.
10:01
and we all have a common공유지 ancestry가계 with the plant식물 in the lobby로비.
215
576000
3000
말하자면 로비에 놓여있는 식물과 우리는 다 같은 조상한테서 진화해 온 거라는 겁니다.
10:04
This is what evolution진화 tells말하다 us. And, it's true참된. It's kind종류 of unbelievable믿을 수 없는.
216
579000
3000
이것이 진화론이 우리에게 말하는 것입니다. 그리고, 이것은 믿기 힘들지만, 사실이죠.
10:07
And the same같은 thing about tectonic지각의 plates, you know?
217
582000
3000
그리고 지각판에 대한 것도 똑같은 이야기에요, 그렇죠?
10:10
All the mountains산들 and the continents대륙 are kind종류 of floating떠 있는 around
218
585000
2000
모든 산들, 그리고 대륙은 모두 지구 상단에 떠있는 상태이죠,
10:12
on top상단 of the Earth지구, you know? It's like, it doesn't make any sense감각.
219
587000
4000
그렇죠? 이것은 마치, 말이 안 되는 것 같습니다.
10:16
So what is the intuitive직관적 인, but incorrect부정확 한 assumption인수,
220
591000
4000
그럼 대체 어떤, 직관적이기는 하지만 부정확한 가정이 (앞의 경우들처럼)
10:20
that's kept보관 된 us from understanding이해 brains두뇌?
221
595000
2000
우리가 뇌를 이해하는 걸 방해하고 있는 걸까요?
10:22
Now I'm going to tell it to you, and it's going to seem보다 obvious분명한 that that is correct옳은,
222
597000
2000
이제 여러분께 그게 무언지에 대해서 말씀드릴거에요. 들어보시면, 그게 정확하다는 건 아주 분명할 겁니다.
10:24
and that's the point포인트, right? Then I'm going to have to make an argument논의
223
599000
2000
그게 핵심이에요, 그렇죠? 그런 다음에, 저는 왜 여러분들이 다른 가정에 대해서
10:26
why you're incorrect부정확 한 about the other assumption인수.
224
601000
2000
틀렸는지에 대해서 반론을 해야할 거에요.
10:28
The intuitive직관적 인 but obvious분명한 thing is that somehow어쩐지 intelligence지성
225
603000
3000
직관적이고 분명한 (그렇지만 틀린) 가정은 이겁니다, 어쨌든 지성은
10:31
is defined한정된 by behavior행동,
226
606000
2000
행동을 통해서 정의된다는 가정이에요.
10:33
that we are intelligent지적인 because of the way that we do things
227
608000
2000
우리가 무언가를 해 내는 방법들, 우리가 영리하게 행동하는 그 방법들이
10:35
and the way we behave굴다 intelligently지능적으로, and I'm going to tell you that's wrong잘못된.
228
610000
3000
사람을 지적으로 만든다는 가정인데, 이제 저는 그런 생각들이 틀렸다고 말씀드리려고 합니다.
10:38
What it is is intelligence지성 is defined한정된 by prediction예측.
229
613000
2000
이 지성은 예측에 의하여 증명됩니다.
10:40
And I'm going to work you through...을 통하여 this in a few조금 slides슬라이드 here,
230
615000
3000
여기 몇몇의 슬라이드를 통하여 여러분께 설명하고자 합니다,
10:43
give you an example of what this means방법. Here's여기에 a system체계.
231
618000
4000
지성에 대한 예가 있습니다, 여기 한 체계가 있습니다.
10:47
Engineers엔지니어 like to look at systems시스템 like this. Scientists과학자들 like to look at systems시스템 like this.
232
622000
3000
기술자들은 이와 같은 체계를 보기를 선호하죠. 과학자들 역시 그렇습니다.
10:50
They say, well, we have a thing in a box상자, and we have its inputs투입물 and its outputs산출물.
233
625000
3000
그 사람들은 그렇게 얘기해요, 여기 박스안에 뭔가 들어 있어요. 그리고 그 입력물과 출력물들도 여기 있구요.
10:53
The AIAI people said, well, the thing in the box상자 is a programmable프로그램 가능 computer컴퓨터
234
628000
3000
그럼 AI 연구자들은 얘기하겠죠, '박스 안에 든 그건 프로그래밍 가능한 컴퓨터입니다.' 라구요.
10:56
because that's equivalent동등한 to a brain, and we'll feed먹이 it some inputs투입물
235
631000
2000
왜냐면 그게 뇌와 동일한 것 같거든요. 우리가 어떤 입력값을 주고,
10:58
and we'll get it to do something, have some behavior행동.
236
633000
2000
그걸로 하여금 뭔가를 하게 시키고, 그럼 그 결과로 행동을 얻어내는 거에요.
11:00
And Alan앨런 Turing튜링 defined한정된 the Turing튜링 test테스트, which어느 is essentially본질적으로 saying속담,
237
635000
3000
그리고 앨런 튜링이 튜링 테스트라는 걸 정의했는데요, 기본적으로 이런 말입니다-
11:03
we'll know if something's뭔가 intelligent지적인 if it behaves행동하다 identical같은 to a human인간의.
238
638000
3000
'어떤 것이 지성을 가졌고 인간과 동일한 행동을 한다면 우리는 어떤 행동으로 지성을 측정할 지에 대해서 알게 될 것이다.'
11:06
A behavioral행동 적 metric미터법의 of what intelligence지성 is,
239
641000
3000
말하자면 지성을 측정하는 건 행동이라는 것이죠.
11:09
and this has stuck붙어있는 in our minds마음 for a long period기간 of time.
240
644000
3000
그리고 이 말은 오랫동안 우리의 마음에 남아있죠.
11:12
Reality현실 though그래도, I call it real레알 intelligence지성.
241
647000
2000
하지만 현실은 말입니다, 저는 이걸 진짜 지성이라고 부르는데요-
11:14
Real레알 intelligence지성 is built세워짐 on something else그밖에.
242
649000
2000
진짜 지성은 다른 것이죠.
11:16
We experience경험 the world세계 through...을 통하여 a sequence순서 of patterns패턴들, and we store저장 them,
243
651000
4000
우리는 패턴의 일치를 통하여 경험하며, 그것들을 저장하고,
11:20
and we recall소환 them. And when we recall소환 them, we match시합 them up
244
655000
3000
상기합니다. 이것들을 상기할 때, 우리는 실제에 대항하여 맞춰 봅니다.
11:23
against반대 reality현실, and we're making만들기 predictions예측 all the time.
245
658000
4000
그리고 언제나 예측을 하죠.
11:27
It's an eternal영원한 metric미터법의. There's an eternal영원한 metric미터법의 about us sort종류 of saying속담,
246
662000
3000
끊임없는 측량이에요. 우리 자신에 대한 끊임없는 측량 이라는 거죠, 말하자면
11:30
do we understand알다 the world세계? Am I making만들기 predictions예측? And so on.
247
665000
3000
우리가 세상을 이해할 수 있을까? 내가 지금 예측하고 있나? 기타 등등.
11:33
You're all being존재 intelligent지적인 right now, but you're not doing anything.
248
668000
2000
여러분은 모두 영리해지고 있습니다, 하지만 아무것도 하지 않고있죠.
11:35
Maybe you're scratching긁는 yourself당신 자신, or picking선발 your nose,
249
670000
2000
아마 지금 어딜 긁고 있거나, 코를 후비고 있거나 그럴지도 몰라요-
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
모르죠, 하지만 여러분은 지금 당장 아무것도 하고 있지 않습니다,
11:39
but you're being존재 intelligent지적인; you're understanding이해 what I'm saying속담.
251
674000
3000
하지만 영리해지고 있습니다, 제가 하는 말을 이해하고 있으시죠.
11:42
Because you're intelligent지적인 and you speak말하다 English영어,
252
677000
2000
영리하시니까요 그리고 영어를 말하실 수 있죠,
11:44
you know what word워드 is at the end종료 of this -- (Silence침묵)
253
679000
1000
여러분들은 지금 제가 하는 말 마지막에 올 단어가- (침묵)
11:45
sentence문장.
254
680000
2000
'문장' 이라는 걸 알아요.
11:47
The word워드 came왔다 into you, and you're making만들기 these predictions예측 all the time.
255
682000
3000
단어들이 그냥 떠오르는 거에요. 그리고 여러분들은 이런 종류의 예측을 항상 하고 있다는거죠.
11:50
And then, what I'm saying속담 is,
256
685000
2000
다음으로 제가 말하려 하는 것은,
11:52
is that the eternal영원한 prediction예측 is the output산출 in the neocortex신피질.
257
687000
2000
그 끊임없는 예측이라는 것이 대뇌 신피질이 내어놓는 출력물이라는 겁니다.
11:54
And that somehow어쩐지, prediction예측 leads리드 to intelligent지적인 behavior행동.
258
689000
3000
어찌되었든, 예측은 지적인 행동으로 이끕니다.
11:57
And here's여기에 how that happens일이. Let's start스타트 with a non-intelligent지능이없는 brain.
259
692000
3000
어떻게 발생하는지, 여기 보시죠. 영리하지 않은 뇌로 시작하겠습니다.
12:00
Well I'll argue논하다 a non-intelligent지능이없는 brain, we got hold보류 of an old늙은 brain,
260
695000
4000
영리하지 않은 뇌를 논하죠, 오래된(진화가 덜 된) 뇌가 있습니다,
12:04
and we're going to say it's like a non-mammal비 포유 동물, like a reptile비열한,
261
699000
3000
포유류가 아닌 것이라고 합시다, 파충류로 하죠-
12:07
so I'll say, an alligator악어; we have an alligator악어.
262
702000
2000
악어라고 합시다, 그래요 여기 악어 한 마리가 있습니다.
12:09
And the alligator악어 has some very sophisticated매우 복잡한 senses감각.
263
704000
3000
악어는 매우 복잡한 감각을 가지고 있습니다.
12:12
It's got good eyes and ears and touch접촉 senses감각 and so on,
264
707000
3000
매우 좋은 눈, 귀, 그리고 접촉 감각 기타 등등
12:15
a mouth and a nose. It has very complex복잡한 behavior행동.
265
710000
4000
입 그리고 코. 매우 복잡한 행동 양식이 있습니다. 알다시피
12:19
It can run운영 and hide숨는 장소. It has fears두려움 and emotions감정. It can eat먹다 you, you know.
266
714000
4000
달릴 수도 있고 숨을 수도있죠. 공포와 같은 감정도 있죠. 심지어 여러분을 먹을 수도 있습니다
12:23
It can attack공격. It can do all kinds종류 of stuff물건.
267
718000
4000
공격도 할 수 있구요- 악어는 정말 온갖 걸 다 할 수 있습니다.
12:27
But we don't consider중히 여기다 the alligator악어 very intelligent지적인, not like in a human인간의 sort종류 of way.
268
722000
5000
하지만 우리는 악어를 인간처럼 영리하다고 생각하지 않죠.
12:32
But it has all this complex복잡한 behavior행동 already이미.
269
727000
2000
하지만 이미 악어는 모든 복잡한 행동 양식을 가지고 있습니다.
12:34
Now, in evolution진화, what happened일어난?
270
729000
2000
자, 진화론에서, 무슨 일이 발생했을까요?
12:36
First thing that happened일어난 in evolution진화 with mammals포유류,
271
731000
3000
포유류의 진화에서 가장 먼저 일어났던 것은,
12:39
we started시작한 to develop나타나게 하다 a thing called전화 한 the neocortex신피질.
272
734000
2000
아마 신피질(대뇌)이라 불리는 곳이 가장 먼저 발달하기 시작했습니다.
12:41
And I'm going to represent말하다 the neocortex신피질 here,
273
736000
2000
그리고 저는 오래된 뇌의 상단 부분에 붙어있는 이 박스로
12:43
by this box상자 that's sticking고집하는 on top상단 of the old늙은 brain.
274
738000
2000
신피질에 관하여 설명하고자 합니다.
12:45
Neocortex대뇌 피질 means방법 new새로운 layer. It is a new새로운 layer on top상단 of your brain.
275
740000
3000
신피질은 새로운 층을 뜻하죠. 뇌의 상단 위에 있는 새로운 층인 것이죠.
12:48
If you don't know it, it's the wrinkly중늙은이 thing on the top상단 of your head머리 that,
276
743000
3000
만약 여러분께서 신피질을 몰랐다면, 이것은 그저 머리 위에 있는 주름입니다,
12:51
it's got wrinkly중늙은이 because it got shoved밀쳐낸 in there and doesn't fit적당한.
277
746000
3000
주름졌죠 왜냐하면 뇌에 구겨넣어졌고 맞지가 않았기 때문이죠.
12:54
(Laughter웃음)
278
749000
1000
(웃음)
12:55
No, really, that's what it is. It's about the size크기 of a table napkin냅킨.
279
750000
2000
아닙니다, 정말 그래요. 신피질이라는 게 테이블 냅킨 정도 크기거든요.
12:57
And it doesn't fit적당한, so it gets도착 all wrinkly중늙은이. Now look at how I've drawn그어진 this here.
280
752000
3000
맞지가 않습니다, 그래서 모두 주름졌죠. 여기를 제가 어떻게 그렸는지 보세요.
13:00
The old늙은 brain is still there. You still have that alligator악어 brain.
281
755000
4000
여전히 이곳에 오래된 뇌가 있습니다. 여러분은 여전히 오래된 뇌를 가지고 있습니다.
13:04
You do. It's your emotional정서적 인 brain.
282
759000
2000
정말이죠. 이것은 여러분의 감정 뇌입니다.,
13:06
It's all those things, and all those gut거트 reactions반응들 you have.
283
761000
3000
그 모든 감정들이 여기 있는거에요, 여러분들이 갖고 있는 본능적인 반응들도 다 여기 있죠.
13:09
And on top상단 of it, we have this memory기억 system체계 called전화 한 the neocortex신피질.
284
764000
3000
그리고 윗 부분은, 신피질이랑 불리는 기억 체계입니다.
13:12
And the memory기억 system체계 is sitting좌석 over the sensory감각 part부품 of the brain.
285
767000
4000
기억 체계는 뇌의 감각 중추 위에 놓여있습니다.
13:16
And so as the sensory감각 input입력 comes온다 in and feeds피드 from the old늙은 brain,
286
771000
3000
오래된 부분의 뇌로부터 감각 입력이 들어오면,
13:19
it also또한 goes간다 up into the neocortex신피질. And the neocortex신피질 is just memorizing암기하는.
287
774000
4000
이 정보는 신피질로 이동합니다. 신피질은 그저 기억하죠.
13:23
It's sitting좌석 there saying속담, ah, I'm going to memorize암기하다 all the things that are going on:
288
778000
4000
신피질에 정착해 말합니다, '아, 진행 되고 있는 모든 것을 외울거야,
13:27
where I've been, people I've seen, things I've heard들었던, and so on.
289
782000
2000
내가 갔던 곳들, 본 사람들, 그리고 들었던 것들 등등.
13:29
And in the future미래, when it sees본다 something similar비슷한 to that again,
290
784000
4000
미래에, 뇌가 이와 비슷한 것을 보았을 때,
13:33
so in a similar비슷한 environment환경, or the exact정확한 same같은 environment환경,
291
788000
3000
비슷한 환경, 혹은 똑같은 환경에 처하게 되면
13:36
it'll그것은 play놀이 it back. It'll그것은 start스타트 playing연주하다 it back.
292
791000
2000
뇌가 그 정보들을 다시 재생할거에요. 다시 상기하기 시작할 겁니다.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
'오, 전에 여기 왔었지.' 그리고 여러분이 전에 이곳에 왔을 때,
13:40
this happened일어난 next다음 것. It allows허락하다 you to predict예측하다 the future미래.
294
795000
3000
상기하죠. 뇌는 여러분이 미래를 예측하게 이끌죠.
13:43
It allows허락하다 you to, literally말 그대로 it feeds피드 back the signals신호들 into your brain;
295
798000
4000
뇌가 그렇게 예측하게 해주는 겁니다, 말 그대로 신호를 뇌에다 다시 입력해 주는 거죠.
13:47
they'll그들은 할 것이다 let you see what's going to happen우연히 있다 next다음 것,
296
802000
2000
뇌는 여러분이 다음에 무엇이 일어날지 알게 만들죠,
13:49
will let you hear듣다 the word워드 "sentence문장" before I said it.
297
804000
3000
제가 말하기 전에 단어를 듣게하죠, 그리고
13:52
And it's this feeding급송 back into the old늙은 brain
298
807000
3000
이 오래된 뇌에 재입력하는 일련의 과정이
13:55
that'll그거야. allow허용하다 you to make very more intelligent지적인 decisions결정들.
299
810000
3000
여러분이 더욱더 현명한 결정을 하게 이끌죠.
13:58
This is the most가장 important중대한 slide슬라이드 of my talk, so I'll dwell살다 on it a little bit비트.
300
813000
3000
이 말은 저의 강연에서 가장 중요한 부분입니다. 그래서 조금 더 설명하려합니다.
14:01
And so, all the time you say, oh, I can predict예측하다 the things.
301
816000
4000
그래서, 여러분들은 늘 그렇게 말합니다, '오, 나는 모든 걸 예측할 수 있어' 라고 말이에요.
14:05
And if you're a rat and you go through...을 통하여 a maze미로, and then you learn배우다 the maze미로,
302
820000
3000
만약 여러분이 생쥐이고 미로를 통과한다면, 이후 미로를 배운다면,
14:08
the next다음 것 time you're in a maze미로, you have the same같은 behavior행동,
303
823000
2000
다음에 미로에 있을 때, 여러분은 같은 행동을 보이죠,
14:10
but all of a sudden갑자기, you're smarter똑똑한
304
825000
2000
하지만 갑자기, 똑똑해지죠
14:12
because you say, oh, I recognize인정하다 this maze미로, I know which어느 way to go,
305
827000
3000
여러분은 말하죠, '아, 이 미로 알아, 나가는 방법을 알지,
14:15
I've been here before, I can envision상상하다 the future미래. And that's what it's doing.
306
830000
3000
예전에 이곳에 와 본 적이 있어. 미로를 통과하는 걸 마음에 떠올릴 수 있지' 이것이 뇌가 하는 것입니다
14:18
In humans인간 -- by the way, this is true참된 for all mammals포유류;
307
833000
3000
사람들한테 있어서, 아, 사실 이건 모든 포유동물들한테 해당되는 건데요,
14:21
it's true참된 for other mammals포유류 -- and in humans인간, it got a lot worse보다 나쁜.
308
836000
2000
다른 포유류에게도 모두 사실인데 사람들의 경우에 훨씬 심합니다.
14:23
In humans인간, we actually사실은 developed개발 된 the front part부품 of the neocortex신피질
309
838000
3000
인간은 전두엽 부분의 신피질을 발달시켰습니다
14:26
called전화 한 the anterior전의 part부품 of the neocortex신피질. And nature자연 did a little trick장난.
310
841000
4000
전전두 신피질이라 불리 곳이죠. 자연의 작은 변화(속임수)가 있었습니다.
14:30
It copied복사 한 the posterior후부 part부품, the back part부품, which어느 is sensory감각,
311
845000
2000
이것은 감각을 당담하고 있는 뒷 부분, 후두엽을 복사 했죠
14:32
and put it in the front part부품.
312
847000
2000
그리고 전두엽에 놓였죠.
14:34
And humans인간 uniquely유일하게 have the same같은 mechanism기구 on the front,
313
849000
2000
인간은 전두엽에 유일하게 같은 방법을 가지고 있습니다,
14:36
but we use it for motor모터 control제어.
314
851000
2000
하지만 이것을 운동 조절을 위해 사용하죠.
14:38
So we are now able할 수 있는 to make very sophisticated매우 복잡한 motor모터 planning계획, things like that.
315
853000
3000
그래서 우리는 매우 세밀한 동작을 계획할 수 있는 것입니다. 이렇게 말이죠.
14:41
I don't have time to get into all this, but if you want to understand알다 how a brain works공장,
316
856000
3000
이 부분에 대해서 모두 설명할 시간이 없지만, 여러분께서 뇌가 어떻게 작동하는지 알고 싶다면,
14:44
you have to understand알다 how the first part부품 of the mammalian포유 동물 neocortex신피질 works공장,
317
859000
3000
우선 포유류의 신피질이 어떻게 작동하는지, 그리고
14:47
how it is we store저장 patterns패턴들 and make predictions예측.
318
862000
2000
그리고 우리가 패턴을 어떻게 저장하고 예측을 하는지 이해해야 합니다.
14:49
So let me give you a few조금 examples예제들 of predictions예측.
319
864000
3000
그래서 저는 몇가지 예측의 예를 보여드리겠습니다.
14:52
I already이미 said the word워드 "sentence문장." In music음악,
320
867000
2000
저는 이미 단어 문장에 대해 말했습니다. 음악에서,
14:54
if you've heard들었던 a song노래 before, if you heard들었던 Jill처녀 sing노래 those songs노래들 before,
321
869000
3000
예전에 음악을 들었거나, 질이 예전에 노래 부르는 것을 들었다면,
14:57
when she sings노래하다 them, the next다음 것 note노트 pops아저씨 into your head머리 already이미 --
322
872000
3000
그녀가 그 노래를 부를 때, 다음 음정은 이미 머릿 속에 떠올라요.
15:00
you anticipate앞질러 하다 it as you're going. If it was an album앨범 of music음악,
323
875000
2000
들으면서 동시에 다음 파트를 예측하는 겁니다. 만약에 이게 음반으로 묶인 음악이라면
15:02
the end종료 of one album앨범, the next다음 것 song노래 pops아저씨 into your head머리.
324
877000
3000
한 앨범이 끝나는 순간에 다음 노래가 여러분의 머리에 떠오르죠.
15:05
And these things happen우연히 있다 all the time. You're making만들기 these predictions예측.
325
880000
2000
그리고 이런 현상은 계속 일어납니다. 여러분은 예측하고 계신 것입니다.
15:07
I have this thing called전화 한 the altered변경된 door thought experiment실험.
326
882000
3000
저는 이것을 바뀐 문 인지 실험이라고 부르죠.
15:10
And the altered변경된 door thought experiment실험 says말한다, you have a door at home,
327
885000
3000
이 실험은 이렇죠, 여러분의 집에 문이 있습니다,
15:13
and when you're here, I'm changing작고 보기 흉한 사람 it, I've got a guy
328
888000
3000
여러분이 여기 있을 때, 저는 문을 바꿉니다, 저는 지금 당장
15:16
back at your house right now, moving움직이는 the door around,
329
891000
2000
누구를 하나 여러분 집에 보내요, 그럼 그 사람이 문을 돌려놓을 거에요-
15:18
and they're going to take your doorknob손잡이 and move움직임 it over two inches신장.
330
893000
2000
그리고 그 사람은 문 손잡이를 2인치 정도 옮겨놓을 겁니다.
15:20
And when you go home tonight오늘 밤, you're going to put your hand out there,
331
895000
2000
그리고 오늘밤 여러분이 집으로 갔을 때, 손잡이에 손을 갖다대려 하겠죠,
15:22
and you're going to reach범위 for the doorknob손잡이 and you're going to notice주의
332
897000
2000
손잡이 쪽으로 뻗겠죠 그리고 알아차릴 것입니다
15:24
it's in the wrong잘못된 spot자리, and you'll go, whoa, something happened일어난.
333
899000
3000
잘못 되었다고, 그리고 깨닫을 것입니다, '우와, 뭔가 변했네'
15:27
It may할 수있다 take a second둘째 to figure그림 out what it was, but something happened일어난.
334
902000
2000
대체 무슨 일이 있었는지 알아내는 데는 좀 걸릴 수도 있겠지만, 뭔가 변했다는 건 바로 알아차릴겁니다.
15:29
Now I could change변화 your doorknob손잡이 in other ways.
335
904000
2000
지금 저는 여러분의 문 손잡이를 여러 방법으로 바꿀 수 있습니다.
15:31
I can make it larger더 큰 or smaller더 작은, I can change변화 its brass놋쇠 to silver,
336
906000
2000
크게 혹은 작게 만들거나 동색에서 은색으로 바꿀 수 있죠,
15:33
I could make it a lever지렛대. I can change변화 your door, put colors그림 물감 on;
337
908000
2000
레버형 손잡이로 바꿔 놓을 수도 있고, 문을 바꿀 수도 있어요- 색을 칠한다거나,
15:35
I can put windows창문들 in. I can change변화 a thousand things about your door,
338
910000
3000
창문을 넣을 수도 있습니다. 문에 관하여 천가지쯤은 바꿀 수 있습니다,
15:38
and in the two seconds you take to open열다 your door,
339
913000
2000
그리고 잠깐동안 여러분이 문을 열었을 때,
15:40
you're going to notice주의 that something has changed변경된.
340
915000
3000
뭔가 바뀌었다는 것을 눈치 채실 것입니다.
15:43
Now, the engineering공학 approach접근 to this, the AIAI approach접근 to this,
341
918000
2000
자, 이 현상에대한 엔지니어적인 접근 방법, 예를 들자면 AI 적인 접근방법은
15:45
is to build짓다 a door database데이터 베이스. It has all the door attributes속성들.
342
920000
3000
문에 관한 데이터 베이스를 구축하는 겁니다. 이 데이터베이스는 문에 대한 모든 특성을 포함하는 거죠.
15:48
And as you go up to the door, you know, let's check검사 them off one at time.
343
923000
3000
여러분이 문에 다가설 때, 한 번에 그것들을 검사합니다.
15:51
Door, door, door, you know, color색깔, you know what I'm saying속담.
344
926000
2000
'문, 문, 문, 색깔', 무슨 말인지 아시죠.
15:53
We don't do that. Your brain doesn't do that.
345
928000
2000
우리는 그렇게 하지 않습니다. 여러분의 뇌는 그렇게 하지 않죠.
15:55
What your brain is doing is making만들기 constant일정한 predictions예측 all the time
346
930000
2000
뇌가 하는 것은 항상 끊임없이 예측하는 것입니다
15:57
about what is going to happen우연히 있다 in your environment환경.
347
932000
2000
지금 환경에서 무엇이 벌어질지 말입니다.
15:59
As I put my hand on this table, I expect배고 있다 to feel it stop.
348
934000
3000
제가 이 테이블에 손을 얹을 때, 저는 손이 멈추는 걸 느끼기를 기대합니다.
16:02
When I walk산책, every...마다 step단계, if I missed놓친 it by an eighth여덟 번째 of an inch인치,
349
937000
3000
제가 걸을 때, 매 걸음 마다- 만약 1/8 인치 정도 놓쳤다면
16:05
I'll know something has changed변경된.
350
940000
2000
뭔가 바뀌었다는 것을 느끼게 됩니다.
16:07
You're constantly끊임없이 making만들기 predictions예측 about your environment환경.
351
942000
2000
여러분은 끊임없이 주어진 환경에 대하여 예측합니다.
16:09
I'll talk about vision시력 here briefly간단히. This is a picture그림 of a woman여자.
352
944000
3000
간략하게 시각에 대해서 말하죠. 여성 사진입니다.
16:12
And when you look at people, your eyes are caught잡힌
353
947000
2000
여러분이 사람을 볼 때, 여러분의 눈은 사로잡힙니다
16:14
over at two to three times타임스 a second둘째.
354
949000
1000
일초에 두번에서 세번정도 말이죠.
16:15
You're not aware알고있는 of this, but your eyes are always moving움직이는.
355
950000
2000
이것에 대하여 인지 할 수 없지만 눈은 항상 움직이고 있습니다.
16:17
And so when you look at someone's누군가의 face얼굴,
356
952000
2000
그래서 어떤이의 얼굴을 보았을 떄,
16:19
you'd당신은 typically전형적으로 go from eye to eye to eye to nose to mouth.
357
954000
2000
일반적으로 눈에서 눈으로 눈에서 코로 입으로 이동하죠.
16:21
Now, when your eye moves움직임 from eye to eye,
358
956000
2000
지금, 여러분의 시선이 눈에서 눈으로 움직일 때,
16:23
if there was something else그밖에 there like, a nose,
359
958000
2000
만약 눈에 코와 같은게 있다면
16:25
you'd당신은 see a nose where an eye is supposed가정의 to be,
360
960000
2000
여러분은 눈이 있어야 될 코를 보실 것입니다
16:27
and you'd당신은 go, oh shit, you know --
361
962000
3000
'오 이런',이런 반응을 보이시겠죠, 알다시피 --
16:30
(Laughter웃음)
362
965000
1000
(웃음)
16:31
There's something wrong잘못된 about this person사람.
363
966000
2000
이 사람, 무언가 잘못됐다-라고 느끼겠죠.
16:33
And that's because you're making만들기 a prediction예측.
364
968000
2000
왜냐하면 여러분이 예측했기 때문입니다.
16:35
It's not like you just look over there and say, what am I seeing now?
365
970000
2000
시선을 그 쪽으로 향해서 보면서 내가 지금 무얼 보고 있는걸까-하고 말하는 그런 상황이 아닌거죠.
16:37
A nose, that's okay. No, you have an expectation기대 of what you're going to see.
366
972000
3000
코, 괜찮습니다, 아니죠, 여러분은 보는 것에 대하여 예측을 합니다..
16:40
(Laughter웃음)
367
975000
1000
(웃음)
16:41
Every마다 single단일 moment순간. And finally마침내, let's think about how we test테스트 intelligence지성.
368
976000
4000
매순간 말입니다. 그리고 마지막으로, 어떻게 지성을 검사하는지 생각해봅시다.
16:45
We test테스트 it by prediction예측. What is the next다음 것 word워드 in this, you know?
369
980000
3000
우리는 예측으로 검사하죠. 알디시피, 문제에 대한 다음 단어는, 아시겠죠?
16:48
This is to this as this is to this. What is the next다음 것 number번호 in this sentence문장?
370
983000
3000
이 문장에서 다음 숫자는?
16:51
Here's여기에 three visions환상들 of an object목적.
371
986000
2000
여기 사물에 대한 세가지 시각이 있습니다.
16:53
What's the fourth네번째 one? That's how we test테스트 it. It's all about prediction예측.
372
988000
4000
네번째는 무엇일까요? 우리가 검사하는 방법입니다. 예측이죠.
16:57
So what is the recipe레시피 for brain theory이론?
373
992000
3000
뇌 이론을 위한 방안은 무엇일까요?
17:00
First of all, we have to have the right framework뼈대.
374
995000
3000
무엇보다도, 우리는 옳은 틀을 만들어야 합니다.
17:03
And the framework뼈대 is a memory기억 framework뼈대,
375
998000
2000
그리고 이 틀은 기억의 틀입니다,
17:05
not a computation계산 or behavior행동 framework뼈대. It's a memory기억 framework뼈대.
376
1000000
2000
행동의 틀 혹은 계산의 틀이 아니죠. 기억의 틀이죠.
17:07
How do you store저장 and recall소환 these sequences시퀀스들 or patterns패턴들? It's spatio-temporal시공간 patterns패턴들.
377
1002000
4000
여러분들은 어떻게 이 패턴과 그 순서들을 저장하고 상기하나요? 이건 시공간의 패턴인겁니다.
17:11
Then, if in that framework뼈대, you take a bunch다발 of theoreticians이론가들.
378
1006000
3000
만약 여러분이 기억의 틀에서 이론가들을 받아들인다면,
17:14
Now biologists생물 학자 generally일반적으로 are not good theoreticians이론가들.
379
1009000
2000
생물학자들은 일반적으로 좋지 않은 선택이죠.
17:16
It's not always true참된, but in general일반, there's not a good history역사 of theory이론 in biology생물학.
380
1011000
4000
항상 옳지는 않습니다만, 일반적으로 생물학 쪽에서 좋은 이론이 나온 경우는 잘 없습니다.
17:20
So I found녹이다 the best베스트 people to work with are physicists물리학 자들,
381
1015000
3000
그래서 저는 같이 일할 가장 적합한 물리학자들을 찾았습니다
17:23
engineers엔지니어 and mathematicians수학자, who tend지키다 to think algorithmically알고리즘 적으로.
382
1018000
3000
문제 해결 절차 및 방법을 생각하는 기술자 그리고 수학자들을 말이죠.
17:26
Then they have to learn배우다 the anatomy해부, and they've그들은 got to learn배우다 the physiology생리학.
383
1021000
3000
이후 그들은 해부학을 배워야합니다, 그리고 생리학을 배워야 하죠.
17:29
You have to make these theories이론들 very realistic현실적인 in anatomical해부학적인 terms자귀.
384
1024000
4000
이 이론들을 해부학적 관점에서도 사실적일 수 있도록 만들어야 하거든요.
17:33
Anyone누군가 who gets도착 up and tells말하다 you their그들의 theory이론 about how the brain works공장
385
1028000
4000
누군가가 일어나서 여러분에게 뇌의 작용에 대해서 이론을 말하는데
17:37
and doesn't tell you exactly정확하게 how it's working in the brain
386
1032000
2000
뇌 안에서 어떻게 그 이론이 작동하는지에 대해서 말해주지 않는다면
17:39
and how the wiring배선 works공장 in the brain, it is not a theory이론.
387
1034000
2000
그리고 뇌 내의 연결망들이 어떻게 작동하는 지 정확히 말해주지 않는다면, 그건 이론이 아니죠.
17:41
And that's what we're doing at the Redwood세쿼이아 Neuroscience신경 과학 Institute학회.
388
1036000
3000
이것이 우리가 레드우드 뇌과학 연구소에서 연구하는 것입니다.
17:44
I would love to have more time to tell you we're making만들기 fantastic환상적인 progress진행 in this thing,
389
1039000
4000
이론 창안에 대해서 우리 연구진들이 얼마나 대단한 진척을 보이고 있는 지에 대해서 더 말할 시간이 있었으면 좋겠습니다.
17:48
and I expect배고 있다 to be back up on this stage단계,
390
1043000
2000
그리고 언젠가는 이 무대에 또 돌아오기를 기대합니다.
17:50
maybe this will be some other time in the not too distant future미래 and tell you about it.
391
1045000
2000
아마 지금이 아닌 다른 강연에서 말씀 드리게 되겠지만, 그게 그리 먼 미래는 아닐 것입니다.
17:52
I'm really, really excited흥분한. This is not going to take 50 years연령 at all.
392
1047000
3000
저는 정말로 흥분됩니다. 이 연구는 전혀 50년이 걸리지 않을 것입니다.
17:55
So what will brain theory이론 look like?
393
1050000
2000
그럼, 뇌이론은 대략 어떤 모습을 띠게 될까요?
17:57
First of all, it's going to be a theory이론 about memory기억.
394
1052000
2000
무엇보다도, 기억에 대한 이론이 될 것입니다.
17:59
Not like computer컴퓨터 memory기억. It's not at all like computer컴퓨터 memory기억.
395
1054000
3000
컴퓨터 메모리 같은 것이 아닙니다. 컴퓨터 메모리와는 전혀 다르죠.
18:02
It's very, very different다른. And it's a memory기억 of these very
396
1057000
2000
매우 다른 것이죠. 그리고 매우 고차원적인
18:04
high-dimensional고차원의 patterns패턴들, like the things that come from your eyes.
397
1059000
3000
패턴의 기억입니다, 눈에서 온 것과 같은 것이죠.
18:07
It's also또한 memory기억 of sequences시퀀스들.
398
1062000
2000
그리고 또, 일정 순서 (시퀀스)에 대한 기억입니다.
18:09
You cannot~ 할 수 없다. learn배우다 or recall소환 anything outside외부 of a sequence순서.
399
1064000
2000
여러분들은 순서(시퀀스)에 어긋난 것들을 학습하거나 상기할 수 없습니다.
18:11
A song노래 must절대로 필요한 것 be heard들었던 in sequence순서 over time,
400
1066000
3000
노래가 있다면, 그 노래는 시간 순서에 맞게 들려야 합니다.
18:14
and you must절대로 필요한 것 play놀이 it back in sequence순서 over time.
401
1069000
3000
그리고 여러분들은 그 시간 순서에 맞게 상기해야 하구요.
18:17
And these sequences시퀀스들 are auto-associatively자동 연관 recalled회상 한, so if I see something,
402
1072000
3000
그리고 이 순서들은 자동적으로 연동돼서 떠오릅니다. 그래서 만약 제가 무언가를 보거나,
18:20
I hear듣다 something, it reminds생각 나다 me of it, and then it plays연극 back automatically자동으로.
403
1075000
3000
무언가를 듣거나 할 때, 그 순서를 떠오르게 만들고 자동으로 기억에서 불러와서 재생하는 거죠.
18:23
It's an automatic오토매틱 playback재생. And prediction예측 of future미래 inputs투입물 is the desired원한 output산출.
404
1078000
4000
자동 재생인 셈이죠. 그리고 앞으로 들어올 입력값에 대해 제대로 예측하는 게 바람직한 출력값이 되는겁니다.
18:27
And as I said, the theory이론 must절대로 필요한 것 be biologically생물학적으로 accurate정확한,
405
1082000
3000
제가 말한 것처럼, 이론은 생물학적으로 정확해야 합니다,
18:30
it must절대로 필요한 것 be testable시험 할 수있는, and you must절대로 필요한 것 be able할 수 있는 to build짓다 it.
406
1085000
2000
실험 가능해야하고, 직접 구현할 수 있어야 합니다.
18:32
If you don't build짓다 it, you don't understand알다 it. So, one more slide슬라이드 here.
407
1087000
4000
만약 직접 만들어 구현하지 못한다면, 여러분들은 그걸 이해할 수 없을겁니다. 여기 슬라이드가 한 장 더 있는데요-
18:36
What is this going to result결과 in? Are we going to really build짓다 intelligent지적인 machines기계들?
408
1091000
4000
결과가 어떻게 될까요? 우리는 정말로 지성을 가진 기계를 만들까요?
18:40
Absolutely전혀. And it's going to be different다른 than people think.
409
1095000
4000
물론입니다. 그리고, 그 기계들은 지금 사람들이 생각하고 있는 형태랑은 다를 겁니다.
18:44
No doubt의심 that it's going to happen우연히 있다, in my mind마음.
410
1099000
3000
저는 이것 (지성을 가진 기계를 개발하는 것)이 꼭 일어날 거라는 데 대해서 추호의 의심도 없습니다.
18:47
First of all, it's going to be built세워짐 up, we're going to build짓다 the stuff물건 out of silicon규소.
411
1102000
4000
첫째로, 우리는 실리콘을 이용해서 그것들을 만들 겁니다.
18:51
The same같은 techniques기법 we use for building건물 silicon규소 computer컴퓨터 memories기억,
412
1106000
3000
실리콘 재질의 컴퓨터 메모리를 만드는 데 사용한 바로 그 기술들을-
18:54
we can use for here.
413
1109000
1000
여기에 사용할 수 있습니다
18:55
But they're very different다른 types유형 of memories기억.
414
1110000
2000
하지만 그것들은 아주 다른 종류의 메모리입니다.
18:57
And we're going to attach붙이다 these memories기억 to sensors센서,
415
1112000
2000
그리고 우리는 이 메모리들을 센서에다 부착할 것이고-
18:59
and the sensors센서 will experience경험 real-live실제 라이브, real-world현실 세계 data데이터,
416
1114000
3000
센서는 실물, 실제정보를 경험할 것입니다,
19:02
and these things are going to learn배우다 about their그들의 environment환경.
417
1117000
2000
그리고 이것들은 그들의 환경에 대해서 학습할 것입니다.
19:04
Now it's very unlikely있을 것 같지 않게 the first things you're going to see are like robots로봇.
418
1119000
3000
첫번째로 보게 될 제품은 로봇과 같지 않을 것입니다.
19:07
Not that robots로봇 aren't있지 않다. useful유능한 and people can build짓다 robots로봇.
419
1122000
3000
로봇은 유용합니다 그리고 사람들은 로봇을 만들 수 있습니다.
19:10
But the robotics로봇 공학 part부품 is the hardest단단한 part부품. That's the old늙은 brain. That's really hard단단한.
420
1125000
4000
하지만 로봇 부분은 가장 어려은 부부입니다. 오래 된 뇌 부분이죠. 이 부분은 정말로 어렵죠.
19:14
The new새로운 brain is actually사실은 kind종류 of easier더 쉬운 than the old늙은 brain.
421
1129000
2000
새로운 뇌는 사실상 오래된 뇌보다는 쉽습니다.
19:16
So the first thing we're going to do are the things that don't require요구하다 a lot of robotics로봇 공학.
422
1131000
3000
그래서 우리가 처음으로 하게 되는 것은 많은 로봇을 요구하지 않는 것입니다.
19:19
So you're not going to see C-기음-3POPO.
423
1134000
2000
이렇게 여러분은 C-3PO를 보지 못할 것입니다.
19:21
You're going to more see things like, you know, intelligent지적인 cars자동차
424
1136000
2000
알다시피, 지능을 가진 차들같은 것을 좀 더 볼 수 있을 것입니다
19:23
that really understand알다 what traffic교통 is and what driving운전 is
425
1138000
3000
정말로 교통과 운전에 대해서 이해하는 것들이죠
19:26
and have learned배운 that certain어떤 types유형 of cars자동차 with the blinkers눈가리개 가죽 on for half절반 a minute
426
1141000
3000
그리고 30초 씩이나 깜빡이를 켜고 있는 차들은
19:29
probably아마 aren't있지 않다. going to turn회전, things like that.
427
1144000
2000
아마도 턴을 하지 않을 것이라는 사실을 이미 학습한, 그런 류의 지능 말이죠.
19:31
(Laughter웃음)
428
1146000
1000
(웃음)
19:32
We can also또한 do intelligent지적인 security보안 systems시스템.
429
1147000
2000
지능적인 보안 체계를 만들 수도 있을 것입니다.
19:34
Anywhere어딘가에 where we're basically원래 using~을 사용하여 our brain, but not doing a lot of mechanics역학.
430
1149000
4000
어떤 분야가 되었건 사람이 뇌를 사용하지만 기계적인 것들을 크게 담당하지 않는 분야들-
19:38
Those are the things that are going to happen우연히 있다 first.
431
1153000
2000
그 분야들이 가장 먼저 지능적인 기계들을 적용할 분야가 될 것입니다.
19:40
But ultimately궁극적으로, the world's세계의 the limit한도 here.
432
1155000
2000
하지만 결국은 여기까지가 한계입니다.
19:42
I don't know how this is going to turn회전 out.
433
1157000
2000
저는 이것이 어떻게 발전해 나갈지 모릅니다.
19:44
I know a lot of people who invented발명 된 the microprocessor마이크로 프로세서
434
1159000
2000
저는 마이크로프로세서를 발명한 많은 사람들을 알고 있습니다.
19:46
and if you talk to them, they knew알고 있었다 what they were doing was really significant중요한,
435
1161000
5000
그 사람들이랑 이야기 해 보면 말이죠, 그들은 자신들이 하고 있는 일이 정말 중요하다는 걸 알고 있었습니다.
19:51
but they didn't really know what was going to happen우연히 있다.
436
1166000
3000
그게 어떤 효과를 가질지는 정확히 모르고 있었지만요.
19:54
They couldn't할 수 없었다 anticipate앞질러 하다 cell세포 phones전화 and the Internet인터넷 and all this kind종류 of stuff물건.
437
1169000
5000
그 사람들은 당시에 휴대폰이나 인터넷 같은 많은 것들을 예측할 수 없었습니다.
19:59
They just knew알고 있었다 like, hey, they were going to build짓다 calculators계산기
438
1174000
2000
그들은 단지 계산기, 신호등 불 조절 같은 것을
20:01
and traffic교통 light controllers컨트롤러. But it's going to be big.
439
1176000
2000
만들게 될 거라는 걸 알고 있었죠. 하지만 결국은 엄청난 효과를 가지고 왔거든요.
20:03
In the same같은 way, this is like brain science과학 and these memories기억
440
1178000
3000
똑같은 방식으로, 뇌과학과 이런 메모리칩들이
20:06
are going to be a very fundamental기본적인 technology과학 기술, and it's going to lead리드
441
1181000
3000
앞으로 아주 근본적인 기술이 될 것입니다. 그리고 앞으로
20:09
to very unbelievable믿을 수 없는 changes변화들 in the next다음 것 100 years연령.
442
1184000
3000
향후 100년간의 믿을 수 없는 변화들을 이 기술이 이끌어 갈 겁니다.
20:12
And I'm most가장 excited흥분한 about how we're going to use them in science과학.
443
1187000
4000
저는 과학에서 우리가 이것들을 어떻게 사용할지 정말로 기대됩니다.
20:16
So I think that's all my time, I'm over it, and I'm going to end종료 my talk
444
1191000
3000
제 할당 시간이 끝난 것 같네요, 좀 넘어갔어요, 그럼 여기서 이만 제 강의를
20:19
right there.
445
1194000
1000
마치겠습니다.
Translated by Sun Phil Ka
Reviewed by Kahyun Kim

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com