ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

Джефф Хоукинс говорит о том, как наука о мозге изменит компьютеры.

Filmed:
1,674,773 views

Джефф Хоукинс, создатель Treo, побуждает нас по-новому взглянуть на мозг и осознать его не как быстрый процессор, а как хранилище нашего опыта, позволяющего строить прогнозы будущего.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I designдизайн mobileмобильный computersкомпьютеры and I studyизучение brainsмозги.
0
0
3000
Я занимаюсь двумя вещами: я разрабатываю дизайн мобильных компьютеров и изучаю мозг.
00:29
And today'sсегодняшнего talk is about brainsмозги and,
1
4000
2000
Сегодняшнее выступление - про мозг, и,
00:31
yayура, somewhereгде-то I have a brainголовной мозг fanпоклонник out there.
2
6000
2000
ура, где-то там есть поклонник мозга!
00:33
(LaughterСмех)
3
8000
2000
(Смех)
00:35
I'm going to, if I can have my first slideгорка up here,
4
10000
2000
Я собираюсь, если получится включить первый слайд,
00:37
and you'llВы будете see the titleзаглавие of my talk and my two affiliationsпринадлежность.
5
12000
4000
и вы увидите название моего выступления и организаций rjrjnjhsv я принадлежу.
00:41
So what I'm going to talk about is why we don't have a good brainголовной мозг theoryтеория,
6
16000
4000
Я собираюсь поговорить о том, почему у нас нет хорошей теории мозга,
00:45
why it is importantважный that we should developразвивать one and what we can do about it.
7
20000
3000
почему нам важно её разработать и что мы с этим сможем сделать.
00:48
And I'll try to do all that in 20 minutesминут. I have two affiliationsпринадлежность.
8
23000
3000
И я попробую сделать это за 20 минут. Я работаю в двух компаниях.
00:51
MostНаиболее of you know me from my PalmПальма and Handspringкувырканье колесо daysдней,
9
26000
3000
Большинство из вас знает меня по тем временам, когда я работал в Palm и Handspring,
00:54
but I alsoтакже runбег a nonprofitнекоммерческий scientificнаучный researchисследование instituteинститут
10
29000
3000
хотя я также возглавляю некоммерческий научно-исследовательский институт -
00:57
calledназывается the Redwoodкрасное дерево Neuroscienceневрология Instituteинститут in MenloМенло ParkПарк,
11
32000
2000
Редвудский неврологический институт в Менло-Парке,
00:59
and we studyизучение theoreticalтеоретический neuroscienceневрология,
12
34000
2000
мы изучаем теоретическую неврологию
01:01
and we studyизучение how the neocortexнеокортекс worksработает.
13
36000
2000
и то, как работает неокортекс.
01:03
I'm going to talk all about that.
14
38000
2000
Я ещё буду говорить об этом.
01:05
I have one slideгорка on my other life, the computerкомпьютер life, and that's the slideгорка here.
15
40000
3000
У меня есть слайд о моей другой жизни, компьютерной жизни, вот он.
01:08
These are some of the productsпродукты I've workedработал on over the last 20 yearsлет,
16
43000
3000
Вот некоторые из продуктов, над которыми я работал на протяжении последних 20 лет,
01:11
startingначало back from the very originalоригинал laptopпортативный компьютер to some of the first tabletтаблетка computersкомпьютеры
17
46000
4000
от весьма оригинального лэптопа до первых планшетных компьютеров,
01:15
and so on, and endingокончание up mostбольшинство recentlyв последнее время with the TreoTreo,
18
50000
2000
и так далее, заканчивая Treo,
01:17
and we're continuingпродолжающийся to do this.
19
52000
2000
мы продолжаем работать в этом направлении.
01:19
And I've doneсделанный this because I really believe that mobileмобильный computingвычисления
20
54000
2000
Я делал это, потому что верю, что мобильные компьютеры -
01:21
is the futureбудущее of personalличный computingвычисления, and I'm tryingпытаясь to make the worldМир
21
56000
3000
это будущее персональных компьютеров, и я пытаюсь сделать мир
01:24
a little bitнемного better by workingза работой on these things.
22
59000
3000
чуточку лучше, работая над этим.
01:27
But this was, I have to admitпризнавать, all an accidentавария.
23
62000
2000
Но всё это было, должен признаться, случайностью.
01:29
I really didn't want to do any of these productsпродукты
24
64000
2000
На самом деле я не планировал создавать ни одного из этих продуктов,
01:31
and very earlyрано in my careerкарьера I decidedприняли решение
25
66000
2000
и в самом начале своей карьеры я решил,
01:33
I was not going to be in the computerкомпьютер industryпромышленность.
26
68000
3000
что не собираюсь работать в компьютерной индустрии.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
И до того, как я расскажу вам об этом, я должен сказать -
01:38
this one little pictureкартина of graffitiграффити there I pickedвыбрал off the webWeb the other day.
28
73000
2000
это небольшое изображение Graffiti.
01:40
I was looking for a pictureкартина of graffitiграффити, little textтекст inputвход languageязык,
29
75000
3000
Я искал изображение Graffiti, небольшого языка текстового ввода,
01:43
and I foundнайденный the websiteВеб-сайт dedicatedпреданный to teachersучителей who want to make these,
30
78000
3000
и обнаружил сайт для учителей, желающих разместить
01:46
you know, the scriptскрипт writingписьмо things acrossчерез the topВверх of theirих blackboardклассная доска,
31
81000
3000
над школьной доской таблички с рукописным алфавитом.
01:49
and they had addedдобавленной graffitiграффити to it, and I'm sorry about that.
32
84000
3000
И они добавили к этому Graffiti, как мне не жаль.
01:52
(LaughterСмех)
33
87000
2000
(Смех)
01:54
So what happenedполучилось was, when I was youngмолодой and got out of engineeringинжиниринг schoolшкола
34
89000
5000
Так вот, когда я был молод и закончил инженерное отделение
01:59
at CornellCornell in '79, I decidedприняли решение -- I wentотправился to work for IntelIntel and
35
94000
4000
Корнелльского университета в 79-м, я пошёл на работу в Интел.
02:03
I was in the computerкомпьютер industryпромышленность -- and threeтри monthsмесяцы into that,
36
98000
3000
Я работал в компьютерной индустрии и три месяца спустя
02:06
I fellупал in love with something elseеще, and I said, "I madeсделал the wrongнеправильно careerкарьера choiceвыбор here,"
37
101000
4000
я влюбился в кое-что другое и сказал: "я неправильно выбрал карьеру",
02:10
and I fellупал in love with brainsмозги.
38
105000
3000
я влюбился в мозг.
02:13
This is not a realреальный brainголовной мозг. This is a pictureкартина of one, a lineлиния drawingРисование.
39
108000
3000
Это не настоящий мозг, это карандашный рисунок.
02:16
But I don't rememberзапомнить exactlyв точку how it happenedполучилось,
40
111000
3000
Я не помню точно, как это произошло,
02:19
but I have one recollectionсосредоточенность, whichкоторый was prettyСимпатичная strongсильный in my mindразум.
41
114000
3000
но у меня осталось одно довольно сильное воспоминание.
02:22
In Septemberсентябрь 1979, Scientificнаучный Americanамериканский cameпришел out
42
117000
3000
В сентябре 1979 года вышел номер Scientific American,
02:25
with a singleОдин topicтема issueвопрос about the brainголовной мозг. And it was quiteдовольно good.
43
120000
3000
темой номера был мозг. И это было весьма неплохо.
02:28
It was one of the bestЛучший issuesвопросы ever. And they talkedговорили about the neuronнейрон
44
123000
3000
Это был один из самых лучших номеров. Там рассказывалось о нейронах,
02:31
and developmentразвитие and diseaseболезнь and visionвидение and all the things
45
126000
2000
о развитии, болезнях, зрении и других вещах,
02:33
you mightмог бы want to know about brainsмозги. It was really quiteдовольно impressiveвпечатляющий.
46
128000
3000
которые было бы интересно знать про мозг. Это действительно было впечатляюще.
02:36
And one mightмог бы have the impressionвпечатление that we really knewзнал a lot about brainsмозги.
47
131000
3000
Могло остаться впечатление, что мы действительно много знаем о мозге.
02:39
But the last articleстатья in that issueвопрос was writtenнаписано by FrancisФрэнсис Crickрастяжение мышц of DNAДНК fameизвестность.
48
134000
4000
Но последняя статья того номера была написана Фрэнсисом Криком, одним из тех, кто открыл структуру ДНК.
02:43
TodayCегодня is, I think, the 50thго anniversaryГодовщина of the discoveryоткрытие of DNAДНК.
49
138000
3000
Сегодня, я думаю, день пятидесятилетия открытия ДНК.
02:46
And he wroteписал a storyистория basicallyв основном sayingпоговорка,
50
141000
2000
И он написал статью, в которой говорилось,
02:48
well, this is all well and good, but you know what,
51
143000
3000
что это всё конечно хорошо, но знаете,
02:51
we don't know diddleyDiddley squatприземистый about brainsмозги
52
146000
2000
мы ничего не знаем про мозг,
02:53
and no one has a clueключ к разгадке how these things work,
53
148000
2000
никто не представляет, как это всё работает,
02:55
so don't believe what anyoneкто угодно tellsговорит you.
54
150000
2000
так что не верьте ничему, что вам говорят.
02:57
This is a quoteкотировка from that articleстатья. He said, "What is conspicuouslyвидимо lackingне хватает,"
55
152000
3000
Вот цитата из той статьи. Он сказал: "Чего, очевидно, недостаёт",
03:00
he's a very properправильный BritishБританская gentlemanджентльмен so, "What is conspicuouslyвидимо lackingне хватает
56
155000
4000
он истинный британский джентльмен, "чего, очевидно, недостаёт,
03:04
is a broadширокий frameworkфреймворк of ideasидеи in whichкоторый to interpretинтерпретировать these differentдругой approachesподходы."
57
159000
3000
так это широкого каркаса идей, в рамках которой можно интерпретировать эти подходы".
03:07
I thought the wordслово frameworkфреймворк was great.
58
162000
2000
Я подумал, что слово каркас - замечательное.
03:09
He didn't say we didn't even have a theoryтеория. He saysговорит,
59
164000
2000
Он не сказал, что у нас нет теории. Он сказал,
03:11
we don't even know how to beginначать to think about it --
60
166000
2000
мы даже не знаем как начать думать об этом,
03:13
we don't even have a frameworkфреймворк.
61
168000
2000
у нас нет даже каркаса.
03:15
We are in the pre-paradigmпредварительно парадигма daysдней, if you want to use ThomasТомас KuhnКун.
62
170000
3000
Мы находимся в допарадигмальном периоде в терминологии Томаса Куна.
03:18
And so I fellупал in love with this, and said look,
63
173000
3000
Итак, я влюбился в это и сказал, смотрите,
03:21
we have all this knowledgeзнание about brainsмозги. How hardжесткий can it be?
64
176000
3000
у нас есть все эти знания о мозге, насколько это может быть сложно?
03:24
And this is something we can work on my lifetimeпродолжительность жизни. I feltпочувствовал I could make a differenceразница,
65
179000
3000
И это что-то, над чем можно проработать всю жизнь. Я почувствовал, что я могу что-то изменить,
03:27
and so I triedпытался to get out of the computerкомпьютер businessбизнес, into the brainголовной мозг businessбизнес.
66
182000
4000
и я пытался уйти из компьютерного бизнеса в деятельность, связанную с мозгом.
03:31
First, I wentотправился to MITMIT, the AIискусственный интеллект labлаборатория was there,
67
186000
2000
Первым делом я пошёл в Массачусетский технологический институт, лабораторию искуственного интеллекта,
03:33
and I said, well, I want to buildстроить intelligentумный machinesмашины, too,
68
188000
2000
и я подумал, я также хочу конструировать умные машины,
03:35
but the way I want to do it is to studyизучение how brainsмозги work first.
69
190000
3000
но для начала мне нужно изучить как работает мозг.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
Но мне сказали, что не нужно этого делать -
03:41
We're just going to programпрограмма computersкомпьютеры; that's all we need to do.
71
196000
2000
мы будем программировать, и это всё, что нам нужно делать.
03:43
And I said, no, you really oughtдолжен to studyизучение brainsмозги. They said, oh, you know,
72
198000
3000
На что я ответил: нет, действительно нужно изучать мозг. Мне сказали: ты знаешь,
03:46
you're wrongнеправильно. And I said, no, you're wrongнеправильно, and I didn't get in.
73
201000
2000
ты не прав. Я ответил: нет, это вы не правы, и не поступил.
03:48
(LaughterСмех)
74
203000
1000
(Смех)
03:50
But I was a little disappointedразочарованный -- prettyСимпатичная youngмолодой -- but I wentотправился back again
75
205000
2000
Я был несколько разочарован - но я был ещё довольно молод и попробовал снова,
03:52
a fewмало yearsлет laterпозже and this time was in CaliforniaКалифорния, and I wentотправился to BerkeleyБеркли.
76
207000
3000
через несколько лет, в это время я был в Калифорнии, я пошёл в Беркли.
03:55
And I said, I'll go in from the biologicalбиологический sideбоковая сторона.
77
210000
4000
Я сказал: попробую со стороны биологии.
03:59
So I got in -- in the PhpH.D. programпрограмма in biophysicsбиофизика, and I was, all right,
78
214000
3000
Я поступил - на программу PhD по направлению Биофизика, и,
04:02
I'm studyingизучение brainsмозги now, and I said, well, I want to studyизучение theoryтеория.
79
217000
3000
уже изучая мозг, сказал: я хочу изучать теорию.
04:05
And they said, oh no, you can't studyизучение theoryтеория about brainsмозги.
80
220000
2000
На что мне ответили: нет, ты не можешь изучать теорию о мозге.
04:07
That's not something you do. You can't get fundedфундированный for that.
81
222000
2000
Так не делается. Под это не возможно получить финансирование.
04:09
And as a graduateвыпускник studentстудент, you can't do that. So I said, oh my goshчерт возьми.
82
224000
4000
Будучи аспирантом этого нельзя делать. Я подумал, боже мой.
04:13
I was very depressedподавленный. I said, but I can make a differenceразница in this fieldполе.
83
228000
2000
Я был весьма подавлен. Я сказал: но я же могу что-то привнести в эту область!
04:15
So what I did is I wentотправился back in the computerкомпьютер industryпромышленность
84
230000
3000
В результате я вернулся в компьютерную индустрию
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
и решил поработать здесь некоторое время.
04:20
That's when I designedпредназначенный all those computerкомпьютер productsпродукты.
86
235000
3000
Именно тогда я и создал все эти продукты.
04:23
(LaughterСмех)
87
238000
1000
(Смех)
04:24
And I said, I want to do this for four4 yearsлет, make some moneyДеньги,
88
239000
3000
Я подумал, что хочу позаниматься этим четыре года, заработать денег,
04:27
like I was havingимеющий a familyсемья, and I would matureзрелый a bitнемного,
89
242000
4000
завести семью, остепениться,
04:31
and maybe the businessбизнес of neuroscienceневрология would matureзрелый a bitнемного.
90
246000
3000
возможно и неврология за это время немного повзрослеет.
04:34
Well, it tookвзял longerдольше than four4 yearsлет. It's been about 16 yearsлет.
91
249000
3000
Но потребовалось больше четырёх лет. Это заняло 16.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
Но сейчас я этим занимаюсь, о чём вам сейчас и расскажу.
04:39
So why should we have a good brainголовной мозг theoryтеория?
93
254000
3000
Итак, зачем нам может понадобиться хорошая теория мозга?
04:42
Well, there's lots of reasonsпричины people do scienceнаука.
94
257000
3000
Для того, чтобы заниматься наукой есть множество причин.
04:45
One is -- the mostбольшинство basicосновной one is -- people like to know things.
95
260000
3000
Одна из них - самая основная - люди любят познавать.
04:48
We're curiousлюбопытный, and we just go out and get knowledgeзнание, you know?
96
263000
2000
Мы любопытны, мы просто берём и получаем знания.
04:50
Why do we studyизучение antsмуравьи? Well, it's interestingинтересно.
97
265000
2000
Почему мы изучаем муравьёв? Ну, это интересно.
04:52
Maybe we'llЧто ж learnучить something really usefulполезным about it, but it's interestingинтересно and fascinatingочаровательный.
98
267000
3000
Возможно мы узнаем что-то по-настоящему полезное, но это просто интересно и захватывающе.
04:55
But sometimesиногда, a scienceнаука has some other attributesатрибуты
99
270000
2000
Но временами, в науке появляются некоторые другие атрибуты,
04:57
whichкоторый makesмарки it really, really interestingинтересно.
100
272000
2000
делающие её весьма, весьма интересной.
04:59
SometimesИногда a scienceнаука will tell something about ourselvesсами,
101
274000
3000
Временами наука может рассказать нам что-то про нас самих,
05:02
it'llэто будет tell us who we are.
102
277000
1000
про то, кем мы являемся.
05:03
RarelyРедко, you know: evolutionэволюция did this and CopernicusКоперник did this,
103
278000
3000
Изредка, это делала теория эволюции, Коперник -
05:06
where we have a newновый understandingпонимание of who we are.
104
281000
2000
они создавали новое понимание того, кем мы являемся.
05:08
And after all, we are our brainsмозги. My brainголовной мозг is talkingговорящий to your brainголовной мозг.
105
283000
4000
Но в конечном итоге мы - это наш мозг. Мой мозг разговаривает с вашим мозгом.
05:12
Our bodiesтела are hangingподвешивание alongвдоль for the rideпоездка, but my brainголовной мозг is talkingговорящий to your brainголовной мозг.
106
287000
3000
Наши тела здесь только за компанию, мой мозг разговаривает с вашим мозгом.
05:15
And if we want to understandПонимаю who we are and how we feel and perceiveвоспринимать,
107
290000
3000
И если мы хотим понять, кем мы являемся, как мы чувствуем и как воспринимаем,
05:18
we really understandПонимаю what brainsмозги are.
108
293000
2000
мы должны понять, что из себя представляет мозг.
05:20
AnotherДругая thing is sometimesиногда scienceнаука
109
295000
2000
Ещё одно: наука временами
05:22
leadsприводит to really bigбольшой societalсоциальный benefitsвыгоды and technologiesтехнологии,
110
297000
2000
приводит к большой социальной пользе, к созданию технологий,
05:24
or businessesбизнес, or whateverбез разницы, that come out of it. And this is one, too,
111
299000
2000
бизнесов и прочего. И это тоже важно,
05:26
because when we understandПонимаю how brainsмозги work, we're going to be ableв состоянии
112
301000
3000
так как когда мы поймём, как работает мозг, мы сможем
05:29
to buildстроить intelligentумный machinesмашины, and I think that's actuallyна самом деле a good thing on the wholeвсе,
113
304000
3000
строить интеллектуальные машины, я думаю, что в целом это хорошее явление,
05:32
and it's going to have tremendousогромный benefitsвыгоды to societyобщество,
114
307000
2000
которое принесёт огромную пользу обществу,
05:34
just like a fundamentalфундаментальный technologyтехнологии.
115
309000
2000
по аналогии с фундаментальными технологиями.
05:36
So why don't we have a good theoryтеория of brainsмозги?
116
311000
2000
Итак, почему же у нас нет хорошей теории мозга?
05:38
And people have been workingза работой on it for 100 yearsлет.
117
313000
3000
Люди ведь работали над ней на протяжении ста лет.
05:41
Well, let's first take a look at what normalнормальный scienceнаука looksвыглядит like.
118
316000
2000
Давайте сначала взглянем на то, как выглядит нормальная наука.
05:43
This is normalнормальный scienceнаука.
119
318000
2000
Это нормальная наука.
05:45
NormalНормальный scienceнаука is a niceхороший balanceбаланс betweenмежду theoryтеория and experimentalistsэкспериментаторы.
120
320000
4000
Нормальная наука - это хороший баланс между теорией и экспериментом.
05:49
And so the theoristтеоретик guys say, well, I think this is what's going on,
121
324000
2000
Теоретики говорят, что происходит одно,
05:51
and the experimentalistэкспериментатор saysговорит, no, you're wrongнеправильно.
122
326000
2000
а экспериментаторы - что происходит другое.
05:53
And it goesидет back and forthвперед, you know?
123
328000
2000
И так повторяется снова и снова.
05:55
This worksработает in physicsфизика. This worksработает in geologyгеология. But if this is normalнормальный scienceнаука,
124
330000
2000
Так происходит в физике. Так происходит в геологии. Но если это норма для науки,
05:57
what does neuroscienceневрология look like? This is what neuroscienceневрология looksвыглядит like.
125
332000
3000
какая ситуация в нейронауке? Вот как это выглядит:
06:00
We have this mountainгора of dataданные, whichкоторый is anatomyанатомия, physiologyфизиология and behaviorповедение.
126
335000
5000
у нас есть гора данных - из анатомии, физиологии и бихевиоральной науки.
06:05
You can't imagineпредставить how much detailподробно we know about brainsмозги.
127
340000
3000
Вы не можете себе представить как много мы знаем о мозге.
06:08
There were 28,000 people who wentотправился to the neuroscienceневрология conferenceконференция this yearгод,
128
343000
4000
В этом году на конференцию по нейронауке приехало 28 тысяч человек,
06:12
and everyкаждый one of them is doing researchисследование in brainsмозги.
129
347000
2000
каждый из который исследует мозг.
06:14
A lot of dataданные. But there's no theoryтеория. There's a little, wimpyмалодушный boxкоробка on topВверх there.
130
349000
4000
Большое количество данных. Но теории нет. Есть маленький неуверенный прямоугольник, расположенный сверху.
06:18
And theoryтеория has not playedиграл a roleроль in any sortСортировать of grandбольшой way in the neurosciencesневрология.
131
353000
5000
Теория не сыграла большой роли в науках о мозге.
06:23
And it's a realреальный shameпозор. Now why has this come about?
132
358000
3000
И это постыдно. Итак, почему же это произошло?
06:26
If you askпросить neuroscientistsневрологи, why is this the stateгосударство of affairдело,
133
361000
2000
Если спросить нейробиологов, чем вызвана такая ситуация,
06:28
they'llони будут first of all admitпризнавать it. But if you askпросить them, they'llони будут say,
134
363000
3000
они прежде всего согласятся с существованием проблемы. Но они ответят,
06:31
well, there's variousразличный reasonsпричины we don't have a good brainголовной мозг theoryтеория.
135
366000
3000
что есть различные причины того, что у нас нет хорошей теории мозга.
06:34
Some people say, well, we don't still have enoughдостаточно dataданные,
136
369000
2000
Некоторые скажут, что нам до сих пор не хватает данных,
06:36
we need to get more informationИнформация, there's all these things we don't know.
137
371000
3000
мы должны собрать больше информации, есть множество вещей, которых мы пока не понимаем.
06:39
Well, I just told you there's so much dataданные comingприход out your earsуши.
138
374000
3000
Ну, я только что рассказал вам, что последние годы генерировались большие объёмы данных.
06:42
We have so much informationИнформация, we don't even know how to beginначать to organizeорганизовать it.
139
377000
3000
У нас столько информации, что мы даже не знаем, как начать её систематизировать.
06:45
What good is more going to do?
140
380000
2000
Чем помогут дополнительные данные?
06:47
Maybe we'llЧто ж be luckyвезучий and discoverобнаружить some magicмагия thing, but I don't think so.
141
382000
3000
Возможно нам посчатсливится обнаружить нечто чудесное, но я так не думаю.
06:50
This is actuallyна самом деле a symptomсимптом of the factфакт that we just don't have a theoryтеория.
142
385000
3000
На самом деле это просто индикатор отсутствия теории.
06:53
We don't need more dataданные -- we need a good theoryтеория about it.
143
388000
3000
Мы не нуждаемся в дополнительных данных, нам требуется хорошая теория.
06:56
AnotherДругая one is sometimesиногда people say, well, brainsмозги are so complexсложный,
144
391000
3000
В качестве другой причины иногда приводят то, что мозг столь сложен,
06:59
it'llэто будет take anotherдругой 50 yearsлет.
145
394000
2000
что построение теории займёт ещё 50 лет.
07:01
I even think ChrisКрис said something like this yesterdayвчера.
146
396000
2000
Я даже думаю Крис вчера говорил что-то об этом.
07:03
I'm not sure what you said, ChrisКрис, but something like,
147
398000
2000
Не уверен, что именно ты сказал, Крис, но что-то вроде того,
07:05
well, it's one of the mostбольшинство complicatedсложно things in the universeвселенная. That's not trueправда.
148
400000
3000
что мозг - одна из сложнейших систем во вселенной. Но это не верно.
07:08
You're more complicatedсложно than your brainголовной мозг. You've got a brainголовной мозг.
149
403000
2000
Вы сложнее, чем ваш мозг. У вас есть мозг.
07:10
And it's alsoтакже, althoughнесмотря на то что the brainголовной мозг looksвыглядит very complicatedсложно,
150
405000
2000
Также, несмотря на то, что мозг выглядит сложным,
07:12
things look complicatedсложно untilдо you understandПонимаю them.
151
407000
3000
всё выглядит сложным до той поры, пока мы этого не понимаем.
07:15
That's always been the caseдело. And so all we can say, well,
152
410000
3000
Так всегда было. И всё что мы можем сказать, это
07:18
my neocortexнеокортекс, whichкоторый is the partчасть of the brainголовной мозг I'm interestedзаинтересованный in, has 30 billionмиллиард cellsячейки.
153
413000
4000
что неокортекс - интересующая меня область мозга - состоит из 30 миллиардов клеток.
07:22
But, you know what? It's very, very regularрегулярный.
154
417000
2000
Но знаете что? Он очень, очень однородный.
07:24
In factфакт, it looksвыглядит like it's the sameодна и та же thing repeatedповторный over and over and over again.
155
419000
3000
На практике выглядит, что это одно и то же, повторенное много-много раз.
07:27
It's not as complexсложный as it looksвыглядит. That's not the issueвопрос.
156
422000
3000
Он не настолько сложен, как кажется. Проблема не в этом.
07:30
Some people say, brainsмозги can't understandПонимаю brainsмозги.
157
425000
2000
Кто-то скажет, что мозг не способен понять сам себя.
07:32
Very Zen-likeДзэн. WhooОхайте. (LaughterСмех)
158
427000
3000
Очень в духе философии дзен. Вы знаете -
07:35
You know,
159
430000
1000
(Смех)
07:36
it soundsзвуки good, but why? I mean, what's the pointточка?
160
431000
3000
Это звучит хорошо, но почему? Я имею в виду - в чём смысл?
07:39
It's just a bunchгроздь of cellsячейки. You understandПонимаю your liverпечень.
161
434000
3000
Это лишь набор клеток. Вы понимаете, как работает ваша печень.
07:42
It's got a lot of cellsячейки in it too, right?
162
437000
2000
В ней ведь тоже множество клеток, так?
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
Так что я не думаю, что проблема в этом.
07:46
And finallyв конце концов, some people say, well, you know,
164
441000
2000
И, последнее, некоторые говорят, знаете,
07:48
I don't feel like a bunchгроздь of cellsячейки, you know. I'm consciousсознательный.
165
443000
4000
я не чувствую, что я лишь набор клеток. У меня есть сознание.
07:52
I've got this experienceопыт, I'm in the worldМир, you know.
166
447000
2000
У меня есть опыт, я живу в этом мире.
07:54
I can't be just a bunchгроздь of cellsячейки. Well, you know,
167
449000
2000
Я не могу быть просто набором клеток. Ну вы понимаете,
07:56
people used to believe there was a life forceсила to be livingживой,
168
451000
3000
люди привыкли верить, что есть некая жизненная сила, являющаяся источником жизни,
07:59
and we now know that's really not trueправда at all.
169
454000
2000
но мы знаем, что это совершенно не верно.
08:01
And there's really no evidenceдоказательства that saysговорит -- well, other than people
170
456000
3000
Нет никаких свидетельств, есть только люди,
08:04
just have disbeliefневерие that cellsячейки can do what they do.
171
459000
2000
которые не верят, что клетки могут выполнять эти функции.
08:06
And so, if some people have fallenпадший into the pitяма of metaphysicalметафизический dualismдуализм,
172
461000
3000
И несмотря на то, что некоторые люди скатились к метафизическому дуализму,
08:09
some really smartумная people, too, but we can rejectотклонять all that.
173
464000
3000
в том числе некоторые по-настоящему умные люди, мы можем отвергнуть это.
08:12
(LaughterСмех)
174
467000
2000
(Смех)
08:14
No, I'm going to tell you there's something elseеще,
175
469000
3000
Нет, там существует что-то другое,
08:17
and it's really fundamentalфундаментальный, and this is what it is:
176
472000
2000
и это по-настоящему фундаментально:
08:19
there's anotherдругой reasonпричина why we don't have a good brainголовной мозг theoryтеория,
177
474000
2000
есть ещё одна причина, почему у нас нет хорошей теории мозга -
08:21
and it's because we have an intuitiveинтуитивный, strongly-heldсильно удерживаемых,
178
476000
3000
у нас есть интуитивное и неверное допущение,
08:24
but incorrectнекорректный assumptionпредположение that has preventedпредотвращено us from seeingвидя the answerответ.
179
479000
5000
которому мы очень доверяем, но которое мешает нам увидеть ответ.
08:29
There's something we believe that just, it's obviousочевидный, but it's wrongнеправильно.
180
484000
3000
Есть нечто, во что мы верим, что очевидно, но ошибочно.
08:32
Now, there's a historyистория of this in scienceнаука and before I tell you what it is,
181
487000
4000
В науке есть целая история подобных явлений, о которой я поговорю,
08:36
I'm going to tell you a bitнемного about the historyистория of it in scienceнаука.
182
491000
2000
прежде чем рассказать об этом допущении.
08:38
You look at some other scientificнаучный revolutionsобороты,
183
493000
2000
Если посмотреть на другие революции в науке,
08:40
and this caseдело, I'm talkingговорящий about the solarсолнечный systemсистема, that's CopernicusКоперник,
184
495000
2000
в данном случае я говорю о солнечной системе, Копернике,
08:42
Darwin'sДарвина evolutionэволюция, and tectonicтектонический platesтарелки, that's WegenerВегенер.
185
497000
3000
Теории эволюции Дарвина, тектонических плитах - это Вегенер.
08:45
They all have a lot in commonобщий with brainголовной мозг scienceнаука.
186
500000
3000
У всех у них много общего с наукой о мозге.
08:48
First of all, they had a lot of unexplainedнеобъяснимый dataданные. A lot of it.
187
503000
3000
Во-первых, во всех этих областях есть множество необъяснённых данных. Множество.
08:51
But it got more manageableуправляемый onceодин раз they had a theoryтеория.
188
506000
3000
Но они стали намного более управляемыми, когда появилась теория.
08:54
The bestЛучший mindsумов were stumpedозадачены -- really, really smartумная people.
189
509000
3000
Лучшие умы были поставлены в тупик, весьма, весьма умные люди.
08:57
We're not smarterумнее now than they were then.
190
512000
2000
Мы сейчас не умнее, чем они были тогда.
08:59
It just turnsвитки out it's really hardжесткий to think of things,
191
514000
2000
Оказывается, по-настоящему сложно думать о чём-то,
09:01
but onceодин раз you've thought of them, it's kindсвоего рода of easyлегко to understandПонимаю it.
192
516000
2000
но когда нечто обдумано, его достаточно просто понять.
09:03
My daughtersдочери understoodпонимать these threeтри theoriesтеории
193
518000
2000
Мои дочери поняли эти три теории,
09:05
in theirих basicосновной frameworkфреймворк by the time they were in kindergartenдетский сад.
194
520000
3000
в общих чертах, ещё будучи в детском саду.
09:08
And now it's not that hardжесткий, you know, here'sвот the appleяблоко, here'sвот the orangeоранжевый,
195
523000
3000
Сейчас это не так сложно, знаете - вот яблоко, вот апельсин,
09:11
you know, the EarthЗемля goesидет around, that kindсвоего рода of stuffматериал.
196
526000
3000
земля обращается вокруг и всё такое прочее.
09:14
Finallyв заключение, anotherдругой thing is the answerответ was there all alongвдоль,
197
529000
2000
И последнее, ответ всегда был здесь,
09:16
but we kindсвоего рода of ignoredигнорируются it because of this obviousочевидный thing, and that's the thing.
198
531000
3000
мы просто его игнорировали из-за этого очевидного допущения.
09:19
It was an intuitiveинтуитивный, strong-heldсильный удерживаемых beliefвера that was wrongнеправильно.
199
534000
3000
Ошибка была в интуитивном допущении, которому очень доверяли.
09:22
In the caseдело of the solarсолнечный systemсистема, the ideaидея that the EarthЗемля is spinningспиннинг
200
537000
3000
В случае с солнечной системой, идея заключалась в том, что Земля вращается,
09:25
and the surfaceповерхность of the EarthЗемля is going like a thousandтысяча milesмиль an hourчас,
201
540000
3000
её поверхность движется со скоростью более полутора тысяч километров в час,
09:28
and the EarthЗемля is going throughчерез the solarсолнечный systemсистема about a millionмиллиона milesмиль an hourчас.
202
543000
3000
а сама Земля летит сквозь солнечную систему со скоростью более миллиона километров в час.
09:31
This is lunacyневменяемость. We all know the EarthЗемля isn't movingперемещение.
203
546000
2000
Это безумие. Мы ведь все знаем, что Земля не двигается.
09:33
Do you feel like you're movingперемещение a thousandтысяча milesмиль an hourчас?
204
548000
2000
Вы чувствуете, что движетесь со скоростью в полторы тысячи километров в час?
09:35
Of courseкурс not. You know, and someoneкто то who said,
205
550000
2000
Конечно нет. И тот, кто скажет, что
09:37
well, it was spinningспиннинг around in spaceпространство and it's so hugeогромный,
206
552000
2000
она вращается в космосе, таком большом,
09:39
they would lockзамок you up, and that's what they did back then.
207
554000
2000
будет изолирован - так раньше и делали.
09:41
(LaughterСмех)
208
556000
1000
(Смех)
09:42
So it was intuitiveинтуитивный and obviousочевидный. Now what about evolutionэволюция?
209
557000
3000
Это было интуитивно и очевидно. Что же с эволюцией?
09:45
Evolution'sв Evolution the sameодна и та же thing. We taughtучил our kidsДети, well, the Bibleбиблия saysговорит,
210
560000
3000
Эволюция - то же самое. Мы говорили своим детям, ну, в библии говорится,
09:48
you know, God createdсозданный all these speciesвид, catsкоты are catsкоты, dogsсобаки are dogsсобаки,
211
563000
2000
что бог создал все эти виды, кошки это кошки, собаки это собаки,
09:50
people are people, plantsрастения are plantsрастения, they don't changeизменение.
212
565000
3000
люди это люди, растения это растения, это неизменно.
09:53
NoahНой put them on the ArkКовчег in that orderзаказ, blahвздор, blahвздор, blahвздор. And, you know,
213
568000
4000
Ной разместил их на своём ковчеге в определённом порядке и т.п. И вы знаете,
09:57
the factфакт is, if you believe in evolutionэволюция, we all have a commonобщий ancestorпредок,
214
572000
4000
на самом деле, если вы верите в теорию эволюции, у нас у всей есть общий предок,
10:01
and we all have a commonобщий ancestryродословная with the plantрастение in the lobbyлобби.
215
576000
3000
у нас общее происхождение от того растения в фойе.
10:04
This is what evolutionэволюция tellsговорит us. And, it's trueправда. It's kindсвоего рода of unbelievableневероятно.
216
579000
3000
Вот о чём говорит эволюция. И это правда. Это невероятно.
10:07
And the sameодна и та же thing about tectonicтектонический platesтарелки, you know?
217
582000
3000
То же самое с тектоническими плитами.
10:10
All the mountainsгоры and the continentsконтиненты are kindсвоего рода of floatingплавающий around
218
585000
2000
Все горы и континенты плавают туда-сюда
10:12
on topВверх of the EarthЗемля, you know? It's like, it doesn't make any senseсмысл.
219
587000
4000
по поверхности Земли. Это полная бессмыслица.
10:16
So what is the intuitiveинтуитивный, but incorrectнекорректный assumptionпредположение,
220
591000
4000
Итак, какое интуитивное, но неверное допущение
10:20
that's keptхранится us from understandingпонимание brainsмозги?
221
595000
2000
мешало нам понять мозг?
10:22
Now I'm going to tell it to you, and it's going to seemказаться obviousочевидный that that is correctверный,
222
597000
2000
Сейчас я нём расскажу, и покажется очевидным, что оно верно,
10:24
and that's the pointточка, right? Then I'm going to have to make an argumentаргумент
223
599000
2000
ведь в этом же смысл, так? После чего я объясню,
10:26
why you're incorrectнекорректный about the other assumptionпредположение.
224
601000
2000
почему вы не правы.
10:28
The intuitiveинтуитивный but obviousочевидный thing is that somehowкак-то intelligenceинтеллект
225
603000
3000
Интуитивно и очевидно, что каким-то образом интеллект
10:31
is definedопределенный by behaviorповедение,
226
606000
2000
определяется поведением,
10:33
that we are intelligentумный because of the way that we do things
227
608000
2000
что мы разумны по причине того, как мы делаем что-то,
10:35
and the way we behaveвести себя intelligentlyразумно, and I'm going to tell you that's wrongнеправильно.
228
610000
3000
и того, что наше поведение разумно, и я скажу вам, что это не верно.
10:38
What it is is intelligenceинтеллект is definedопределенный by predictionпрогнозирование.
229
613000
2000
Разумность определяется способностью прогнозировать.
10:40
And I'm going to work you throughчерез this in a fewмало slidesслайды here,
230
615000
3000
Сейчас я покажу это на нескольких слайдах,
10:43
give you an exampleпример of what this meansозначает. Here'sВот a systemсистема.
231
618000
4000
приведу пример того, что это значит. Вот система.
10:47
EngineersИнженеры like to look at systemsсистемы like this. ScientistsУченые like to look at systemsсистемы like this.
232
622000
3000
Инженеры смотрят на системы таким образом, учёные смотрят на системы таким образом.
10:50
They say, well, we have a thing in a boxкоробка, and we have its inputsвходные and its outputsвыходы.
233
625000
3000
Они говорят, итак, у нас есть нечто внутри ящика, у которого есть свой ввод и вывод.
10:53
The AIискусственный интеллект people said, well, the thing in the boxкоробка is a programmableпрограммируемый computerкомпьютер
234
628000
3000
Специалисты по искусственному интеллекту говорили, что внутри ящика находится программируемый компьютер,
10:56
because that's equivalentэквивалент to a brainголовной мозг, and we'llЧто ж feedкорм it some inputsвходные
235
631000
2000
т.к. это эквивалентно мозгу, мы подадим что-то на ввод,
10:58
and we'llЧто ж get it to do something, have some behaviorповедение.
236
633000
2000
заставим его сделать что-то, проявить какое-то поведение.
11:00
And AlanАлан TuringТьюринг definedопределенный the TuringТьюринг testконтрольная работа, whichкоторый is essentiallyпо существу sayingпоговорка,
237
635000
3000
Алан Тьюринг придумал тест Тьюринга, который по сути утверждал,
11:03
we'llЧто ж know if something'sчто-то intelligentумный if it behavesведет себя identicalидентичный to a humanчеловек.
238
638000
3000
что мы поймём, что нечто разумно, если его поведение идентично человеческому.
11:06
A behavioralповеденческий metricметрический of what intelligenceинтеллект is,
239
641000
3000
Это поведенческий тест разумности,
11:09
and this has stuckзастрял in our mindsумов for a long periodпериод of time.
240
644000
3000
надолго застрявший в наших умах.
11:12
Realityреальность thoughхоть, I call it realреальный intelligenceинтеллект.
241
647000
2000
В действительности же - я называю это настоящим интеллектом -
11:14
Realреальный intelligenceинтеллект is builtпостроен on something elseеще.
242
649000
2000
настоящий интеллект имеет иную базу.
11:16
We experienceопыт the worldМир throughчерез a sequenceпоследовательность of patternsузоры, and we storeмагазин them,
243
651000
4000
Мы ощущаем мир через последовательность шаблонов, мы их сохраняем
11:20
and we recallотзыв them. And when we recallотзыв them, we matchсовпадение them up
244
655000
3000
и потом вспоминаем. И когда мы их вспоминаем, мы сопоставляем их
11:23
againstпротив realityреальность, and we're makingизготовление predictionsпрогнозы all the time.
245
658000
4000
с действительностью, постоянно строим прогнозы.
11:27
It's an eternalвечный metricметрический. There's an eternalвечный metricметрический about us sortСортировать of sayingпоговорка,
246
662000
3000
Это неизменный тест. Существует неизменный тест, позволяющий определить,
11:30
do we understandПонимаю the worldМир? Am I makingизготовление predictionsпрогнозы? And so on.
247
665000
3000
понимаем ли мы мир? Строю ли я прогнозы? И так далее.
11:33
You're all beingявляющийся intelligentумный right now, but you're not doing anything.
248
668000
2000
Вы все сейчас разумны, хотя вы ничего не делаете.
11:35
Maybe you're scratchingчесать yourselfсам, or pickingсобирание your noseнос,
249
670000
2000
Может быть вы чешетесь или ковыряете в носу,
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
не знаю, но вы ничего не делаете,
11:39
but you're beingявляющийся intelligentумный; you're understandingпонимание what I'm sayingпоговорка.
251
674000
3000
при этом будучи разумными, понимая, что я говорю.
11:42
Because you're intelligentумный and you speakговорить Englishанглийский,
252
677000
2000
Из-за того, что вы разумны и говорите по-английски,
11:44
you know what wordслово is at the endконец of this -- (Silenceбезмолвие)
253
679000
1000
вы знаете, какое слово будет стоять в конце этого - (пауза)
11:45
sentenceпредложение.
254
680000
2000
предложения.
11:47
The wordслово cameпришел into you, and you're makingизготовление these predictionsпрогнозы all the time.
255
682000
3000
Слово появилось у вас в голове, вы строите подобные прогнозы постоянно.
11:50
And then, what I'm sayingпоговорка is,
256
685000
2000
И я говорю,
11:52
is that the eternalвечный predictionпрогнозирование is the outputвывод in the neocortexнеокортекс.
257
687000
2000
что постоянное прогнозирование - продукт неокортекса.
11:54
And that somehowкак-то, predictionпрогнозирование leadsприводит to intelligentумный behaviorповедение.
258
689000
3000
И что прогнозирование каким-то образом ведёт к разумному поведению.
11:57
And here'sвот how that happensпроисходит. Let's startНачало with a non-intelligentнеинтеллектуальные brainголовной мозг.
259
692000
3000
Вот как это происходит. Давайте начнём с неразумного мозга.
12:00
Well I'll argueспорить a non-intelligentнеинтеллектуальные brainголовной мозг, we got holdдержать of an oldстарый brainголовной мозг,
260
695000
4000
Я утверждаю, что неразумный мозг, у нас есть старый мозг,
12:04
and we're going to say it's like a non-mammalбез млекопитающее, like a reptileрептилия,
261
699000
3000
скажем не млекопитающего, рептилии,
12:07
so I'll say, an alligatorаллигатор; we have an alligatorаллигатор.
262
702000
2000
к примеру возьмём аллигатора.
12:09
And the alligatorаллигатор has some very sophisticatedутонченный sensesчувств.
263
704000
3000
Аллигатор обладает высокоразвитыми чувствами:
12:12
It's got good eyesглаза and earsуши and touchпотрогать sensesчувств and so on,
264
707000
3000
зрением, слухом, тактильными ощущениями,
12:15
a mouthрот and a noseнос. It has very complexсложный behaviorповедение.
265
710000
4000
вкусом, обонянием. Это очень сложное поведение.
12:19
It can runбег and hideскрывать. It has fearsбоится and emotionsэмоции. It can eatесть you, you know.
266
714000
4000
Он умеет убегать и прятаться. У него есть страхи и эмоции. Он может вас, знаете ли, съесть.
12:23
It can attackатака. It can do all kindsвиды of stuffматериал.
267
718000
4000
Он умеет атаковать. Он умеет делать много чего.
12:27
But we don't considerрассматривать the alligatorаллигатор very intelligentумный, not like in a humanчеловек sortСортировать of way.
268
722000
5000
Но мы не считаем аллигатора очень интеллектуальным, в человеческом понимании слова.
12:32
But it has all this complexсложный behaviorповедение alreadyуже.
269
727000
2000
Но у него и так очень сложное поведение.
12:34
Now, in evolutionэволюция, what happenedполучилось?
270
729000
2000
Так что же произошло в эволюции?
12:36
First thing that happenedполучилось in evolutionэволюция with mammalsмлекопитающих,
271
731000
3000
Первое, что случилось в эволюции млекопитающих,
12:39
we startedначал to developразвивать a thing calledназывается the neocortexнеокортекс.
272
734000
2000
у них начал развиваться неокортекс.
12:41
And I'm going to representпредставлять the neocortexнеокортекс here,
273
736000
2000
Здесь неокортекс изображён
12:43
by this boxкоробка that's stickingприлипание on topВверх of the oldстарый brainголовной мозг.
274
738000
2000
в виде прямоугольника поверх старого мозга.
12:45
NeocortexНеокортекс meansозначает newновый layerслой. It is a newновый layerслой on topВверх of your brainголовной мозг.
275
740000
3000
Неокортекс - это новый слой. Новый слой поверх мозга.
12:48
If you don't know it, it's the wrinklyморщинистый thing on the topВверх of your headглава that,
276
743000
3000
Для тех кто не знает, это складчатая штука в верху головы,
12:51
it's got wrinklyморщинистый because it got shovedоттолкнул in there and doesn't fitпоместиться.
277
746000
3000
складки образовались когда в голову пытались запихнуть нечто, и оно туда не поместилось.
12:54
(LaughterСмех)
278
749000
1000
(Смех)
12:55
No, really, that's what it is. It's about the sizeразмер of a tableТаблица napkinсалфетка.
279
750000
2000
Нет, действительно, это так и есть. Она размером со скатерть.
12:57
And it doesn't fitпоместиться, so it getsполучает all wrinklyморщинистый. Now look at how I've drawnвничью this here.
280
752000
3000
И она не влезает, поэтому и появляются складки. Теперь посмотрите, как я нарисовал это здесь.
13:00
The oldстарый brainголовной мозг is still there. You still have that alligatorаллигатор brainголовной мозг.
281
755000
4000
Старый мозг всё ещё здесь. У вас до сих пор мозг аллигатора.
13:04
You do. It's your emotionalэмоциональный brainголовной мозг.
282
759000
2000
Правда. Это ваш эмоциональный мозг.
13:06
It's all those things, and all those gutпотрошить reactionsреакции you have.
283
761000
3000
Это все эмоции и чувства, которые вы испытываете.
13:09
And on topВверх of it, we have this memoryПамять systemсистема calledназывается the neocortexнеокортекс.
284
764000
3000
А поверх него у нас расположена система памяти под названием неокортекс.
13:12
And the memoryПамять systemсистема is sittingсидящий over the sensoryсенсорный partчасть of the brainголовной мозг.
285
767000
4000
Эта система памяти находится над сенсорным участком мозга.
13:16
And so as the sensoryсенсорный inputвход comesвыходит in and feedsкорма from the oldстарый brainголовной мозг,
286
771000
3000
Таким образом сенсорный ввод поступает из старого мозга
13:19
it alsoтакже goesидет up into the neocortexнеокортекс. And the neocortexнеокортекс is just memorizingзапоминание.
287
774000
4000
вверх в неокортекс. А неокортекс просто запоминает.
13:23
It's sittingсидящий there sayingпоговорка, ahах, I'm going to memorizeвыучить наизусть all the things that are going on:
288
778000
4000
Он как будто говорит: окей, я запомню всё, что происходит,
13:27
where I've been, people I've seenвидели, things I've heardуслышанным, and so on.
289
782000
2000
где я был, каких людей видел, что слышал и так далее.
13:29
And in the futureбудущее, when it seesвидит something similarаналогичный to that again,
290
784000
4000
А в будущем, когда он увидит что-то похожее,
13:33
so in a similarаналогичный environmentОкружающая среда, or the exactточный sameодна и та же environmentОкружающая среда,
291
788000
3000
в похожей или такой же среде,
13:36
it'llэто будет playиграть it back. It'llЭто будет startНачало playingиграть it back.
292
791000
2000
он воспроизведёт свои воспоминания.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
О, я уже был здесь. И, когда вы были здесь,
13:40
this happenedполучилось nextследующий. It allowsпозволяет you to predictпрогнозировать the futureбудущее.
294
795000
3000
вот что произошло. Этот механизм позволяет вам прогнозировать будущее.
13:43
It allowsпозволяет you to, literallyбуквально it feedsкорма back the signalsсигналы into your brainголовной мозг;
295
798000
4000
Он позволяет вам, фигурально говоря, он воспроизводит сигналы внутри вашего мозга,
13:47
they'llони будут let you see what's going to happenслучаться nextследующий,
296
802000
2000
позволяющие вам увидеть, что произойдёт дальше,
13:49
will let you hearзаслушивать the wordслово "sentenceпредложение" before I said it.
297
804000
3000
услышать слово "предложение" до того, как я его произнёс.
13:52
And it's this feedingкормление back into the oldстарый brainголовной мозг
298
807000
3000
Это воспроизведение сигналов в старом мозгу
13:55
that'llчто будет allowпозволять you to make very more intelligentумный decisionsрешения.
299
810000
3000
как раз и позволяет вам принимать более разумные решения.
13:58
This is the mostбольшинство importantважный slideгорка of my talk, so I'll dwellобитать on it a little bitнемного.
300
813000
3000
Это наиболее важный слайд моего выступления, так что я на нём немного задержусь.
14:01
And so, all the time you say, oh, I can predictпрогнозировать the things.
301
816000
4000
Итак, вы каждый раз говорите "я могу прогнозировать".
14:05
And if you're a ratкрыса and you go throughчерез a mazeлабиринт, and then you learnучить the mazeлабиринт,
302
820000
3000
Если вы крыса, пробирающаяся через лабиринт, и когда вы запоминаете лабиринт,
14:08
the nextследующий time you're in a mazeлабиринт, you have the sameодна и та же behaviorповедение,
303
823000
2000
то в следующий раз, когда вы там, ваше поведение будет тем же самым,
14:10
but all of a suddenвнезапно, you're smarterумнее
304
825000
2000
совершенно внезапно вы станете умнее,
14:12
because you say, oh, I recognizeпризнать this mazeлабиринт, I know whichкоторый way to go,
305
827000
3000
говоря себе "я узнаю этот лабиринт, я знаю, куда идти,
14:15
I've been here before, I can envisionвоображать the futureбудущее. And that's what it's doing.
306
830000
3000
я был здесь раньше, я могу предвидеть будущее". Вот что происходит.
14:18
In humansлюди -- by the way, this is trueправда for all mammalsмлекопитающих;
307
833000
3000
У людей - кстати, это верно для всех млекопитающих -
14:21
it's trueправда for other mammalsмлекопитающих -- and in humansлюди, it got a lot worseхуже.
308
836000
2000
а у людей всё намного хуже.
14:23
In humansлюди, we actuallyна самом деле developedразвитая the frontфронт partчасть of the neocortexнеокортекс
309
838000
3000
У людей развилась передняя часть неокортекса.
14:26
calledназывается the anteriorпередний partчасть of the neocortexнеокортекс. And natureприрода did a little trickтрюк.
310
841000
4000
Природа проделала небольшой трюк:
14:30
It copiedскопированный the posteriorзадний partчасть, the back partчасть, whichкоторый is sensoryсенсорный,
311
845000
2000
она скопировала заднюю часть, сенсорную,
14:32
and put it in the frontфронт partчасть.
312
847000
2000
и поместила её в переднюю.
14:34
And humansлюди uniquelyоднозначно have the sameодна и та же mechanismмеханизм on the frontфронт,
313
849000
2000
У человека появился уникальный механизм в передней части мозга,
14:36
but we use it for motorдвигатель controlконтроль.
314
851000
2000
который используется для управления моторными функциями.
14:38
So we are now ableв состоянии to make very sophisticatedутонченный motorдвигатель planningпланирование, things like that.
315
853000
3000
Так что теперь мы можем выполнять весьма тонкие моторные задачи и так далее.
14:41
I don't have time to get into all this, but if you want to understandПонимаю how a brainголовной мозг worksработает,
316
856000
3000
У меня нет времени, чтобы вдаваться в детали, но если вы хотите понять как работает мозг,
14:44
you have to understandПонимаю how the first partчасть of the mammalianмлекопитающим neocortexнеокортекс worksработает,
317
859000
3000
нужно разобраться, как работает первая часть неокортекса млекопитающих,
14:47
how it is we storeмагазин patternsузоры and make predictionsпрогнозы.
318
862000
2000
каким образом мы запоминаем шаблоны и строим прогнозы.
14:49
So let me give you a fewмало examplesПримеры of predictionsпрогнозы.
319
864000
3000
Так что позвольте мне привести несколько примеров прогнозов.
14:52
I alreadyуже said the wordслово "sentenceпредложение." In musicМузыка,
320
867000
2000
Я уже произнёс слово "предложение". В музыке,
14:54
if you've heardуслышанным a songпесня before, if you heardуслышанным JillДжил singпеть those songsпесни before,
321
869000
3000
если вы уже слышали какую-то песню, если вы слышали песни, которую недавно исполняла Джилл,
14:57
when she singsпоет them, the nextследующий noteзаметка popsпопса into your headглава alreadyуже --
322
872000
3000
когда она их поёт, следующая нота появляется в вашей голове -
15:00
you anticipateпредвидеть it as you're going. If it was an albumальбом of musicМузыка,
323
875000
2000
вы ожидаете её. Если бы это был музыкальный альбом,
15:02
the endконец of one albumальбом, the nextследующий songпесня popsпопса into your headглава.
324
877000
3000
по окончании одной песни следующая песня возникала бы у вас в голове.
15:05
And these things happenслучаться all the time. You're makingизготовление these predictionsпрогнозы.
325
880000
2000
Это происходит постоянно. Вы строите такие прогнозы.
15:07
I have this thing calledназывается the alteredизменено doorдверь thought experimentэксперимент.
326
882000
3000
Я придумал такой мыслительный эксперимент - изменённая дверь.
15:10
And the alteredизменено doorдверь thought experimentэксперимент saysговорит, you have a doorдверь at home,
327
885000
3000
В этом эксперименте у вас есть дверь - дома,
15:13
and when you're here, I'm changingизменения it, I've got a guy
328
888000
3000
и пока вы находитесь здесь, я её меняю, у меня есть человек,
15:16
back at your houseдом right now, movingперемещение the doorдверь around,
329
891000
2000
который находится сейчас у вас дома и передвигает вашу дверь,
15:18
and they're going to take your doorknobдверная ручка and moveпереехать it over two inchesдюймов.
330
893000
2000
он передвинет вашу дверную ручку на пять сантиметров.
15:20
And when you go home tonightсегодня ночью, you're going to put your handрука out there,
331
895000
2000
И когда вы вернётесь домой, вы протянете руку,
15:22
and you're going to reachдостичь for the doorknobдверная ручка and you're going to noticeуведомление
332
897000
2000
потянетесь за дверной ручкой и заметите,
15:24
it's in the wrongнеправильно spotместо, and you'llВы будете go, whoaтпру, something happenedполучилось.
333
899000
3000
что она не на том месте, и вы подумаете "что-то произошло".
15:27
It mayмай take a secondвторой to figureфигура out what it was, but something happenedполучилось.
334
902000
2000
На это может потребоваться одна секунда, чтобы понять что именно, но вы это заметите.
15:29
Now I could changeизменение your doorknobдверная ручка in other waysпути.
335
904000
2000
Также я мог бы поменять вашу дверную ручку по-другому.
15:31
I can make it largerбольше or smallerменьше, I can changeизменение its brassлатунь to silverСеребряный,
336
906000
2000
Я мог бы сделать её больше или меньше, я мог бы сделать её бронзовой или серебряной,
15:33
I could make it a leverрычаг. I can changeизменение your doorдверь, put colorsцвета on;
337
908000
2000
я мог бы изменить её форму. Я могу поменять вашу дверь, перекрасить её,
15:35
I can put windowsокна in. I can changeизменение a thousandтысяча things about your doorдверь,
338
910000
3000
вставить в неё окошко. Я могу изменить множество деталей,
15:38
and in the two secondsсекунд you take to openоткрытый your doorдверь,
339
913000
2000
и в течение двух секунд, которые требуются вам, чтобы открыть дверь,
15:40
you're going to noticeуведомление that something has changedизменено.
340
915000
3000
вы заметите, что что-то произошло.
15:43
Now, the engineeringинжиниринг approachподход to this, the AIискусственный интеллект approachподход to this,
341
918000
2000
Инженерный подход к проблеме, подход со стороны искусственного интеллекта, -
15:45
is to buildстроить a doorдверь databaseбаза данных. It has all the doorдверь attributesатрибуты.
342
920000
3000
построить базу данных дверей. У неё есть все атрибуты дверей.
15:48
And as you go up to the doorдверь, you know, let's checkпроверить them off one at time.
343
923000
3000
И когда вы подходите к двери - нужно проверить их все.
15:51
DoorДверь, doorдверь, doorдверь, you know, colorцвет, you know what I'm sayingпоговорка.
344
926000
2000
Дверь, дверь, дверь, знаете, цвет, ну вы меня понимаете.
15:53
We don't do that. Your brainголовной мозг doesn't do that.
345
928000
2000
Мы этого не делаем. Наш мозг этого не делает.
15:55
What your brainголовной мозг is doing is makingизготовление constantпостоянная predictionsпрогнозы all the time
346
930000
2000
Что наш мозг делает, так это постоянно строит прогнозы
15:57
about what is going to happenслучаться in your environmentОкружающая среда.
347
932000
2000
того, что произойдёт в текущей обстановке.
15:59
As I put my handрука on this tableТаблица, I expectожидать to feel it stop.
348
934000
3000
Когда я кладу свою руку на этот стол, я ожидаю, что она остановится.
16:02
When I walkходить, everyкаждый stepшаг, if I missedпропущенный it by an eighthвосьмой of an inchдюймовый,
349
937000
3000
Когда я иду, делаю шаг, если я ошибся на треть сантиметра,
16:05
I'll know something has changedизменено.
350
940000
2000
я знаю, что что-то изменилось.
16:07
You're constantlyпостоянно makingизготовление predictionsпрогнозы about your environmentОкружающая среда.
351
942000
2000
Вы постоянно прогнозируете окружающую обстановку.
16:09
I'll talk about visionвидение here brieflyкратко. This is a pictureкартина of a womanженщина.
352
944000
3000
Здесь я кратко упомяну зрение. Вот изображение женщины.
16:12
And when you look at people, your eyesглаза are caughtпойманный
353
947000
2000
Когда вы смотрите на людей, ваши глаза двигаются
16:14
over at two to threeтри timesраз a secondвторой.
354
949000
1000
от двух до трёх раз в секунду.
16:15
You're not awareзнать of this, but your eyesглаза are always movingперемещение.
355
950000
2000
Вы этого не осознаёте, но ваши глаза постоянно двигаются.
16:17
And so when you look at someone'sчей-то faceлицо,
356
952000
2000
И когда вы смотрите на чьё-либо лицо,
16:19
you'dвы бы typicallyтипично go from eyeглаз to eyeглаз to eyeглаз to noseнос to mouthрот.
357
954000
2000
вы бросаете взгляд на глаз, потом на другой, снова на глаз, на нос, на рот.
16:21
Now, when your eyeглаз movesдвижется from eyeглаз to eyeглаз,
358
956000
2000
Теперь, когда ваш глаз двигается от глаза к глазу,
16:23
if there was something elseеще there like, a noseнос,
359
958000
2000
если там оказывается что-то не то, например нос,
16:25
you'dвы бы see a noseнос where an eyeглаз is supposedпредполагаемый to be,
360
960000
2000
вы видите нос там, где должен быть глаз,
16:27
and you'dвы бы go, oh shitдерьмо, you know --
361
962000
3000
и вы думаете "о чёрт,
16:30
(LaughterСмех)
362
965000
1000
(Смех)
16:31
There's something wrongнеправильно about this personчеловек.
363
966000
2000
что-то не так с этим человеком".
16:33
And that's because you're makingизготовление a predictionпрогнозирование.
364
968000
2000
И это происходит потому, что вы прогнозируете.
16:35
It's not like you just look over there and say, what am I seeingвидя now?
365
970000
2000
Вы не смотрите туда и говорите: "так, что я сейчас вижу?"
16:37
A noseнос, that's okay. No, you have an expectationожидание of what you're going to see.
366
972000
3000
Нос, порядок. Нет, вы ожидаете то, что собираетесь увидеть.
16:40
(LaughterСмех)
367
975000
1000
(Смех)
16:41
Everyкаждый singleОдин momentмомент. And finallyв конце концов, let's think about how we testконтрольная работа intelligenceинтеллект.
368
976000
4000
В каждый момент времени. И последнее, давайте подумаем, как мы тестируем интеллект.
16:45
We testконтрольная работа it by predictionпрогнозирование. What is the nextследующий wordслово in this, you know?
369
980000
3000
Мы тестируем его по прогнозированию. Какое следующее слово в этом, понимаете?
16:48
This is to this as this is to this. What is the nextследующий numberномер in this sentenceпредложение?
370
983000
3000
Это относится к тому так же, как это к этому. Какое следующее число в этом предложении?
16:51
Here'sВот threeтри visionsвидения of an objectобъект.
371
986000
2000
Вот три ракурса одного объекта.
16:53
What's the fourthчетвертый one? That's how we testконтрольная работа it. It's all about predictionпрогнозирование.
372
988000
4000
Каков четвёртый? Вот так мы это её проверяем. Разумность подразумевает прогнозирование.
16:57
So what is the recipeрецепт for brainголовной мозг theoryтеория?
373
992000
3000
Так какой же рецепт теории мозга?
17:00
First of all, we have to have the right frameworkфреймворк.
374
995000
3000
Во-первых, нам нужна подходящая система взглядов.
17:03
And the frameworkфреймворк is a memoryПамять frameworkфреймворк,
375
998000
2000
Система взглядов на память,
17:05
not a computationвычисление or behaviorповедение frameworkфреймворк. It's a memoryПамять frameworkфреймворк.
376
1000000
2000
не вычисления или поведение.
17:07
How do you storeмагазин and recallотзыв these sequencesпоследовательности or patternsузоры? It's spatio-temporalпространственно-временной patternsузоры.
377
1002000
4000
Как вы запоминаете и вспоминаете эти последовательности или паттерны? Это пространственно-временные паттерны.
17:11
Then, if in that frameworkфреймворк, you take a bunchгроздь of theoreticiansтеоретики.
378
1006000
3000
Потом, в рамках этой системы взглядов понадобится набор теоретиков.
17:14
Now biologistsбиологам generallyв общем are not good theoreticiansтеоретики.
379
1009000
2000
Биологи обыкновенно не являются хорошими теоретиками.
17:16
It's not always trueправда, but in generalГенеральная, there's not a good historyистория of theoryтеория in biologyбиология.
380
1011000
4000
Это не всегда верно, но обычно, биология не может похвастать своими теориями.
17:20
So I foundнайденный the bestЛучший people to work with are physicistsфизики,
381
1015000
3000
Так что я обнаружил, что лучше всего работать с физиками,
17:23
engineersинженеры and mathematiciansматематики, who tendиметь тенденцию to think algorithmicallyалгоритмически.
382
1018000
3000
инженерами и математиками, которые думают алгоритмично.
17:26
Then they have to learnучить the anatomyанатомия, and they'veони имеют got to learnучить the physiologyфизиология.
383
1021000
3000
Им приходится изучить анатомию и физиологию.
17:29
You have to make these theoriesтеории very realisticреалистический in anatomicalанатомический termsсроки.
384
1024000
4000
Эти теории должны быть весьма реалистичными в терминах анатомии.
17:33
AnyoneКто угодно who getsполучает up and tellsговорит you theirих theoryтеория about how the brainголовной мозг worksработает
385
1028000
4000
Любой, рассказывающий свою теорию о том, как работает мозг,
17:37
and doesn't tell you exactlyв точку how it's workingза работой in the brainголовной мозг
386
1032000
2000
и не говорящий о том, как конкретно это работает в мозгу,
17:39
and how the wiringпроводка worksработает in the brainголовной мозг, it is not a theoryтеория.
387
1034000
2000
как выстраиваются связи в мозгу, не обладает теорией.
17:41
And that's what we're doing at the Redwoodкрасное дерево Neuroscienceневрология Instituteинститут.
388
1036000
3000
Вот что мы делаем в Редвудском институте неврологии.
17:44
I would love to have more time to tell you we're makingизготовление fantasticфантастика progressпрогресс in this thing,
389
1039000
4000
Я бы очень хотел, чтобы у меня было больше времени на рассказ о том, как фантастически продвинулись мы в этой области,
17:48
and I expectожидать to be back up on this stageсцена,
390
1043000
2000
и я ожидаю появиться на этой сцене снова,
17:50
maybe this will be some other time in the not too distantотдаленный futureбудущее and tell you about it.
391
1045000
2000
возможно в другой раз в не столь отдалённом будущем, и рассказать вам об этом.
17:52
I'm really, really excitedв восторге. This is not going to take 50 yearsлет at all.
392
1047000
3000
Я очень, очень взволнован. Это вовсе не потребует пятидесяти лет.
17:55
So what will brainголовной мозг theoryтеория look like?
393
1050000
2000
Так как будет выглядеть теория мозга?
17:57
First of all, it's going to be a theoryтеория about memoryПамять.
394
1052000
2000
Во-первых, это будет теория памяти.
17:59
Not like computerкомпьютер memoryПамять. It's not at all like computerкомпьютер memoryПамять.
395
1054000
3000
Не памяти наподобие компьютерной. Это вовсе не похоже на компьютерную память.
18:02
It's very, very differentдругой. And it's a memoryПамять of these very
396
1057000
2000
Она совсем, совсем другая. Это память
18:04
high-dimensionalмногомерный patternsузоры, like the things that come from your eyesглаза.
397
1059000
3000
шаблонов высокого порядка, тех, которые создаются вашим зрением.
18:07
It's alsoтакже memoryПамять of sequencesпоследовательности.
398
1062000
2000
Также это память последовательностей.
18:09
You cannotне могу learnучить or recallотзыв anything outsideза пределами of a sequenceпоследовательность.
399
1064000
2000
Вы не можете выучить либо вспомнить что-либо за пределами последовательности.
18:11
A songпесня mustдолжен be heardуслышанным in sequenceпоследовательность over time,
400
1066000
3000
Песню нужно слушать в определённой последовательности во времени,
18:14
and you mustдолжен playиграть it back in sequenceпоследовательность over time.
401
1069000
3000
так же, как и проигрывать.
18:17
And these sequencesпоследовательности are auto-associativelyавто-ассоциативно recalledвспомнил, so if I see something,
402
1072000
3000
И эти последовательности всплывают в памяти автоматически-ассоциативно, если я что-то вижу,
18:20
I hearзаслушивать something, it remindsнапоминает me of it, and then it playsигры back automaticallyавтоматически.
403
1075000
3000
что-то слышу, оно мне напоминает об этом, и следом автоматически воспроизводится.
18:23
It's an automaticавтоматический playbackвоспроизведение. And predictionпрогнозирование of futureбудущее inputsвходные is the desiredжелательно outputвывод.
404
1078000
4000
Это автоматическое воспроизведение. И прогнозирование будущих входящих данных - это предпочтительный вывод.
18:27
And as I said, the theoryтеория mustдолжен be biologicallyбиологически accurateточный,
405
1082000
3000
И как я говорил, теория должна быть точной биологически,
18:30
it mustдолжен be testableтестируемый, and you mustдолжен be ableв состоянии to buildстроить it.
406
1085000
2000
она должна быть проверяемой, и должна быть возможность её реализовать на практике.
18:32
If you don't buildстроить it, you don't understandПонимаю it. So, one more slideгорка here.
407
1087000
4000
Если вы не можете практически реализовать теорию, вы её не понимаете. Итак, ещё один слайд.
18:36
What is this going to resultрезультат in? Are we going to really buildстроить intelligentумный machinesмашины?
408
1091000
4000
К чему это приведёт? Построим ли мы разумные машины?
18:40
AbsolutelyАбсолютно. And it's going to be differentдругой than people think.
409
1095000
4000
Безусловно. И это будет сделано по-другому, нежели люди думают.
18:44
No doubtсомнение that it's going to happenслучаться, in my mindразум.
410
1099000
3000
В том, что это произойдёт, у меня нет никаких сомнений.
18:47
First of all, it's going to be builtпостроен up, we're going to buildстроить the stuffматериал out of siliconкремний.
411
1102000
4000
Во-первых, они будут построены, и будут построены на основе кремния.
18:51
The sameодна и та же techniquesметоды we use for buildingздание siliconкремний computerкомпьютер memoriesвоспоминания,
412
1106000
3000
Здесь мы сможем использовать те же технологии, что мы используем для
18:54
we can use for here.
413
1109000
1000
построения компьютерной памяти.
18:55
But they're very differentдругой typesтипы of memoriesвоспоминания.
414
1110000
2000
Но это совершенно различные типы памяти.
18:57
And we're going to attachприкреплять these memoriesвоспоминания to sensorsдатчиков,
415
1112000
2000
И мы подключим её к сенсорам,
18:59
and the sensorsдатчиков will experienceопыт real-liveнастоящий живой, real-worldреальный мир dataданные,
416
1114000
3000
и сенсоры будут получать данные в реальном времени, из реального мира,
19:02
and these things are going to learnучить about theirих environmentОкружающая среда.
417
1117000
2000
эти создания будут познавать свою окружающую среду.
19:04
Now it's very unlikelyвряд ли the first things you're going to see are like robotsроботы.
418
1119000
3000
Очень маловероятно, что первое, что вы увидите, будет похоже на роботов.
19:07
Not that robotsроботы aren'tне usefulполезным and people can buildстроить robotsроботы.
419
1122000
3000
Не так чтобы роботы не были полезны, люди могут конструировать роботов.
19:10
But the roboticsробототехника partчасть is the hardestтруднее всего partчасть. That's the oldстарый brainголовной мозг. That's really hardжесткий.
420
1125000
4000
Но робототехника - наиболее сложная часть. Это старый мозг. Это действительно сложно.
19:14
The newновый brainголовной мозг is actuallyна самом деле kindсвоего рода of easierПолегче than the oldстарый brainголовной мозг.
421
1129000
2000
Новый мозг проще старого.
19:16
So the first thing we're going to do are the things that don't requireтребовать a lot of roboticsробототехника.
422
1131000
3000
Так что первое, что мы сделаем, не будет требовать значительного использования робототехники.
19:19
So you're not going to see C-C-3POПО.
423
1134000
2000
Так что вы не увидите Си-3 Пи О.
19:21
You're going to more see things like, you know, intelligentумный carsлегковые автомобили
424
1136000
2000
Вы увидите больше вещей наподобие умных машин,
19:23
that really understandПонимаю what trafficтрафик is and what drivingвождение is
425
1138000
3000
которые понимают, что такое трафик и что такое вождение,
19:26
and have learnedнаучился that certainопределенный typesтипы of carsлегковые автомобили with the blinkersшоры on for halfполовина a minuteминут
426
1141000
3000
и которые выучили, что есть такой тип машин с включёнными уже полминуты поворотниками,
19:29
probablyвероятно aren'tне going to turnочередь, things like that.
427
1144000
2000
которые скорее всего не собираются поворачивать, и тому подобное.
19:31
(LaughterСмех)
428
1146000
1000
(Смех)
19:32
We can alsoтакже do intelligentумный securityбезопасность systemsсистемы.
429
1147000
2000
Мы также можем строить интеллектуальные системы безопасности.
19:34
AnywhereВ любом месте where we're basicallyв основном usingс помощью our brainголовной мозг, but not doing a lot of mechanicsмеханика.
430
1149000
4000
Что угодно, где мы используем мозг, но не выполняем большого числа механических действий.
19:38
Those are the things that are going to happenслучаться first.
431
1153000
2000
Это произойдёт в первую очередь.
19:40
But ultimatelyв конечном счете, the world'sв мире the limitпредел here.
432
1155000
2000
Но в конечном итоге предела не существует.
19:42
I don't know how this is going to turnочередь out.
433
1157000
2000
Я не знаю, чем это обернётся,
19:44
I know a lot of people who inventedизобрел the microprocessorмикропроцессор
434
1159000
2000
Я знаю многих людей, которые изобрели микропроцессор,
19:46
and if you talk to them, they knewзнал what they were doing was really significantзначительное,
435
1161000
5000
они знали, что делают что-то действительно важное,
19:51
but they didn't really know what was going to happenслучаться.
436
1166000
3000
но не знали, что произойдёт в результате.
19:54
They couldn'tне может anticipateпредвидеть cellклетка phonesтелефоны and the Internetинтернет and all this kindсвоего рода of stuffматериал.
437
1169000
5000
Они не могли предвидеть сотовых телефонов, сети Интернет и прочего.
19:59
They just knewзнал like, hey, they were going to buildстроить calculatorsкалькуляторов
438
1174000
2000
Они лишь знали, что будут строить калькуляторы
20:01
and trafficтрафик lightлегкий controllersконтроллеры. But it's going to be bigбольшой.
439
1176000
2000
и системы контроля за переключателями сфетофоров. Последствия этих исследований будут большими.
20:03
In the sameодна и та же way, this is like brainголовной мозг scienceнаука and these memoriesвоспоминания
440
1178000
3000
Точно так же, наука о мозге и памяти
20:06
are going to be a very fundamentalфундаментальный technologyтехнологии, and it's going to leadвести
441
1181000
3000
станет основной технологией, и это приведёт
20:09
to very unbelievableневероятно changesизменения in the nextследующий 100 yearsлет.
442
1184000
3000
к самым невероятным преобразованиям в течение следующих ста лет.
20:12
And I'm mostбольшинство excitedв восторге about how we're going to use them in scienceнаука.
443
1187000
4000
И больше всего меня волнует, как мы их используем в науке.
20:16
So I think that's all my time, I'm over it, and I'm going to endконец my talk
444
1191000
3000
Думаю моё время вышло, на этом я и закончу
20:19
right there.
445
1194000
1000
своё выступление.
Translated by Artyom Morozov
Reviewed by Alexey Melchakov

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com