ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

Джеф Хоукинс относно това как изследванията върху мозъка ще променят работата с компютри.

Filmed:
1,674,773 views

Създателят на Трео Джеф Хоукинс ни предлага нов поглед над науката за мозъка, като ни кара да разпознаем в него не бърз процесор, а система за съхранение на информация, която запазва и възпроизвежда минали преживявания, за да ни помогне да предскажем, интелигентно, какво ще се случи в бъдеще.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I designдизайн mobileПодвижен computersкомпютри and I studyуча brainsмозъците.
0
0
3000
Правя две неща. Създавам дизайна на мобилни компютри и изучавам мозъка.
00:29
And today'sднес talk is about brainsмозъците and,
1
4000
2000
И днешният разговор е за мозъка и,
00:31
yayУау, somewhereнякъде I have a brainмозък fanфен out there.
2
6000
2000
еха, някъде там имам човек, фен на мозъка.
00:33
(LaughterСмях)
3
8000
2000
(Смях)
00:35
I'm going to, if I can have my first slideпързалка up here,
4
10000
2000
Започвам, стига да успея да извикам първия си слайд тук,
00:37
and you'llти ще see the titleзаглавие of my talk and my two affiliationsпринадлежност.
5
12000
4000
и ще видите темата на този разговор и двете ми принадлежности.
00:41
So what I'm going to talk about is why we don't have a good brainмозък theoryтеория,
6
16000
4000
Това, за което ще говоря, е защо нямаме добра теория за това как работи мозъкът,
00:45
why it is importantважно that we should developразвият one and what we can do about it.
7
20000
3000
защо е важно да създадем такава теория и какво можем да направим по въпроса.
00:48
And I'll try to do all that in 20 minutesминути. I have two affiliationsпринадлежност.
8
23000
3000
И ще опитам да направя това за 20 минути. Имам две принадлежности.
00:51
MostНай-много of you know me from my PalmPalm and HandspringHandspring daysдни,
9
26000
3000
Повечето от вас ме познават от времето, когато работех за Палм и Хендспринг
00:54
but I alsoсъщо runтичам a nonprofitс нестопанска цел, scientificнаучен researchизследване instituteинститут
10
29000
3000
но аз също така ръководя и институт за научни изследвания с нестопанска цел
00:57
calledНаречен the RedwoodСеквоя NeuroscienceНеврологията InstituteИнститут in MenloМенло ParkПарк,
11
32000
2000
на име Институт по невронаука Редууд в Менло Парк
00:59
and we studyуча theoreticalтеоретичен neuroscienceневрология,
12
34000
2000
и ние се занимаваме с теоретична невронаука
01:01
and we studyуча how the neocortexнеокортекса worksвърши работа.
13
36000
2000
и изучаваме как работи неокортексът.
01:03
I'm going to talk all about that.
14
38000
2000
Ще говоря за това.
01:05
I have one slideпързалка on my other life, the computerкомпютър life, and that's the slideпързалка here.
15
40000
3000
Имам още един слайд за другия ви живот, компютърния живот, ето го и него.
01:08
These are some of the productsпродукти I've workedработил on over the last 20 yearsгодини,
16
43000
3000
Това са някои от продуктите, върху които съм работил през последните двадесет години
01:11
startingстартиране back from the very originalоригинал laptopлаптоп to some of the first tabletтаблет computersкомпютри
17
46000
4000
като се започне с най-първия лаптоп и някои от първите таблети
01:15
and so on, and endingкрай up mostнай-много recentlyнаскоро with the TreoTreo,
18
50000
2000
и така нататък и се стигне с най-скорошния ми проект - Трео,
01:17
and we're continuingпродължаващото to do this.
19
52000
2000
и ние продължаваме да се занимаваме точно с това.
01:19
And I've doneСвършен this because I really believe that mobileПодвижен computingизчислителен
20
54000
2000
Направил съм това, защото наистина вярвам, че преносимите компютърни системи
01:21
is the futureбъдеще of personalперсонален computingизчислителен, and I'm tryingопитвайки to make the worldсвят
21
56000
3000
са бъдещето на персоналните компютъри и аз опитвам да направя този свят
01:24
a little bitмалко better by workingработа on these things.
22
59000
3000
малко по-добър, като работя върху тези неща.
01:27
But this was, I have to admitпризнавам, all an accidentзлополука.
23
62000
2000
Но всичко това беше, трябва да призная, случайност.
01:29
I really didn't want to do any of these productsпродукти
24
64000
2000
Аз всъщност не исках да създам нито един от тези продукти
01:31
and very earlyрано in my careerкариера I decidedреши
25
66000
2000
и съвсем рано в своята кариера реших,
01:33
I was not going to be in the computerкомпютър industryпромишленост.
26
68000
3000
че няма да бъда част от компютърната индустрия.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
И преди да ви разкажа за това, аз само трябва да ви кажа,
01:38
this one little pictureснимка of graffitiГрафити there I pickedизбран off the webмрежа the other day.
28
73000
2000
ето тази малка картинка на графити я свалих от интернет онзи ден.
01:40
I was looking for a pictureснимка of graffitiГрафити, little textтекст inputвход languageезик,
29
75000
3000
Търсех снимка на графити, въведох малко текст
01:43
and I foundнамерено the websiteуебсайт dedicatedпосветен to teachersучители who want to make these,
30
78000
3000
и открих сайт, посветен на учители, които искат да направят тези,
01:46
you know, the scriptскрипт writingписане things acrossпрез the topвръх of theirтехен blackboardчерна дъска,
31
81000
3000
нали знаете, тези неща, с които се пише код в горната част на черната дъска
01:49
and they had addedдобавен graffitiГрафити to it, and I'm sorry about that.
32
84000
3000
и те бяха сложили графити там. Съжалявам за това.
01:52
(LaughterСмях)
33
87000
2000
(Смях)
01:54
So what happenedсе случи was, when I was youngмлад and got out of engineeringинженерство schoolучилище
34
89000
5000
Та, какво се случи, когато бях млад и завърших училището за инженери,
01:59
at CornellКорнел in '79, I decidedреши -- I wentотидох to work for IntelIntel and
35
94000
4000
Корнелсият университет през `79та, реших да постъпя на работа в Интел.
02:03
I was in the computerкомпютър industryпромишленост -- and threeтри monthsмесеца into that,
36
98000
3000
Бях част от компютърната индустрия и за три месеца там
02:06
I fellпадна in love with something elseоще, and I said, "I madeизработен the wrongпогрешно careerкариера choiceизбор here,"
37
101000
4000
се влюбих в друго и си казах, "Избрах грешната кариера"
02:10
and I fellпадна in love with brainsмозъците.
38
105000
3000
и се влюбих в мозъка.
02:13
This is not a realреален brainмозък. This is a pictureснимка of one, a lineлиния drawingчертеж.
39
108000
3000
Това не е истински мозък. Това е картинка на един такъв, графика.
02:16
But I don't rememberпомня exactlyточно how it happenedсе случи,
40
111000
3000
Не си спомням как точно това се случи,
02:19
but I have one recollectionспомен, whichкойто was prettyкрасива strongсилен in my mindум.
41
114000
3000
но имам един спомен, който е доста силен.
02:22
In SeptemberСептември 1979, ScientificНаучни AmericanАмерикански cameдойде out
42
117000
3000
През септември 1979та, Scientific American (научно списание) публикува
02:25
with a singleединичен topicтема issueпроблем about the brainмозък. And it was quiteсъвсем good.
43
120000
3000
издание само на една тема, относно мозъка. Беше доста добро.
02:28
It was one of the bestнай-доброто issuesвъпроси ever. And they talkedговорих about the neuronневрон
44
123000
3000
Беше един от най-добрите броеве въобще. В него говореха за неврона
02:31
and developmentразвитие and diseaseболест and visionзрение and all the things
45
126000
2000
и за развитие и за заболявания и за зрение и за всички неща
02:33
you mightбиха могли, може want to know about brainsмозъците. It was really quiteсъвсем impressiveвнушителен.
46
128000
3000
относно мозъка, за които би искал да знаеш. Беше доста впечатляващо.
02:36
And one mightбиха могли, може have the impressionвпечатление that we really knewЗнаех a lot about brainsмозъците.
47
131000
3000
Някой би могъл да остане с впечатлението, че знаехме доста за мозъка.
02:39
But the last articleстатия in that issueпроблем was writtenписмен by FrancisФрансис CrickКрик of DNAДНК fameслава.
48
134000
4000
Но последната статия в този брой беше написана от Франсис Крик, един от хората, чиято популярност е свързана с ДНК.
02:43
TodayДнес is, I think, the 50thтата anniversaryюбилей of the discoveryоткритие of DNAДНК.
49
138000
3000
Днес, струва ми се, е петдесетата годишнина от откриването на ДНК.
02:46
And he wroteнаписах a storyистория basicallyв основата си sayingпоговорка,
50
141000
2000
И той беше написал история, която в общи линии казваше,
02:48
well, this is all well and good, but you know what,
51
143000
3000
ами, всичко това е чудесно, но знаете ли какво,
02:51
we don't know diddleyDiddley squatклякам about brainsмозъците
52
146000
2000
ние не знаем нищо за мозъка
02:53
and no one has a clueулика how these things work,
53
148000
2000
и никой няма представа как тези неща функционират,
02:55
so don't believe what anyoneнякой tellsразказва you.
54
150000
2000
затова не вярвайте на нищо от това, което ви казват.
02:57
This is a quoteцитат from that articleстатия. He said, "What is conspicuouslyвидно lackingлипсващ,"
55
152000
3000
Това е цитат от статията. Той каза, "Това, което очевидно липсва,"
03:00
he's a very properправилното BritishБритански gentlemanджентълмен so, "What is conspicuouslyвидно lackingлипсващ
56
155000
4000
той е чудесен британски джентълмен, та, "Това, което очевидно липсва,
03:04
is a broadширок frameworkрамка of ideasидеи in whichкойто to interpretинтерпретира these differentразличен approachesподходи."
57
159000
3000
е широка рамка от идеи, в контекста на които да интерпретираме тези различни подходи."
03:07
I thought the wordдума frameworkрамка was great.
58
162000
2000
Помислих си, че думата рамка беше страхотна.
03:09
He didn't say we didn't even have a theoryтеория. He saysказва,
59
164000
2000
Той не каза, че дори нямаме теория. Той каза,
03:11
we don't even know how to beginзапочвам to think about it --
60
166000
2000
че дори не знаем как да започнем да мислим за това -
03:13
we don't even have a frameworkрамка.
61
168000
2000
че дори нямаме рамка (основа).
03:15
We are in the pre-paradigmпредварително парадигма daysдни, if you want to use ThomasТомас KuhnКун.
62
170000
3000
Ние се намираме във времената на пред-парадигмата, ако искате да се позовете на Томас Кун.
03:18
And so I fellпадна in love with this, and said look,
63
173000
3000
И ето, аз се влюбих в това и си казах, виж,
03:21
we have all this knowledgeзнание about brainsмозъците. How hardтвърд can it be?
64
176000
3000
разполагаме с цялото това знание за мозъка. Колко трудно би могло да бъде?
03:24
And this is something we can work on my lifetimeживот. I feltчувствах I could make a differenceразлика,
65
179000
3000
И това беше нещо, върху което можехме да работим цял живот. Почувствах, че бих могъл да имам значителен принос,
03:27
and so I triedопитах to get out of the computerкомпютър businessбизнес, into the brainмозък businessбизнес.
66
182000
4000
затова опитах да напусна компютърният бизнес и да вляза в този, свързан с мозъка.
03:31
First, I wentотидох to MITMIT, the AIAI labлаборатория was there,
67
186000
2000
Първо отидох в Мазачузетският технически университет, там имаме лаборатория, свързана с Изкуствената интелигентност,
03:33
and I said, well, I want to buildпострои intelligentинтелигентен machinesмашини, too,
68
188000
2000
и си казах, ами, аз също искам да създавам интелигентни машини,
03:35
but the way I want to do it is to studyуча how brainsмозъците work first.
69
190000
3000
но за да го направя първо искам да разбера как работи мозъкът.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
А те ми казаха, о, това не ти е нужно.
03:41
We're just going to programпрограма computersкомпютри; that's all we need to do.
71
196000
2000
Ние само ще програмираме компютри, това е всичко, което трябва да направим.
03:43
And I said, no, you really oughtтрябва to studyуча brainsмозъците. They said, oh, you know,
72
198000
3000
А аз казах, не, вие наистина трябва да изучавате мозъка. А те казаха, знаеш ли,
03:46
you're wrongпогрешно. And I said, no, you're wrongпогрешно, and I didn't get in.
73
201000
2000
грешиш. А аз отговорих, не, вие грешите, и не влязох.
03:48
(LaughterСмях)
74
203000
1000
(Смях)
03:50
But I was a little disappointedразочарован -- prettyкрасива youngмлад -- but I wentотидох back again
75
205000
2000
Но бях малко разочарован - доста млад; и все пак се върнах
03:52
a fewмалцина yearsгодини laterпо късно and this time was in CaliforniaКалифорния, and I wentотидох to BerkeleyБъркли.
76
207000
3000
няколко години по-късно и този път бях в Калифорния и отидох в Бъркли.
03:55
And I said, I'll go in from the biologicalбиологичен sideстрана.
77
210000
4000
Казах си, че опитам да започна от биологията.
03:59
So I got in -- in the PhPH.D. programпрограма in biophysicsбиофизика, and I was, all right,
78
214000
3000
И така влязох - в програмата за докторанти по биофизика и, чудесно,
04:02
I'm studyingизучаване brainsмозъците now, and I said, well, I want to studyуча theoryтеория.
79
217000
3000
вече изучавах мозъка и си казах, добре, искам да уча теория.
04:05
And they said, oh no, you can't studyуча theoryтеория about brainsмозъците.
80
220000
2000
Те ми казаха, не, не можеш да учиш теория относно мозъка.
04:07
That's not something you do. You can't get fundedобезпечена for that.
81
222000
2000
Това не се прави. Не можеш да получиш финансиране за това.
04:09
And as a graduateзавършвам studentстудент, you can't do that. So I said, oh my goshбрей.
82
224000
4000
А и като докторант не можеш да го направиш. Казах си, о, боже,
04:13
I was very depressedподтиснат. I said, but I can make a differenceразлика in this fieldполе.
83
228000
2000
и бях много депресиран. Казах, че бих могъл да внеса промяна в тази област.
04:15
So what I did is I wentотидох back in the computerкомпютър industryпромишленост
84
230000
3000
Затова се върнах обратно в компютърния бизнес
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
и си казах, ами, ще трябва да работя тук временно, да правя нещо.
04:20
That's when I designedпроектиран all those computerкомпютър productsпродукти.
86
235000
3000
Ето тогава създадох всички тези компютърни продукти.
04:23
(LaughterСмях)
87
238000
1000
(Смях)
04:24
And I said, I want to do this for fourчетирима yearsгодини, make some moneyпари,
88
239000
3000
Казах си, искам да правя това четири години, да изкарам малко пари,
04:27
like I was havingкато a familyсемейство, and I would matureвъзрастни a bitмалко,
89
242000
4000
имах семейство, щях да стана малко по-зрял
04:31
and maybe the businessбизнес of neuroscienceневрология would matureвъзрастни a bitмалко.
90
246000
3000
и може би бизнесът с невронауката също щеше да стане малко по-зрял.
04:34
Well, it tookвзеха longerповече време than fourчетирима yearsгодини. It's been about 16 yearsгодини.
91
249000
3000
Е, отне повече от 4 години. Минаха около 16 години.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
Но в момента се занимавам с това и ще ви разкажа за него.
04:39
So why should we have a good brainмозък theoryтеория?
93
254000
3000
За какво ни е да имаме добра теория за мозъка?
04:42
Well, there's lots of reasonsпричини people do scienceнаука.
94
257000
3000
Ами, има много причини хората да се занимават с наука.
04:45
One is -- the mostнай-много basicосновен one is -- people like to know things.
95
260000
3000
Едната - най-основната - е че на хората им харесва да знаят разни неща.
04:48
We're curiousлюбопитен, and we just go out and get knowledgeзнание, you know?
96
263000
2000
Любопитни сме и просто търсим знание, нали разбирате?
04:50
Why do we studyуча antsмравки? Well, it's interestingинтересен.
97
265000
2000
Защо изучаваме мравките? Ами, интересно е.
04:52
Maybe we'llдобре learnуча something really usefulполезен about it, but it's interestingинтересен and fascinatingочарователен.
98
267000
3000
Може би ще научим нещо наистина полезно за тях, но е интересно и впечатляващо.
04:55
But sometimesпонякога, a scienceнаука has some other attributesатрибути
99
270000
2000
Но понякога науката има други качества,
04:57
whichкойто makesправи it really, really interestingинтересен.
100
272000
2000
което я прави наистина, наистина интересна.
04:59
SometimesПонякога a scienceнаука will tell something about ourselvesсебе си,
101
274000
3000
Понякога науката ще ни каже нещо за нас самите,
05:02
it'llще tell us who we are.
102
277000
1000
ще ни каже кои сме.
05:03
RarelyРядко, you know: evolutionеволюция did this and CopernicusКоперник did this,
103
278000
3000
Рядко, знаете, еволюцията и Коперник направиха това,
05:06
where we have a newнов understandingразбиране of who we are.
104
281000
2000
дадоха ни ново разбиране за това кои сме.
05:08
And after all, we are our brainsмозъците. My brainмозък is talkingговорим to your brainмозък.
105
283000
4000
И в крайна сметка, ние сме своят мозък. Моят мозък говори на вашият мозък.
05:12
Our bodiesтела are hangingобесване alongзаедно for the rideезда, but my brainмозък is talkingговорим to your brainмозък.
106
287000
3000
Телата ни просто се намесват в това пътуване, но моят мозък говори на вашият.
05:15
And if we want to understandразбирам who we are and how we feel and perceiveвъзприемат,
107
290000
3000
И ако искаме да разберем кои сме и как чувстваме и възприемаме,
05:18
we really understandразбирам what brainsмозъците are.
108
293000
2000
наистина трябва да разберем същността на мозъка.
05:20
AnotherДруг thing is sometimesпонякога scienceнаука
109
295000
2000
Също така, науката понякога
05:22
leadsпроводници to really bigголям societalобществени benefitsПолзи and technologiesтехнологии,
110
297000
2000
води до наистина значими облаги за обществото и технологии,
05:24
or businessesбизнеса, or whateverкакто и да е, that come out of it. And this is one, too,
111
299000
2000
или бизнеси, или каквото и да е. И това също е причина,
05:26
because when we understandразбирам how brainsмозъците work, we're going to be ableспособен
112
301000
3000
защото когато разберем как работи мозъкът, ще можем да
05:29
to buildпострои intelligentинтелигентен machinesмашини, and I think that's actuallyвсъщност a good thing on the wholeцяло,
113
304000
3000
създаваме интелигентни машини и ми се струва, че това като цяло е хубаво
05:32
and it's going to have tremendousогромен benefitsПолзи to societyобщество,
114
307000
2000
и ще доведе до огромни ползи за обществото
05:34
just like a fundamentalосновен technologyтехнология.
115
309000
2000
точно както една фундаментална технология.
05:36
So why don't we have a good theoryтеория of brainsмозъците?
116
311000
2000
И така, защо нямаме добра теория за мозъка?
05:38
And people have been workingработа on it for 100 yearsгодини.
117
313000
3000
Хората работят върху нея от сто години.
05:41
Well, let's first take a look at what normalнормален scienceнаука looksвъншност like.
118
316000
2000
Ами, нека първо обърнем внимание на това каква е нормалната наука.
05:43
This is normalнормален scienceнаука.
119
318000
2000
Това е нормална наука.
05:45
NormalНормален scienceнаука is a niceприятен balanceбаланс betweenмежду theoryтеория and experimentalistsexperimentalists.
120
320000
4000
Нормалната наука е добре балансирана между теория и експериментатори.
05:49
And so the theoristтеоретик guys say, well, I think this is what's going on,
121
324000
2000
И теоретикат казва, ами, мисля, че се случва ето това,
05:51
and the experimentalistекспериментатор saysказва, no, you're wrongпогрешно.
122
326000
2000
и експериментаторът казва, не, грешиш.
05:53
And it goesотива back and forthнапред, you know?
123
328000
2000
И това се повтаря между двамата, нали разбирате?
05:55
This worksвърши работа in physicsфизика. This worksвърши работа in geologyгеология. But if this is normalнормален scienceнаука,
124
330000
2000
Това действа във физиката. В геологията. Но ако това е нормалната наука,
05:57
what does neuroscienceневрология look like? This is what neuroscienceневрология looksвъншност like.
125
332000
3000
то какво представлява невронауката? Ето какво е невронауката.
06:00
We have this mountainпланина of dataданни, whichкойто is anatomyанатомия, physiologyфизиология and behaviorповедение.
126
335000
5000
Имаме огромно количество данни: анатомия, физиология, поведение.
06:05
You can't imagineПредставете си how much detailдетайл we know about brainsмозъците.
127
340000
3000
Не можете да си представите в какви детайли познаваме мозъка.
06:08
There were 28,000 people who wentотидох to the neuroscienceневрология conferenceконференция this yearгодина,
128
343000
4000
28 000 души посетиха конференция по невронаука тази година
06:12
and everyвсеки one of them is doing researchизследване in brainsмозъците.
129
347000
2000
и всеки от тях прави проучвания върху мозъка.
06:14
A lot of dataданни. But there's no theoryтеория. There's a little, wimpyпокривало boxкутия on topвръх there.
130
349000
4000
Много информация. Но няма теория. Това е малката слабост.
06:18
And theoryтеория has not playedизигран a roleроля in any sortвид of grandграндиозен way in the neurosciencesневронауки.
131
353000
5000
Теорията все още не е имала някаква голяма роля в нервонауката.
06:23
And it's a realреален shameсрам. Now why has this come about?
132
358000
3000
И това е срамота. Как се е стигнало до това?
06:26
If you askпитам neuroscientistsневролози, why is this the stateсъстояние of affairафера,
133
361000
2000
Ако попитате учен, занимаващ се с невронаука,
06:28
they'llте ще first of all admitпризнавам it. But if you askпитам them, they'llте ще say,
134
363000
3000
те първо ще го признаят. Но ако ги попитате, ще кажат,
06:31
well, there's variousразлични reasonsпричини we don't have a good brainмозък theoryтеория.
135
366000
3000
ами, има много причини за това да нямаме добра теория за мозъка.
06:34
Some people say, well, we don't still have enoughдостатъчно dataданни,
136
369000
2000
Някои казват, че все още нямаме достатъчно информация,
06:36
we need to get more informationинформация, there's all these things we don't know.
137
371000
3000
ще ни трябва още, има толкова неща, които не знаем.
06:39
Well, I just told you there's so much dataданни comingидващ out your earsушите.
138
374000
3000
Е, аз току що ви казах колко неща знаем.
06:42
We have so much informationинформация, we don't even know how to beginзапочвам to organizeорганизирам it.
139
377000
3000
Имаме толкова много данни; не знаем как да започнем да ги подреждаме.
06:45
What good is more going to do?
140
380000
2000
Как това да добавяме още ще ни помогне?
06:47
Maybe we'llдобре be luckyкъсметлия and discoverоткривам some magicмагия thing, but I don't think so.
141
382000
3000
Може да извадим късмет и да открием нещо магическо, но не мисля така.
06:50
This is actuallyвсъщност a symptomсимптом of the factфакт that we just don't have a theoryтеория.
142
385000
3000
Това е просто симптом на това, че просто нямаме теория.
06:53
We don't need more dataданни -- we need a good theoryтеория about it.
143
388000
3000
Нямаме нужда от още информация - трябва ни добра теория, свързана с нея.
06:56
AnotherДруг one is sometimesпонякога people say, well, brainsмозъците are so complexкомплекс,
144
391000
3000
Също така, хората понякога казват, ами, мозъкът е толкова сложен,
06:59
it'llще take anotherоще 50 yearsгодини.
145
394000
2000
че ще отнеме още 50 години.
07:01
I even think ChrisКрис said something like this yesterdayвчера.
146
396000
2000
Мисля, че дори Крис каза нещо подобно вчера.
07:03
I'm not sure what you said, ChrisКрис, but something like,
147
398000
2000
Не съм сигурен точно какво каза, Крис, но беше нещо от рода на,
07:05
well, it's one of the mostнай-много complicatedсложен things in the universeвселена. That's not trueвярно.
148
400000
3000
ами, това е едно от най-сложните неща във вселената. Това не е вярно.
07:08
You're more complicatedсложен than your brainмозък. You've got a brainмозък.
149
403000
2000
Ти си по-сложен от твоя мозък. Ти имаш мозък.
07:10
And it's alsoсъщо, althoughмакар че the brainмозък looksвъншност very complicatedсложен,
150
405000
2000
А и също така, въпреси че мозъкът изглежда много сложен,
07:12
things look complicatedсложен untilдо you understandразбирам them.
151
407000
3000
нещата изглеждат сложни докато не ги разбереш.
07:15
That's always been the caseслучай. And so all we can say, well,
152
410000
3000
Винаги е било така. Затова можем да кажем, ами,
07:18
my neocortexнеокортекса, whichкойто is the partчаст of the brainмозък I'm interestedзаинтересован in, has 30 billionмилиард cellsклетки.
153
413000
4000
моят неокортекс, частта от мозъка, от която се интересувам, има 30 милиарда клетки.
07:22
But, you know what? It's very, very regularредовен.
154
417000
2000
Но знаете ли какво? Той е много, много правилен.
07:24
In factфакт, it looksвъншност like it's the sameедин и същ thing repeatedповторен over and over and over again.
155
419000
3000
Всъщност, изглежда сякаш същото се повтаря отново и отново.
07:27
It's not as complexкомплекс as it looksвъншност. That's not the issueпроблем.
156
422000
3000
Не е толкова сложен, колкото изглежда. Не е това проблемът.
07:30
Some people say, brainsмозъците can't understandразбирам brainsмозъците.
157
425000
2000
Някои казват, че мозъкът не може да разбере сам себе си.
07:32
Very Zen-likeДзен подобен. WhooУуу. (LaughterСмях)
158
427000
3000
Много дзен. Ехааа. Знаете ли -
07:35
You know,
159
430000
1000
(смях)
07:36
it soundsзвуци good, but why? I mean, what's the pointточка?
160
431000
3000
Звучи добре, но защо? Имам предвид, каква е идеята?
07:39
It's just a bunchкуп of cellsклетки. You understandразбирам your liverчерен дроб.
161
434000
3000
Той е просто купчина клетки. Разбирате как работи черният ви дроб.
07:42
It's got a lot of cellsклетки in it too, right?
162
437000
2000
И той има доста клетки, нали?
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
Ето защо, не мисля, че в това е същината на проблема.
07:46
And finallyнакрая, some people say, well, you know,
164
441000
2000
И в крайна сметка, някои казват, ами,
07:48
I don't feel like a bunchкуп of cellsклетки, you know. I'm consciousв съзнание.
165
443000
4000
не се чувствам просто като купчина клетки. Имам съзнание.
07:52
I've got this experienceопит, I'm in the worldсвят, you know.
166
447000
2000
Събрал съм опит, живя в света, разбирате ли.
07:54
I can't be just a bunchкуп of cellsклетки. Well, you know,
167
449000
2000
Не мога да съм просто купчина клетки. Ами,
07:56
people used to believe there was a life forceсила to be livingжив,
168
451000
3000
хората някога вярвали, че има сила на живота,
07:59
and we now know that's really not trueвярно at all.
169
454000
2000
а днес знаем, че това въобще не е вярно.
08:01
And there's really no evidenceдоказателства that saysказва -- well, other than people
170
456000
3000
И наистиня нама доказателсва, освен хора,
08:04
just have disbeliefлипса на вяра that cellsклетки can do what they do.
171
459000
2000
които просто не вярват, че клетките могат това, което правят.
08:06
And so, if some people have fallenпаднал into the pitяма of metaphysicalметафизически dualismдуализъм,
172
461000
3000
И така, някои хора са се поддали на метафизически дуализъм,
08:09
some really smartумен people, too, but we can rejectотхвърли all that.
173
464000
3000
също както някои наистина умни хора, но ние можем да отречем това.
08:12
(LaughterСмях)
174
467000
2000
(Смях)
08:14
No, I'm going to tell you there's something elseоще,
175
469000
3000
Не, ще ви кажа, че има още нещо,
08:17
and it's really fundamentalосновен, and this is what it is:
176
472000
2000
което е наистина основополагащо, и то е:
08:19
there's anotherоще reasonпричина why we don't have a good brainмозък theoryтеория,
177
474000
2000
има друга причина за това да нямаме добра теория за мозъка
08:21
and it's because we have an intuitiveинтуитивен, strongly-heldсилно застъпвани,
178
476000
3000
и тя е, че сме под влиянието на интуитивно, силно,
08:24
but incorrectнеправилен assumptionпредположение that has preventedпредотвратявайки us from seeingвиждане the answerотговор.
179
479000
5000
но погрешно схващане, което ни пречи да видим отговора.
08:29
There's something we believe that just, it's obviousочевиден, but it's wrongпогрешно.
180
484000
3000
Има нещо, в което вярваме, което - очевидно - е погрешно.
08:32
Now, there's a historyистория of this in scienceнаука and before I tell you what it is,
181
487000
4000
Има подобни прецеденти в науката и преди да ви кажа за какво говоря
08:36
I'm going to tell you a bitмалко about the historyистория of it in scienceнаука.
182
491000
2000
ще ви разкажа малко за тези прецеденти в науката.
08:38
You look at some other scientificнаучен revolutionsреволюции,
183
493000
2000
Обърнете внимание на някои от научните революции,
08:40
and this caseслучай, I'm talkingговорим about the solarслънчев systemсистема, that's CopernicusКоперник,
184
495000
2000
в случая говоря за слънчевата система, Коперник,
08:42
Darwin'sНа Дарвин evolutionеволюция, and tectonicтектонски platesплочи, that's WegenerГрануломатоза.
185
497000
3000
Дарвиновата еволюция, теорията за тектонските плочи, Вегенер.
08:45
They all have a lot in commonчесто срещани with brainмозък scienceнаука.
186
500000
3000
Всички те имат много общо с науката за мозъка.
08:48
First of all, they had a lot of unexplainedнеобяснима dataданни. A lot of it.
187
503000
3000
Като начало, всички са имали много данни, които не са можели да обяснят. Много.
08:51
But it got more manageableуправляеми onceведнъж they had a theoryтеория.
188
506000
3000
Но нещата станали по-контролируеми, щом се създали теории.
08:54
The bestнай-доброто mindsумове were stumpedнеразрешима задача -- really, really smartумен people.
189
509000
3000
Най-добрите умове били изправяни пред неразрешими загадки, наистина много умни хора.
08:57
We're not smarterпо-умни now than they were then.
190
512000
2000
Днес ние не сме по-умни, отколкото те са били.
08:59
It just turnsзавои out it's really hardтвърд to think of things,
191
514000
2000
Просто се оказва, че е наистина трудно да мислиш за разни неща,
09:01
but onceведнъж you've thought of them, it's kindмил of easyлесно to understandразбирам it.
192
516000
2000
но щом веднъж си мислил за тях е по-лесно да ги разбереш.
09:03
My daughtersдъщери understoodразбрах these threeтри theoriesтеории
193
518000
2000
Дъщерите ми разбраха тези три теории
09:05
in theirтехен basicосновен frameworkрамка by the time they were in kindergartenДетска градина.
194
520000
3000
в най-основни линии, когато бяха в детската градина.
09:08
And now it's not that hardтвърд, you know, here'sето the appleябълка, here'sето the orangeоранжев,
195
523000
3000
И вече не е толкова трудно, разбирате ли, ето я ябълката, ето го портокала,
09:11
you know, the EarthЗемята goesотива around, that kindмил of stuffматерия.
196
526000
3000
земята се върти, такива неща.
09:14
FinallyНакрая, anotherоще thing is the answerотговор was there all alongзаедно,
197
529000
2000
Накрая, от друга страна, отговорът винаги си е бил там,
09:16
but we kindмил of ignoredигнорирани it because of this obviousочевиден thing, and that's the thing.
198
531000
3000
но ние някакси сме го пренебрегнали, защото е нещо очевидно, и ето в това е проблемът.
09:19
It was an intuitiveинтуитивен, strong-heldсилно застъпвани beliefвярване that was wrongпогрешно.
199
534000
3000
Било е интуитивно, силно схващане, което е грешно.
09:22
In the caseслучай of the solarслънчев systemсистема, the ideaидея that the EarthЗемята is spinningпредене
200
537000
3000
В случаят със Слънчевата система, идеята, че земята се върти
09:25
and the surfaceповърхност of the EarthЗемята is going like a thousandхиляда milesмили an hourчас,
201
540000
3000
повърхността ѝ се движи с хиляда мили в час
09:28
and the EarthЗемята is going throughпрез the solarслънчев systemсистема about a millionмилион milesмили an hourчас.
202
543000
3000
и земята преминава през Слънчевата система с около милион мили в час.
09:31
This is lunacyлудост. We all know the EarthЗемята isn't movingдвижещ.
203
546000
2000
Това е безумство. Всички знаем, че земята не се движи.
09:33
Do you feel like you're movingдвижещ a thousandхиляда milesмили an hourчас?
204
548000
2000
Вие да имате чувството, че се движите с хиляда мили в час?
09:35
Of courseкурс not. You know, and someoneнякой who said,
205
550000
2000
Разбира се, че не. Вие го знаете и някой, който казва,
09:37
well, it was spinningпредене around in spaceпространство and it's so hugeогромен,
206
552000
2000
че се върти в пространството и е толкова огромна,
09:39
they would lockключалка you up, and that's what they did back then.
207
554000
2000
ще бъде затворен някъде. Това са правили с такива хора в миналото.
09:41
(LaughterСмях)
208
556000
1000
(Смях)
09:42
So it was intuitiveинтуитивен and obviousочевиден. Now what about evolutionеволюция?
209
557000
3000
Значи е било интуитивно и очевидно. Какво е положението с еволюцията?
09:45
Evolution'sНа еволюцията в the sameедин и същ thing. We taughtпреподава our kidsдеца, well, the BibleБиблията saysказва,
210
560000
3000
С еволюцията е същото. Ние казвахме на децата си, че според Библията
09:48
you know, God createdсъздаден all these speciesвид, catsкотки are catsкотки, dogsкучета are dogsкучета,
211
563000
2000
господ е създал всички тези видове, котките са си котки, кучетата - кучета,
09:50
people are people, plantsрастения are plantsрастения, they don't changeпромяна.
212
565000
3000
хората са хора, растенията са растения, те не се променят.
09:53
NoahНоа put them on the ArkКовчег in that orderпоръчка, blahглупости, blahглупости, blahглупости. And, you know,
213
568000
4000
Ной ги е прибрал в ковчега в определен ред, бла-бла-бла. И, знаете ли,
09:57
the factфакт is, if you believe in evolutionеволюция, we all have a commonчесто срещани ancestorпрародител,
214
572000
4000
истината е, че ако вярвате в еволюциятя, имаме общ прародител
10:01
and we all have a commonчесто срещани ancestryпотекло with the plantрастение in the lobbyлоби.
215
576000
3000
както и общо родство с растението в лобито.
10:04
This is what evolutionеволюция tellsразказва us. And, it's trueвярно. It's kindмил of unbelievableневероятно.
216
579000
3000
Това ни казва еволюцията. И е вярно. Някакси е трудно да се повярва.
10:07
And the sameедин и същ thing about tectonicтектонски platesплочи, you know?
217
582000
3000
Същото се случва с теориите за тектонските плочи, разбирате ли?
10:10
All the mountainsпланини and the continentsконтиненти are kindмил of floatingплаващ around
218
585000
2000
Всички планини и континенти някакси плуват
10:12
on topвръх of the EarthЗемята, you know? It's like, it doesn't make any senseсмисъл.
219
587000
4000
върху земята, разбирате ли? В това привидно няма никакъв смисъл.
10:16
So what is the intuitiveинтуитивен, but incorrectнеправилен assumptionпредположение,
220
591000
4000
И така, какво е интуитивното, но погрешно схващане,
10:20
that's keptсъхраняват us from understandingразбиране brainsмозъците?
221
595000
2000
което ни е попречило да разберем мозъка.
10:22
Now I'm going to tell it to you, and it's going to seemИзглежда obviousочевиден that that is correctправилен,
222
597000
2000
Сега ще ви го кажа и ще ви се стори, че е очевидно вярно,
10:24
and that's the pointточка, right? Then I'm going to have to make an argumentаргумент
223
599000
2000
и в това е идеята, нали? След това ще се аргументирам
10:26
why you're incorrectнеправилен about the other assumptionпредположение.
224
601000
2000
защо не сте прави относно това предположение.
10:28
The intuitiveинтуитивен but obviousочевиден thing is that somehowнякак си intelligenceинтелигентност
225
603000
3000
Интуитивното, но очевидно нещо, е, че някакси разумът
10:31
is definedдефинирани by behaviorповедение,
226
606000
2000
се определя от поведението,
10:33
that we are intelligentинтелигентен because of the way that we do things
227
608000
2000
че ние сме разумни заради начина, по който правим разни неща,
10:35
and the way we behaveдържа се intelligentlyинтелигентно, and I'm going to tell you that's wrongпогрешно.
228
610000
3000
и защото се държим разумно, и аз ще ви кажа, че това не е вярно.
10:38
What it is is intelligenceинтелигентност is definedдефинирани by predictionпредвиждане.
229
613000
2000
А това, което всъщност е, е интелигентност, определена от предположение.
10:40
And I'm going to work you throughпрез this in a fewмалцина slidesпързалки here,
230
615000
3000
Ще разгледам тази идея с вас чрез няколко слайда,
10:43
give you an exampleпример of what this meansсредства. Here'sТук е a systemсистема.
231
618000
4000
ще ви дам пример какво всъщност означава това. Ето една система.
10:47
EngineersИнженери like to look at systemsсистеми like this. ScientistsУчените like to look at systemsсистеми like this.
232
622000
3000
Инжинерите обичат да разглеждат такива системи. Учените също.
10:50
They say, well, we have a thing in a boxкутия, and we have its inputsвходове and its outputsизходи.
233
625000
3000
Те казват, ами, имаме нещо в кутия и неговите изходни и входни точки.
10:53
The AIAI people said, well, the thing in the boxкутия is a programmableпрограмируем computerкомпютър
234
628000
3000
Хората, занимаващи се с изкуствен интелект, казван, това в кутията е програмируем компютър,
10:56
because that's equivalentеквивалентен to a brainмозък, and we'llдобре feedфураж it some inputsвходове
235
631000
2000
защото това е еквивалентно на мозъка, и ние ще му подадем информация
10:58
and we'llдобре get it to do something, have some behaviorповедение.
236
633000
2000
и ще го накараме да прави неко, да има някакво поведение.
11:00
And AlanАлън TuringТюринг definedдефинирани the TuringТюринг testтест, whichкойто is essentiallyпо същество sayingпоговорка,
237
635000
3000
И Алън Тюринг създава теста на Тюринг, който всъщност казва:
11:03
we'llдобре know if something'sнещо не е intelligentинтелигентен if it behavesсе държи identicalидентичен to a humanчовек.
238
638000
3000
ние ще знаем, че нещо е интелигентно, ако то се държи по същия начин, както човек.
11:06
A behavioralповеденчески metricметричен of what intelligenceинтелигентност is,
239
641000
3000
Това е метрична единица за интелект
11:09
and this has stuckзаби in our mindsумове for a long periodПериод of time.
240
644000
3000
и ние доста дълго мислехме, че е вярна.
11:12
RealityРеалност thoughвъпреки че, I call it realреален intelligenceинтелигентност.
241
647000
2000
Всъщност, наричам го истинска интелигентност.
11:14
RealИстински intelligenceинтелигентност is builtпостроен on something elseоще.
242
649000
2000
Истинската интелигентност се базира на друго.
11:16
We experienceопит the worldсвят throughпрез a sequenceпоследователност of patternsмодели, and we storeмагазин them,
243
651000
4000
Ние възприемаме света чрез серия от матрици, запазваме ги
11:20
and we recallприпомням си them. And when we recallприпомням си them, we matchмач them up
244
655000
3000
и после си ги припомняме. И когато си ги припомним, ги сравняваме
11:23
againstсрещу realityреалност, and we're makingприготвяне predictionsпрогнози all the time.
245
658000
4000
с реалността и така правим предположения през цялото време.
11:27
It's an eternalвечен metricметричен. There's an eternalвечен metricметричен about us sortвид of sayingпоговорка,
246
662000
3000
Това е една вечна единица. Това е вечна единица за нас самите, която в известна степен пита:
11:30
do we understandразбирам the worldсвят? Am I makingприготвяне predictionsпрогнози? And so on.
247
665000
3000
разбираме ли света? Правя ли предположения? И така нататък.
11:33
You're all beingсъщество intelligentинтелигентен right now, but you're not doing anything.
248
668000
2000
Всички вие в момента сте интелигетни, но не правите нищо.
11:35
Maybe you're scratchingнадраскване yourselfсебе си, or pickingбране your noseнос,
249
670000
2000
Може би се почесвате или си бъркате в носа,
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
не знам, не правите нищо в момента,
11:39
but you're beingсъщество intelligentинтелигентен; you're understandingразбиране what I'm sayingпоговорка.
251
674000
3000
но сте действено интелигентни, разбирате какво ви говоря.
11:42
Because you're intelligentинтелигентен and you speakговоря EnglishАнглийски,
252
677000
2000
Защото сте интелигентни и говорите английски,
11:44
you know what wordдума is at the endкрай of this -- (SilenceМълчание)
253
679000
1000
знаете коя е думата в края на това -- (тишина)
11:45
sentenceизречение.
254
680000
2000
изречение.
11:47
The wordдума cameдойде into you, and you're makingприготвяне these predictionsпрогнози all the time.
255
682000
3000
Тази дума се появява у вас и вие правите предложения непрекъснато.
11:50
And then, what I'm sayingпоговорка is,
256
685000
2000
И така, това, което казвам, е,
11:52
is that the eternalвечен predictionпредвиждане is the outputпродукция in the neocortexнеокортекса.
257
687000
2000
че това вечно предполагане е резултатът в неокортексът.
11:54
And that somehowнякак си, predictionпредвиждане leadsпроводници to intelligentинтелигентен behaviorповедение.
258
689000
3000
И че някакси предположенията водят до интелигентно поведение.
11:57
And here'sето how that happensслучва се. Let's startначало with a non-intelligent-интелигентни brainмозък.
259
692000
3000
Ето как се случва това. Нека започнем с един не-интелигентен мозък.
12:00
Well I'll argueспоря a non-intelligent-интелигентни brainмозък, we got holdдържа of an oldстар brainмозък,
260
695000
4000
Ще използваме за аргумент не-интелигентен мозък, вземаме един стар мозък
12:04
and we're going to say it's like a non-mammalбозайник, like a reptileвлечуги,
261
699000
3000
и нека предоложим, че не е на бозайник, а на влечуго,
12:07
so I'll say, an alligatorалигатор; we have an alligatorалигатор.
262
702000
2000
така, казваме например, че е на алигатор. Разполагаме с алигатор.
12:09
And the alligatorалигатор has some very sophisticatedсложен sensesсетива.
263
704000
3000
И алигаторът има някои доста сложно устроени сетива.
12:12
It's got good eyesочи and earsушите and touchдокосване sensesсетива and so on,
264
707000
3000
Има добри очи и уши и сетивност при докосване и така нататък,
12:15
a mouthуста and a noseнос. It has very complexкомплекс behaviorповедение.
265
710000
4000
уста и нос. Има много сложно поведение.
12:19
It can runтичам and hideКрия. It has fearsстрахове and emotionsемоции. It can eatЯжте you, you know.
266
714000
4000
Може да тича и да се крие. Има страхове и емоции. Може да ви изяде, знаете.
12:23
It can attackатака. It can do all kindsвидове of stuffматерия.
267
718000
4000
Може да напада. Може да прави всякакви неща.
12:27
But we don't considerобмислям the alligatorалигатор very intelligentинтелигентен, not like in a humanчовек sortвид of way.
268
722000
5000
Но не можем да считаме алигатора за особено интелигентен, не както бихме мислели за човек.
12:32
But it has all this complexкомплекс behaviorповедение alreadyвече.
269
727000
2000
Но той вече има сложно поведение.
12:34
Now, in evolutionеволюция, what happenedсе случи?
270
729000
2000
Така, в еволюцията, какво се е случило?
12:36
First thing that happenedсе случи in evolutionеволюция with mammalsбозайници,
271
731000
3000
Първото, което се случва в еволюцията на бозайниците, е
12:39
we startedзапочна to developразвият a thing calledНаречен the neocortexнеокортекса.
272
734000
2000
че започваме да развиваме нещо, наречено неокортекс.
12:41
And I'm going to representпредставляват the neocortexнеокортекса here,
273
736000
2000
Аз ще визуализирам неокортекста тук,
12:43
by this boxкутия that's stickingприлепяне on topвръх of the oldстар brainмозък.
274
738000
2000
чрез тази кутия, която се залепва върху стария мозък.
12:45
NeocortexНеокортекса meansсредства newнов layerслой. It is a newнов layerслой on topвръх of your brainмозък.
275
740000
3000
Неокортекст означава "нов слой". Означава нов слой върху мозъка ви.
12:48
If you don't know it, it's the wrinklyбръчки thing on the topвръх of your headглава that,
276
743000
3000
Ако не знаете, това е набръчканото нещо върху главата ви, което
12:51
it's got wrinklyбръчки because it got shovedбутна in there and doesn't fitгоден.
277
746000
3000
е набръчкано, защото е било напъхано там, но не пасва.
12:54
(LaughterСмях)
278
749000
1000
(Смях)
12:55
No, really, that's what it is. It's about the sizeразмер of a tableмаса napkinсалфетка.
279
750000
2000
Не, наистина, това е. Голямо е приблизително колкото покривка за маса.
12:57
And it doesn't fitгоден, so it getsполучава all wrinklyбръчки. Now look at how I've drawnсъставен this here.
280
752000
3000
И не пасва, затова е цялото набръчкано. Сега вижте какво съм нарисувал тук.
13:00
The oldстар brainмозък is still there. You still have that alligatorалигатор brainмозък.
281
755000
4000
Старият мозък още е тук. Все още имате този алигаторски мозък.
13:04
You do. It's your emotionalемоционален brainмозък.
282
759000
2000
Имате го. Това е емоционалният ви мозък.
13:06
It's all those things, and all those gutинстинктивен reactionsреакции you have.
283
761000
3000
Той е всички тези неща, всички тези инстинкти, които притежавате.
13:09
And on topвръх of it, we have this memoryпамет systemсистема calledНаречен the neocortexнеокортекса.
284
764000
3000
И връху него имаме тази система за запомняне, наречена неокортекс.
13:12
And the memoryпамет systemсистема is sittingседнал over the sensoryсетивен partчаст of the brainмозък.
285
767000
4000
Тази система стои върху частта от мозъка, отговорна за сетивата.
13:16
And so as the sensoryсетивен inputвход comesидва in and feedsемисии from the oldстар brainмозък,
286
771000
3000
И така, когато информацията от сетивата идва и се обработва от стария мозък,
13:19
it alsoсъщо goesотива up into the neocortexнеокортекса. And the neocortexнеокортекса is just memorizingзапомняне.
287
774000
4000
тя също така отива и в неокортекса. И той само запомня.
13:23
It's sittingседнал there sayingпоговорка, ahах, I'm going to memorizeзапаметявам all the things that are going on:
288
778000
4000
Той си седи там, казва си, ах, ще запомня всичко, което се случва,
13:27
where I've been, people I've seenвидян, things I've heardчух, and so on.
289
782000
2000
къде съм бил, кои хора съм виждал, какво съм чувал и т.н.
13:29
And in the futureбъдеще, when it seesвижда something similarподобен to that again,
290
784000
4000
И в бъдеще, когато видя нещо подобно отново,
13:33
so in a similarподобен environmentзаобикаляща среда, or the exactточен sameедин и същ environmentзаобикаляща среда,
291
788000
3000
в сходна среда или в същата среда,
13:36
it'llще playиграя it back. It'llТя ще startначало playingиграете it back.
292
791000
2000
ще си го припомня. Ще започна да възпроизвеждам запомненото.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
О, виждал съм го преди. И когато преди сте били тук,
13:40
this happenedсе случи nextследващия. It allowsпозволява you to predictпредскаже the futureбъдеще.
294
795000
3000
това се е случило след това. Така той ви позволява да предвидите бъдещето.
13:43
It allowsпозволява you to, literallyбуквално it feedsемисии back the signalsсигнали into your brainмозък;
295
798000
4000
Позволява ми, буквално връща сигналите в мозъка,
13:47
they'llте ще let you see what's going to happenстава nextследващия,
296
802000
2000
а те ви позволяват да видите какво ще се случи после,
13:49
will let you hearчувам the wordдума "sentenceизречение" before I said it.
297
804000
3000
ще ви позволи да чуете думата "изречение" преди да съм я казал.
13:52
And it's this feedingхранене back into the oldстар brainмозък
298
807000
3000
И той ще върне това в стария мозък,
13:55
that'llтова ще allowпозволява you to make very more intelligentинтелигентен decisionsрешения.
299
810000
3000
а това ще ви позволи да вземате много по-интелигентни решения.
13:58
This is the mostнай-много importantважно slideпързалка of my talk, so I'll dwellспирам on it a little bitмалко.
300
813000
3000
Това е най-важната част от моята презентация, затова ще ѝ отделя малко време.
14:01
And so, all the time you say, oh, I can predictпредскаже the things.
301
816000
4000
И така, през цялото време си казвате, че можете да предвиждате разни неща.
14:05
And if you're a ratплъх and you go throughпрез a mazeлабиринт, and then you learnуча the mazeлабиринт,
302
820000
3000
И ако сте плъх в лабиринт и опознаете лабиринта,
14:08
the nextследващия time you're in a mazeлабиринт, you have the sameедин и същ behaviorповедение,
303
823000
2000
следващият път, когато сте в лабиринт, ще се държите по същия начин,
14:10
but all of a suddenвнезапен, you're smarterпо-умни
304
825000
2000
но внезапно ще сте по-умни,
14:12
because you say, oh, I recognizeпризнавам this mazeлабиринт, I know whichкойто way to go,
305
827000
3000
защото можете да си кажете, о, аз познамам този лабиринт, знам по кой път да тръгна,
14:15
I've been here before, I can envisionси представим the futureбъдеще. And that's what it's doing.
306
830000
3000
виждал съм го преди,мога да видя бъдещито. И ето това прави той.
14:18
In humansхората -- by the way, this is trueвярно for all mammalsбозайници;
307
833000
3000
При хората, между другото, това е вярно за всички бозайници,
14:21
it's trueвярно for other mammalsбозайници -- and in humansхората, it got a lot worseпо-лошо.
308
836000
2000
вярно е за всички други бозайници, е станало много по-зле.
14:23
In humansхората, we actuallyвсъщност developedразвита the frontпреден partчаст of the neocortexнеокортекса
309
838000
3000
Хората всъщност сме развили предната част на неокортекса,
14:26
calledНаречен the anteriorпредната partчаст of the neocortexнеокортекса. And natureприрода did a little trickтрик.
310
841000
4000
наречена предната част на неокортекса. И природата е направила един малък номер.
14:30
It copiedкопирани the posteriorзадната partчаст, the back partчаст, whichкойто is sensoryсетивен,
311
845000
2000
Възпроизвела е задната част, която е сензорна,
14:32
and put it in the frontпреден partчаст.
312
847000
2000
и я е поставила в предната част.
14:34
And humansхората uniquelyеднозначно have the sameедин и същ mechanismмеханизъм on the frontпреден,
313
849000
2000
И хората единствени имат същия механизъм в предната част,
14:36
but we use it for motorмотор controlконтрол.
314
851000
2000
но го използваме, за да контролираме двигателните си действия.
14:38
So we are now ableспособен to make very sophisticatedсложен motorмотор planningпланиране, things like that.
315
853000
3000
И така, можем много внимателно да контролираме двигателните си действия, такива неща.
14:41
I don't have time to get into all this, but if you want to understandразбирам how a brainмозък worksвърши работа,
316
856000
3000
Нямам време да задълбавам във всичко тона, но ако искате да разберете как работи мозъкът,
14:44
you have to understandразбирам how the first partчаст of the mammalianбозайници neocortexнеокортекса worksвърши работа,
317
859000
3000
трябва да разберете как работи първата част на неокортекса при бозайниците,
14:47
how it is we storeмагазин patternsмодели and make predictionsпрогнози.
318
862000
2000
как запаметяваме матрици и правим предположения.
14:49
So let me give you a fewмалцина examplesпримери of predictionsпрогнози.
319
864000
3000
Нека ви дам няколко примера за предположения.
14:52
I alreadyвече said the wordдума "sentenceизречение." In musicмузика,
320
867000
2000
Вече казах думата "изречение". В музиката,
14:54
if you've heardчух a songпесен before, if you heardчух JillДжил singпея those songsпесни before,
321
869000
3000
ако сте чули някоя песен преди, ако сте чули Джил да пее тези песни преди,
14:57
when she singsпее them, the nextследващия noteЗабележка popsУОЗ into your headглава alreadyвече --
322
872000
3000
когато ги изпее пак, следащата нота се появява първо в ума ви -
15:00
you anticipateочаквам it as you're going. If it was an albumалбум of musicмузика,
323
875000
2000
вие я очаквате, докато слушате мелодията. Ако е музикален албум,
15:02
the endкрай of one albumалбум, the nextследващия songпесен popsУОЗ into your headглава.
324
877000
3000
краят на един албум, следващата песен се появява в главата ви.
15:05
And these things happenстава all the time. You're makingприготвяне these predictionsпрогнози.
325
880000
2000
И тези неща се случват непрекъснато. Правите тези предположения.
15:07
I have this thing calledНаречен the alteredпроменен doorврата thought experimentексперимент.
326
882000
3000
Има нещо, което наричам мисловен експеримент на променената врата.
15:10
And the alteredпроменен doorврата thought experimentексперимент saysказва, you have a doorврата at home,
327
885000
3000
И този експеримент казва: имате врата вкъщи
15:13
and when you're here, I'm changingсмяна it, I've got a guy
328
888000
3000
и докато сте тук аз я променям, имам човек
15:16
back at your houseкъща right now, movingдвижещ the doorврата around,
329
891000
2000
в къщата ви в момента, който я мести
15:18
and they're going to take your doorknobключалката and moveход it over two inchesинча.
330
893000
2000
и който ще промени мястото на дръжката с пет сантиметра.
15:20
And when you go home tonightТази вечер, you're going to put your handръка out there,
331
895000
2000
И когато се приберете, ще протегнете ръка напред,
15:22
and you're going to reachдостигнат for the doorknobключалката and you're going to noticeизвестие
332
897000
2000
ще се протегнете за дръжката и ще забележите,
15:24
it's in the wrongпогрешно spotмясто, and you'llти ще go, whoaпрт, something happenedсе случи.
333
899000
3000
че е на грешното място, и ще си кажете, еха, нещо стана.
15:27
It mayможе take a secondвтори to figureфигура out what it was, but something happenedсе случи.
334
902000
2000
Може да ви отнеме секунда да разберете какво, но нещо се е случило.
15:29
Now I could changeпромяна your doorknobключалката in other waysначини.
335
904000
2000
Мога да променя дръжката на вратата ви по други начини.
15:31
I can make it largerпо-голям or smallerпо-малък, I can changeпромяна its brassмесинг to silverсребърен,
336
906000
2000
Мога да я направя по-голяма или по-малка, да я сменя от месингова със сребърна,
15:33
I could make it a leverлост. I can changeпромяна your doorврата, put colorsцветове on;
337
908000
2000
да сменя вида ѝ. Мога да променя вратата ви, да я боядисам в разни цветове,
15:35
I can put windowsпрозорци in. I can changeпромяна a thousandхиляда things about your doorврата,
338
910000
3000
да ѝ сложа прозорци. Мога да променя хиляди неща във вратата ви
15:38
and in the two secondsсекунди you take to openотворен your doorврата,
339
913000
2000
и през двете секунди, когато я отваряте,
15:40
you're going to noticeизвестие that something has changedпроменен.
340
915000
3000
ще забележите, че нещо е различно.
15:43
Now, the engineeringинженерство approachподход to this, the AIAI approachподход to this,
341
918000
2000
И така, инженерната гледна точка спрямо това, гледната точка на Изкуствения Интелект,
15:45
is to buildпострои a doorврата databaseбаза данни. It has all the doorврата attributesатрибути.
342
920000
3000
е да създаде база данни с врати. Тя има всички характерни черти на вратите.
15:48
And as you go up to the doorврата, you know, let's checkпроверка them off one at time.
343
923000
3000
И когато отидете пред вратата, ще отхвърлите всяка една по една.
15:51
DoorВратата, doorврата, doorврата, you know, colorцвят, you know what I'm sayingпоговорка.
344
926000
2000
Врата, врата, разбирате, цвят, знаете за какво говоря.
15:53
We don't do that. Your brainмозък doesn't do that.
345
928000
2000
Ние не правим така. Мозъкът ви не действа по този начин.
15:55
What your brainмозък is doing is makingприготвяне constantпостоянен predictionsпрогнози all the time
346
930000
2000
Вместо това мозъкът ви потоянно прави предположения
15:57
about what is going to happenстава in your environmentзаобикаляща среда.
347
932000
2000
за това какво ще се случи в средата около вас.
15:59
As I put my handръка on this tableмаса, I expectочаквам to feel it stop.
348
934000
3000
Когато поставям ръката си на масата, очаквам да усетя как спира.
16:02
When I walkразходка, everyвсеки stepстъпка, if I missedпропуснал it by an eighthосми of an inchинч,
349
937000
3000
Когато вървя, всяка стъпща, ако я пропусна с четвърт сантиметър,
16:05
I'll know something has changedпроменен.
350
940000
2000
ще знам, че нещо се е променило.
16:07
You're constantlyпостоянно makingприготвяне predictionsпрогнози about your environmentзаобикаляща среда.
351
942000
2000
Вие постоянно правите предположения за околната си среда.
16:09
I'll talk about visionзрение here brieflyнакратко. This is a pictureснимка of a womanжена.
352
944000
3000
Ще поговоря накратко за зрението. Ето едно изображение на жена.
16:12
And when you look at people, your eyesочи are caughtхванат
353
947000
2000
И когато погледнете някого, погледът ви е уловен
16:14
over at two to threeтри timesпъти a secondвтори.
354
949000
1000
два-три пъти в секундата.
16:15
You're not awareосведомен of this, but your eyesочи are always movingдвижещ.
355
950000
2000
Не знаете за това, но очите ви винаги се движат.
16:17
And so when you look at someone'sнечий faceлице,
356
952000
2000
Така че когато погледнете нечие лице
16:19
you'dти можеш typicallyтипично go from eyeоко to eyeоко to eyeоко to noseнос to mouthуста.
357
954000
2000
обикновено ще го видите от око до око до нос до уста.
16:21
Now, when your eyeоко movesходове from eyeоко to eyeоко,
358
956000
2000
Сега, когато окото ви се движи от око до око
16:23
if there was something elseоще there like, a noseнос,
359
958000
2000
ако там има нещо друго, например нос,
16:25
you'dти можеш see a noseнос where an eyeоко is supposedпредполагаем to be,
360
960000
2000
ще видите нос там, където би трябвало да има око,
16:27
and you'dти можеш go, oh shitлайна, you know --
361
962000
3000
и ще си кажете - о, мамка му, знаете -
16:30
(LaughterСмях)
362
965000
1000
(Смях)
16:31
There's something wrongпогрешно about this personчовек.
363
966000
2000
Има нещо сбъркано в този човек.
16:33
And that's because you're makingприготвяне a predictionпредвиждане.
364
968000
2000
И това е защото сте направили предположение.
16:35
It's not like you just look over there and say, what am I seeingвиждане now?
365
970000
2000
Вие не поглеждате, казвайки си, какво виждам сега?
16:37
A noseнос, that's okay. No, you have an expectationочакване of what you're going to see.
366
972000
3000
Нос, това е добре. Не, вие очаквате какво ще видите.
16:40
(LaughterСмях)
367
975000
1000
(Смях)
16:41
EveryВсеки singleединичен momentмомент. And finallyнакрая, let's think about how we testтест intelligenceинтелигентност.
368
976000
4000
Всеки един момен И накрая, нека помислим за това как измерваме интелигентността.
16:45
We testтест it by predictionпредвиждане. What is the nextследващия wordдума in this, you know?
369
980000
3000
Измерваме я с предвиждане. Каква е следващата дума, разбирате ли?
16:48
This is to this as this is to this. What is the nextследващия numberномер in this sentenceизречение?
370
983000
3000
Това се отнася към онова както това към другото. Кое е следващото число в редицата?
16:51
Here'sТук е threeтри visionsвизии of an objectобект.
371
986000
2000
Ето три гледни точки към един обект.
16:53
What's the fourthчетвърти one? That's how we testтест it. It's all about predictionпредвиждане.
372
988000
4000
Коя е четвъртата? Ето така я измерваме. Всичко опира до предсказания.
16:57
So what is the recipeрецепта for brainмозък theoryтеория?
373
992000
3000
И така, каква е рецептата за теория за мозъка?
17:00
First of all, we have to have the right frameworkрамка.
374
995000
3000
Първо, трябва да имаме правилната рамка.
17:03
And the frameworkрамка is a memoryпамет frameworkрамка,
375
998000
2000
Тя е рамката на спомените,
17:05
not a computationизчисление or behaviorповедение frameworkрамка. It's a memoryпамет frameworkрамка.
376
1000000
2000
а не рамка на изчисления или поведение. Отнася се към запомнянето.
17:07
How do you storeмагазин and recallприпомням си these sequencesпоследователности or patternsмодели? It's spatio-temporalпространствено времеви patternsмодели.
377
1002000
4000
Как съхранявате и възпроизвеждате тази последователност от матрици? Нейните пространствено-времеви матрици.
17:11
Then, if in that frameworkрамка, you take a bunchкуп of theoreticiansтеоретици.
378
1006000
3000
След това, ако се намирате в тази рамка, взимате група теоретици.
17:14
Now biologistsбиолози generallyв общи линии are not good theoreticiansтеоретици.
379
1009000
2000
Сега, биолозите по принцип не са добри теоретици.
17:16
It's not always trueвярно, but in generalобщ, there's not a good historyистория of theoryтеория in biologyбиология.
380
1011000
4000
Това невинаги е вярно, но каго цяло няма добра история на теорията в биологията.
17:20
So I foundнамерено the bestнай-доброто people to work with are physicistsфизици,
381
1015000
3000
Затова за мен е най-добре да работя с физици,
17:23
engineersинженери and mathematiciansматематици, who tendсклонен to think algorithmicallyалгоритмично.
382
1018000
3000
инженери и математици, които мислят в алгоритми.
17:26
Then they have to learnуча the anatomyанатомия, and they'veте имат got to learnуча the physiologyфизиология.
383
1021000
3000
Трябва да научат анатомията и физиологоията.
17:29
You have to make these theoriesтеории very realisticреалистичен in anatomicalанатомически termsусловия.
384
1024000
4000
Тези теории трябва да са много реалистични от гледна точка на анатомията.
17:33
AnyoneВсеки who getsполучава up and tellsразказва you theirтехен theoryтеория about how the brainмозък worksвърши работа
385
1028000
4000
Ако някой стане и ти разкаже теорията си за това как работи мозъкът
17:37
and doesn't tell you exactlyточно how it's workingработа in the brainмозък
386
1032000
2000
и не ти каже как точно се прилага вътре в мозъка
17:39
and how the wiringокабеляване worksвърши работа in the brainмозък, it is not a theoryтеория.
387
1034000
2000
и как се осъществява свързването вътре в него, не ти представя теория.
17:41
And that's what we're doing at the RedwoodСеквоя NeuroscienceНеврологията InstituteИнститут.
388
1036000
3000
И ето това правим в Института по невронаука Редууд.
17:44
I would love to have more time to tell you we're makingприготвяне fantasticфантастичен progressпрогрес in this thing,
389
1039000
4000
Бих искал да имах повече време, за да ви разкажа за страхотния прогрес, който осъществяваме в това,
17:48
and I expectочаквам to be back up on this stageсцена,
390
1043000
2000
и очаквам да се върна на тази сцена,
17:50
maybe this will be some other time in the not too distantдалечен futureбъдеще and tell you about it.
391
1045000
2000
може би това ще се случи в недалечното бъдеще и ще ви разкажа за него.
17:52
I'm really, really excitedвъзбуден. This is not going to take 50 yearsгодини at all.
392
1047000
3000
Наистина, наистина развълнуван съм. Въобще няма да отнеме 50 години-.
17:55
So what will brainмозък theoryтеория look like?
393
1050000
2000
И така, какво ще представлява теорията за мозъка?
17:57
First of all, it's going to be a theoryтеория about memoryпамет.
394
1052000
2000
Първо, това ще бъде теория за паметта.
17:59
Not like computerкомпютър memoryпамет. It's not at all like computerкомпютър memoryпамет.
395
1054000
3000
Не като компютърната памет. Въобще не като нея.
18:02
It's very, very differentразличен. And it's a memoryпамет of these very
396
1057000
2000
Тя е много, много различна. И е памет за тези
18:04
high-dimensionalвисоко измерение patternsмодели, like the things that come from your eyesочи.
397
1059000
3000
многоизмерни матрици, като нещата, които излизат от очите ви.
18:07
It's alsoсъщо memoryпамет of sequencesпоследователности.
398
1062000
2000
Също така е памет на повтаряемите редици.
18:09
You cannotне мога learnуча or recallприпомням си anything outsideизвън of a sequenceпоследователност.
399
1064000
2000
Не можеш да научиш или да си спомниш нищо извън някоя повтаряема редица.
18:11
A songпесен mustтрябва да be heardчух in sequenceпоследователност over time,
400
1066000
3000
Една песен трябва да бъде чута в последователност през определено време
18:14
and you mustтрябва да playиграя it back in sequenceпоследователност over time.
401
1069000
3000
и трябва да я пуснеш отново в същата последователност след време.
18:17
And these sequencesпоследователности are auto-associativelyАвто-асоциативно recalledприпомни,, so if I see something,
402
1072000
3000
Всички тези редици се припомнят автоасоциативно, затова, ако видя нещо,
18:20
I hearчувам something, it remindsнапомня me of it, and then it playsпиеси back automaticallyавтоматично.
403
1075000
3000
чуя нещо, то ми напомня за нещо и се връща при мен автоматично.
18:23
It's an automaticавтоматично playbackвъзпроизвеждане. And predictionпредвиждане of futureбъдеще inputsвходове is the desiredжелания outputпродукция.
404
1078000
4000
Това е автоматичен плейбек. Това, което искаме да изведем, е предвиждане за бъдещите данни, които ще постъпят в системата.
18:27
And as I said, the theoryтеория mustтрябва да be biologicallyбиологично accurateточен,
405
1082000
3000
Както казах, тази теория трябва да е биологически достоверна,
18:30
it mustтрябва да be testableпроверими, and you mustтрябва да be ableспособен to buildпострои it.
406
1085000
2000
проверима чрез експерименти, трябва да можеш да я изградиш.
18:32
If you don't buildпострои it, you don't understandразбирам it. So, one more slideпързалка here.
407
1087000
4000
Ако не можеш да я изградиш, не можеш да я разбереш. Така, още един слайд.
18:36
What is this going to resultрезултат in? Are we going to really buildпострои intelligentинтелигентен machinesмашини?
408
1091000
4000
Какъв ще бъде резултатът от това? Наистина ли ще създадем интелигентни машини?
18:40
AbsolutelyАбсолютно. And it's going to be differentразличен than people think.
409
1095000
4000
Абсолютно. И ще е по-различно от това, което хората си представят.
18:44
No doubtсъмнение that it's going to happenстава, in my mindум.
410
1099000
3000
За мен няма съмнение, че това ще се случи.
18:47
First of all, it's going to be builtпостроен up, we're going to buildпострои the stuffматерия out of siliconсилиций.
411
1102000
4000
Първо ще изградим, ще направим тези неща от силикон.
18:51
The sameедин и същ techniquesтехники we use for buildingсграда siliconсилиций computerкомпютър memoriesспомени,
412
1106000
3000
Същите технологии, които използваме, за да създаваме силиконова компютърна памет,
18:54
we can use for here.
413
1109000
1000
ще приложим и тук.
18:55
But they're very differentразличен typesвидове of memoriesспомени.
414
1110000
2000
Но това са два много различни типа памет.
18:57
And we're going to attachприкрепете these memoriesспомени to sensorsсензори,
415
1112000
2000
И ние ще прикрепим тези памети към сензори,
18:59
and the sensorsсензори will experienceопит real-liveреално на живо, real-worldреалния свят dataданни,
416
1114000
3000
а у сензорите ще постъпва истинска информация, от истинския живот и истинския свят,
19:02
and these things are going to learnуча about theirтехен environmentзаобикаляща среда.
417
1117000
2000
и тези неща ще започнат да учат за околната си среда.
19:04
Now it's very unlikelyмалко вероятно the first things you're going to see are like robotsроботи.
418
1119000
3000
Твърде вероятно първите неща, които ще видите, няма да бъдат подобни на роботи.
19:07
Not that robotsроботи aren'tне са usefulполезен and people can buildпострои robotsроботи.
419
1122000
3000
Не, че роботите не са полезни и хората не могат да ги създават.
19:10
But the roboticsроботика partчаст is the hardestнай-трудната partчаст. That's the oldстар brainмозък. That's really hardтвърд.
420
1125000
4000
Но роботната част е най-трудната. Това е старият мозък. Това е наистина трудно.
19:14
The newнов brainмозък is actuallyвсъщност kindмил of easierпо-лесно than the oldстар brainмозък.
421
1129000
2000
Новият мозък всъщност е по-лесен от стария.
19:16
So the first thing we're going to do are the things that don't requireизисква a lot of roboticsроботика.
422
1131000
3000
Затова в началото ще създаваме неща, които не изискват много роботика.
19:19
So you're not going to see C-C-3POPO.
423
1134000
2000
Няма да видите C-3PO.
19:21
You're going to more see things like, you know, intelligentинтелигентен carsавтомобили
424
1136000
2000
Ще видите неща, които по-скоро ще бъдат интелигентни коли
19:23
that really understandразбирам what trafficтрафик is and what drivingшофиране is
425
1138000
3000
които наистина разбират какво представляват трафикът и шофирането
19:26
and have learnedнаучен that certainопределен typesвидове of carsавтомобили with the blinkersмигачи on for halfнаполовина a minuteминута
426
1141000
3000
и които са научили, че някои коли с мигачи, пуснати от около половин минута,
19:29
probablyвероятно aren'tне са going to turnзавой, things like that.
427
1144000
2000
вероятно няма да завият, такива неща.
19:31
(LaughterСмях)
428
1146000
1000
(Смях)
19:32
We can alsoсъщо do intelligentинтелигентен securityсигурност systemsсистеми.
429
1147000
2000
Можем също да направим интелигентни охранителни системи.
19:34
AnywhereНавсякъде where we're basicallyв основата си usingизползвайки our brainмозък, but not doing a lot of mechanicsмеханика.
430
1149000
4000
Ще можем да ги приложим навсякъде, където използваме мозъка си, но не и много механични действия.
19:38
Those are the things that are going to happenстава first.
431
1153000
2000
Това са нещата, които ще се случат първи.
19:40
But ultimatelyв края на краищата, the world'sв света the limitлимит here.
432
1155000
2000
Но в края на сметка едниственото, което ни ограничава, е самият свят.
19:42
I don't know how this is going to turnзавой out.
433
1157000
2000
Не знам как точно ще се развие това.
19:44
I know a lot of people who inventedизобретен the microprocessorмикропроцесор
434
1159000
2000
Познавам много хора, които изобретиха микропроцесора,
19:46
and if you talk to them, they knewЗнаех what they were doing was really significantзначителен,
435
1161000
5000
и ако поговорите с тях, ще разберете, че те са съзнавали важността на това, което правят,
19:51
but they didn't really know what was going to happenстава.
436
1166000
3000
но не са били наясно какво точно ще се случи.
19:54
They couldn'tне можех anticipateочаквам cellклетка phonesтелефони and the InternetИнтернет and all this kindмил of stuffматерия.
437
1169000
5000
Те не биха могли да предвидят появата на мобилните телефони, интернет и т.н.
19:59
They just knewЗнаех like, hey, they were going to buildпострои calculatorsкалкулатори
438
1174000
2000
Те са знаели само, че правят калкулатори
20:01
and trafficтрафик lightсветлина controllersконтролери. But it's going to be bigголям.
439
1176000
2000
и управления за светофари. Но ще бъде нещо голямо.
20:03
In the sameедин и същ way, this is like brainмозък scienceнаука and these memoriesспомени
440
1178000
3000
По същия начин, това напомня на науката за мозъка и тези спомени и за това,
20:06
are going to be a very fundamentalосновен technologyтехнология, and it's going to leadводя
441
1181000
3000
че те ще доведат до създаването на силно основополагаща технология, която ще доведе
20:09
to very unbelievableневероятно changesпромени in the nextследващия 100 yearsгодини.
442
1184000
3000
до невъобразими промени през следващите 100 години.
20:12
And I'm mostнай-много excitedвъзбуден about how we're going to use them in scienceнаука.
443
1187000
4000
Вълнувам се най-вече за това как ще ги приложим в науката.
20:16
So I think that's all my time, I'm over it, and I'm going to endкрай my talk
444
1191000
3000
Мисля, че времето ми свършва, приключих и ще прекъсна моята презентация
20:19
right there.
445
1194000
1000
точно тук.
Translated by Greta Ivanova
Reviewed by Stoyan Georgiev

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee