ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

Jeff Hawkins: Știința creierului, cum va revoluționa computerizarea

Filmed:
1,674,773 views

Jeff Hawkins - creatorul Treo - ne îndeamnă să ne revizuim perspectiva asupra creierului -- să-l privim nu ca pe un procesor rapid, ci ca pe un sistem de memorie care stochează și re-accesează experiențele pentru a ne ajuta să prezicem, în mod inteligent, ce sa va întâmpla.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I designproiecta mobilemobil computerscalculatoare and I studystudiu brainscreier.
0
0
3000
Fac două lucruri. Proiectez calculatoare mobile și studiez creierul.
00:29
And today'sastăzi talk is about brainscreier and,
1
4000
2000
Şi discursul de azi este despre creier și
00:31
yayura, somewhereundeva I have a braincreier fanventilator out there.
2
6000
2000
vai, am găsit acolo un iubitor de creiere.
00:33
(LaughterRâs)
3
8000
2000
(Râsete)
00:35
I'm going to, if I can have my first slidealuneca up here,
4
10000
2000
Voi prezenta, dacă prima imagine va apare aici sus,
00:37
and you'llveți see the titletitlu of my talk and my two affiliationsAfilieri.
5
12000
4000
și veți vedea titlul discursului meu și cele două afilieri ale mele.
00:41
So what I'm going to talk about is why we don't have a good braincreier theoryteorie,
6
16000
4000
Deci voi vorbi despre motivul pentru care nu avem o teorie bună a creierului,
00:45
why it is importantimportant that we should developdezvolta one and what we can do about it.
7
20000
3000
de ce este important să dezvoltăm una și ce putem face pentru asta.
00:48
And I'll try to do all that in 20 minutesminute. I have two affiliationsAfilieri.
8
23000
3000
Și voi încerca să fac asta în 20 de minute. Am două afilieri.
00:51
MostCele mai multe of you know me from my PalmPalm and HandspringHandspring dayszi,
9
26000
3000
Majoritatea din voi mă cunoașteți din zilele mele la Palm și Handspring,
00:54
but I alsode asemenea runalerga a nonprofitnon-profit scientificștiințific researchcercetare instituteinstitut
10
29000
3000
dar conduc și un institut de cercetare științifică non-profit,
00:57
calleddenumit the RedwoodRedwood NeuroscienceNeuroştiinţe InstituteInstitutul in MenloMenlo ParkPark,
11
32000
2000
numit Institutul de Neuroștiință Redwood în Menlo Park,
00:59
and we studystudiu theoreticalteoretic neuroscienceneurostiintele,
12
34000
2000
și studiem neuroștiință teoretică,
01:01
and we studystudiu how the neocortexneocortex workslucrări.
13
36000
2000
și studiem cum lucrează neocortexul.
01:03
I'm going to talk all about that.
14
38000
2000
Voi vorbi despre asta.
01:05
I have one slidealuneca on my other life, the computercomputer life, and that's the slidealuneca here.
15
40000
3000
Am o imagine despre cealaltă viață, cea dedicată calculatoarelor, iat-o.
01:08
These are some of the productsproduse I've workeda lucrat on over the last 20 yearsani,
16
43000
3000
Acestea sunt unele din produsele la care am lucrat în ultimii 20 de ani,
01:11
startingpornire back from the very originaloriginal laptoplaptop to some of the first tabletcomprimat computerscalculatoare
17
46000
4000
pornind de la primele laptopuri până la calculatoarele tip touchscreen.
01:15
and so on, and endingfinal up mostcel mai recentlyrecent with the TreoTreo,
18
50000
2000
și așa mai departe, terminând cu cel mai recent Treo,
01:17
and we're continuingcontinuarea to do this.
19
52000
2000
și continuăm să facem asta.
01:19
And I've doneTerminat this because I really believe that mobilemobil computingtehnica de calcul
20
54000
2000
Și am făcut asta fiindcă cred într-adevăr că, calculatoarele mobile
01:21
is the futureviitor of personalpersonal computingtehnica de calcul, and I'm tryingîncercat to make the worldlume
21
56000
3000
sunt viitorul calculatoarelor personale, și încerc să fac lumea
01:24
a little bitpic better by workinglucru on these things.
22
59000
3000
un pic mai bună lucrând la aceste lucruri.
01:27
But this was, I have to admitadmite, all an accidentaccident.
23
62000
2000
Dar asta a fost - trebuie să recunosc - un accident.
01:29
I really didn't want to do any of these productsproduse
24
64000
2000
De fapt nu am vrut să fac niciunul din aceste produse
01:31
and very earlydin timp in my careerCarieră I decideda decis
25
66000
2000
și foarte devreme în cariera mea am decis
01:33
I was not going to be in the computercomputer industryindustrie.
26
68000
3000
că nu voi lucra în industria calculatoarelor.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
Și înainte să vă vorbesc despre asta, trebuie să vă spun despre
01:38
this one little pictureimagine of graffitigraffiti there I pickedales off the webweb the other day.
28
73000
2000
această mică poză luată de pe web zilele trecute.
01:40
I was looking for a pictureimagine of graffitigraffiti, little texttext inputintrare languagelimba,
29
75000
3000
Căutam o poză despre graffiti, un mic limbaj de introducere a textului,
01:43
and I foundgăsite the websitewebsite dedicateddedicat to teachersprofesori who want to make these,
30
78000
3000
și am găsit pagina web dedicată învățătorilor care vor să facă astea,
01:46
you know, the scriptscript-ul writingscris things acrosspeste the toptop of theiral lor blackboardtablă,
31
81000
3000
textul afișat în partea de sus a tablei,
01:49
and they had addedadăugat graffitigraffiti to it, and I'm sorry about that.
32
84000
3000
și i-au adăugat graffiti, și îmi pare rău pentru asta.
01:52
(LaughterRâs)
33
87000
2000
(Râsete)
01:54
So what happeneds-a întâmplat was, when I was youngtineri and got out of engineeringInginerie schoolşcoală
34
89000
5000
Ce s-a întâmplat a fost că pe când eram tânăr și terminasem școala de inginerie,
01:59
at CornellCornell in '79, I decideda decis -- I wenta mers to work for IntelIntel and
35
94000
4000
Cornell în 1979, am decis să lucrez pentru Intel.
02:03
I was in the computercomputer industryindustrie -- and threeTrei monthsluni into that,
36
98000
3000
Eram în industria computerelor și la trei luni după asta,
02:06
I fellcăzut in love with something elsealtfel, and I said, "I madefăcut the wronggresit careerCarieră choicealegere here,"
37
101000
4000
m-am îndrăgostit de altceva, și am spus " Am ales cariera greșită aici",
02:10
and I fellcăzut in love with brainscreier.
38
105000
3000
și m-am îndrăgostit de creier.
02:13
This is not a realreal braincreier. This is a pictureimagine of one, a linelinia drawingdesen.
39
108000
3000
Acesta nu este un creier real. Este poza unuia, un desen.
02:16
But I don't remembertine minte exactlyexact how it happeneds-a întâmplat,
40
111000
3000
Dar nu-mi aduc aminte cum s-a întâmplat exact,
02:19
but I have one recollectionamintire, whichcare was prettyfrumos strongputernic in my mindminte.
41
114000
3000
dar am o amintire, care este foarte vie în mintea mea.
02:22
In SeptemberSeptembrie 1979, ScientificŞtiinţifice AmericanAmerican camea venit out
42
117000
3000
În septembrie 1979 a apărut revista Scientific American
02:25
with a singlesingur topicsubiect issueproblema about the braincreier. And it was quitedestul de good.
43
120000
3000
cu un număr despre un singur subiect: creierul. Și era destul de bun.
02:28
It was one of the bestCel mai bun issuesprobleme ever. And they talkeda vorbit about the neuronneuron
44
123000
3000
A fost unul din cele mai bune numere. Și vorbeau despre neuron
02:31
and developmentdezvoltare and diseaseboală and visionviziune and all the things
45
126000
2000
și dezvoltare și boli și viziune și toate lucrurile
02:33
you mightar putea want to know about brainscreier. It was really quitedestul de impressiveimpresionant.
46
128000
3000
pe care ai vrea să le știi despre creier. A fost foarte impresionant.
02:36
And one mightar putea have the impressionimpresie that we really knewștiut a lot about brainscreier.
47
131000
3000
Și ați fi putut avea impresia că noi chiar știm multe despre creier.
02:39
But the last articlearticol in that issueproblema was writtenscris by FrancisFrancisc CrickCrick of DNAADN-UL famefaimă.
48
134000
4000
Dar ultimul articol din revistă era scris de Francis Crick, vestit pentru ADN.
02:43
TodayAstăzi is, I think, the 50thlea anniversaryaniversare of the discoverydescoperire of DNAADN-UL.
49
138000
3000
Azi este, cred, a 50-a aniversare a descoperirii [structurii] ADN-ului.
02:46
And he wrotea scris a storypoveste basicallype scurt sayingzicală,
50
141000
2000
Și el a scris un articol care spunea de fapt
02:48
well, this is all well and good, but you know what,
51
143000
3000
că este în regulă și este bine, dar știți ceva,
02:51
we don't know diddleyDiddley squatghemuit about brainscreier
52
146000
2000
noi nu știm câtuși de puțin despre creier
02:53
and no one has a cluecheie how these things work,
53
148000
2000
și nimeni n-are vagă idee despre cum funcționează,
02:55
so don't believe what anyoneoricine tellsspune you.
54
150000
2000
așa că nu credeți ce vă spune oricine.
02:57
This is a quotecitat from that articlearticol. He said, "What is conspicuouslyvizibil lackinglipsit,"
55
152000
3000
Ăsta-i un citat din acel articol. El a spus "Ceea ce lipsește în mod vădit,"
03:00
he's a very properBuna BritishBritanic gentlemandomn so, "What is conspicuouslyvizibil lackinglipsit
56
155000
4000
e un adevărat gentleman britanic, așa că "Ceea ce lipsește în mod vădit
03:04
is a broadlarg frameworkcadru of ideasidei in whichcare to interpretinterpreta these differentdiferit approachesabordari."
57
159000
3000
este un cadru larg de idei în care să interpretăm diferitele abordări."
03:07
I thought the wordcuvânt frameworkcadru was great.
58
162000
2000
Cuvântul cadru e grozav, mă gândeam.
03:09
He didn't say we didn't even have a theoryteorie. He saysspune,
59
164000
2000
El nu spunea că nici măcar nu avem o teorie. El spunea
03:11
we don't even know how to beginÎNCEPE to think about it --
60
166000
2000
că nici macar nu știm cum să începem să ne gândim la ea --
03:13
we don't even have a frameworkcadru.
61
168000
2000
că nici măcar nu avem un cadru.
03:15
We are in the pre-paradigmpre-paradigmă dayszi, if you want to use ThomasThomas KuhnKuhn.
62
170000
3000
Suntem în zilele pre-paradigmă, dacă vreți să folosiți termenul lui Thomas Kuhn.
03:18
And so I fellcăzut in love with this, and said look,
63
173000
3000
Așa că m-am îndrăgostit de asta și mi-am zis,
03:21
we have all this knowledgecunoştinţe about brainscreier. How hardgreu can it be?
64
176000
3000
avem toate aceste cunoștințe despre creier. Cât de greu poate fi?
03:24
And this is something we can work on my lifetimedurata de viață. I feltsimțit I could make a differencediferență,
65
179000
3000
Iar asta e ceva la care pot lucra toată viața. Simțeam că pot contribui,
03:27
and so I triedîncercat to get out of the computercomputer businessAfaceri, into the braincreier businessAfaceri.
66
182000
4000
și astfel am încercat să ies din afacerea calculatoarelor și să intru în afacerea creierelor
03:31
First, I wenta mers to MITMIT, the AIAI lablaborator was there,
67
186000
2000
Întâi m-am dus la institutul MIT, la laboratorul de Inteligență Artificială,
03:33
and I said, well, I want to buildconstrui intelligentinteligent machinesmaşini, too,
68
188000
2000
și le-am zis: și eu vreau să construiesc mașini inteligente,
03:35
but the way I want to do it is to studystudiu how brainscreier work first.
69
190000
3000
dar modul în care vreau s-o fac, este să studiez întâi cum lucrează creierul.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
Si ei au spus, oh, nu este nevoie să faci asta.
03:41
We're just going to programprogram computerscalculatoare; that's all we need to do.
71
196000
2000
Noi vom programa calculatoare, asta-i tot ce facem.
03:43
And I said, no, you really oughttrebui to studystudiu brainscreier. They said, oh, you know,
72
198000
3000
Iar eu am spus, nu, voi ar trebui să studiați creierul. Ei au spus, oh, știi,
03:46
you're wronggresit. And I said, no, you're wronggresit, and I didn't get in.
73
201000
2000
tu greșești. Și eu am spus, nu, voi greșiți, și nu am intrat.
03:48
(LaughterRâs)
74
203000
1000
(Râsete)
03:50
But I was a little disappointeddezamăgit -- prettyfrumos youngtineri -- but I wenta mers back again
75
205000
2000
Dar am fost un pic dezamăgit -- destul de tânăr, dar m-am întors
03:52
a fewpuțini yearsani latermai tarziu and this time was in CaliforniaCalifornia, and I wenta mers to BerkeleyBerkeley.
76
207000
3000
peste câțiva ani, de data asta în California, și m-am dus la Berkeley.
03:55
And I said, I'll go in from the biologicalbiologic sidelatură.
77
210000
4000
Și mi-am spus, voi intra prin partea biologică.
03:59
So I got in -- in the PhPH-ul.D. programprogram in biophysicsbiofizică, and I was, all right,
78
214000
3000
Așa că am intrat -- în programul de doctorat în Biofizică, și a fost bine,
04:02
I'm studyingstudiu brainscreier now, and I said, well, I want to studystudiu theoryteorie.
79
217000
3000
studiam creierul acum, și am zis, ei bine, vreau să studiez teoria.
04:05
And they said, oh no, you can't studystudiu theoryteorie about brainscreier.
80
220000
2000
Iar ei au spus, oh nu, nu poți studia teoria despre creier.
04:07
That's not something you do. You can't get fundedfinanțat for that.
81
222000
2000
Asta nu se face. Nu poți primi finanțare pentru asta.
04:09
And as a graduateabsolvent studentstudent, you can't do that. So I said, oh my goshDoamne.
82
224000
4000
Iar ca student doctorand, nu poți face asta. Așa că am zis, oh Doamne!
04:13
I was very depresseddeprimat. I said, but I can make a differencediferență in this fieldcamp.
83
228000
2000
Am fost foarte deprimat. Le-am spus: dar pot aduce o contribuție în acest domeniu.
04:15
So what I did is I wenta mers back in the computercomputer industryindustrie
84
230000
3000
Așa că ce am făcut, m-am întors în industria calculatoarelor
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
și am zis: va trebui să lucrez aici o vreme, să fac ceva.
04:20
That's when I designedproiectat all those computercomputer productsproduse.
86
235000
3000
Atunci am proiectat acele calculatoare.
04:23
(LaughterRâs)
87
238000
1000
(Râsete)
04:24
And I said, I want to do this for fourpatru yearsani, make some moneybani,
88
239000
3000
Vroiam să fac asta patru ani, să strâng niște bani,
04:27
like I was havingavând a familyfamilie, and I would maturemature a bitpic,
89
242000
4000
să am o familie, să mă maturizez un pic,
04:31
and maybe the businessAfaceri of neuroscienceneurostiintele would maturemature a bitpic.
90
246000
3000
și poate și domeniul științei creierului se va maturiza un pic.
04:34
Well, it tooka luat longermai lung than fourpatru yearsani. It's been about 16 yearsani.
91
249000
3000
Ei bine, a durat mai mult de 4 ani. Au trecut cam 16 .
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
Dar mă ocup de asta acum și vă voi vorbi de ea în continuare.
04:39
So why should we have a good braincreier theoryteorie?
93
254000
3000
Deci de ce avem nevoie de o teorie bună a creierului?
04:42
Well, there's lots of reasonsmotive people do scienceştiinţă.
94
257000
3000
Sunt multe motive pentru care oamenii se ocupă de știință.
04:45
One is -- the mostcel mai basicde bază one is -- people like to know things.
95
260000
3000
Unul -- cel mai de bază -- este că oamenilor le place să știe lucruri.
04:48
We're curiouscurios, and we just go out and get knowledgecunoştinţe, you know?
96
263000
2000
Suntem curioși, pur si simplu ieșim în lume să obținem cunoaștere.
04:50
Why do we studystudiu antsfurnici? Well, it's interestinginteresant.
97
265000
2000
De ce studiem furnicile? Păi, pentru că-i interesant.
04:52
Maybe we'llbine learnînvăța something really usefulutil about it, but it's interestinginteresant and fascinatingfascinant.
98
267000
3000
Poate vom învăța ceva util din asta, dar este interesant și fascinant.
04:55
But sometimesuneori, a scienceştiinţă has some other attributesatribute
99
270000
2000
Dar câteodată, o știință are și alte calități
04:57
whichcare makesmărci it really, really interestinginteresant.
100
272000
2000
care o fac foarte, foarte interesantă.
04:59
SometimesUneori a scienceştiinţă will tell something about ourselvesnoi insine,
101
274000
3000
Câteodată o știință va spune ceva despre noi înșine,
05:02
it'llO să tell us who we are.
102
277000
1000
ne va spune cine suntem.
05:03
RarelyRar, you know: evolutionevoluţie did this and CopernicusCopernicus did this,
103
278000
3000
Arareori, evoluția a facut asta și Copernic a făcut asta,
05:06
where we have a newnou understandingînţelegere of who we are.
104
281000
2000
dobîndim o nouă înțelegere despre cine suntem noi.
05:08
And after all, we are our brainscreier. My braincreier is talkingvorbind to your braincreier.
105
283000
4000
Și la urma urmei, noi suntem creierul nostru. Creierul meu vorbește creierului tău.
05:12
Our bodiesorganisme are hangingagăţat alongde-a lungul for the ridecălătorie, but my braincreier is talkingvorbind to your braincreier.
106
287000
3000
Corpurile noastre sunt și ele pe acolo, dar creierul meu vorbește creierului tău.
05:15
And if we want to understanda intelege who we are and how we feel and perceivepercep,
107
290000
3000
Și dacă înțelegem cine suntem și cum simțim și percepem,
05:18
we really understanda intelege what brainscreier are.
108
293000
2000
vom înțelege ce este creierul.
05:20
AnotherUn alt thing is sometimesuneori scienceştiinţă
109
295000
2000
Un alt lucru este că știința conduce
05:22
leadsOportunitati to really bigmare societalsocietale benefitsbeneficii and technologiestehnologii,
110
297000
2000
câteodată la mari beneficii sociale și tehnologice,
05:24
or businessesîntreprinderi, or whateverindiferent de, that come out of it. And this is one, too,
111
299000
2000
sau de afaceri, sau altceva, care rezultă din ea. Și asta este
05:26
because when we understanda intelege how brainscreier work, we're going to be ablecapabil
112
301000
3000
fiindcă atunci când înțelegem cum lucrează creierul, vom fi în stare
05:29
to buildconstrui intelligentinteligent machinesmaşini, and I think that's actuallyde fapt a good thing on the wholeîntreg,
113
304000
3000
să construim mașini inteligente. Iar eu cred că asta este de fapt un lucru bun
05:32
and it's going to have tremendousextraordinar benefitsbeneficii to societysocietate,
114
307000
2000
și va aduce beneficii imense societății,
05:34
just like a fundamentalfundamental technologytehnologie.
115
309000
2000
exact ca tehnologia fundamentală.
05:36
So why don't we have a good theoryteorie of brainscreier?
116
311000
2000
Deci de ce nu avem o teorie bună a creierului?
05:38
And people have been workinglucru on it for 100 yearsani.
117
313000
3000
Iar oamenii lucrează la asta de 100 de ani.
05:41
Well, let's first take a look at what normalnormal scienceştiinţă looksarată like.
118
316000
2000
Întâii să ne uităm cum funcționează știința normală.
05:43
This is normalnormal scienceştiinţă.
119
318000
2000
Asta este știința normală.
05:45
NormalNormal scienceştiinţă is a nicefrumos balanceechilibru betweenîntre theoryteorie and experimentalistsexperimentaliştii.
120
320000
4000
Știința normală este un frumos echilibru între teorie și experimentatori.
05:49
And so the theoristteoretician guys say, well, I think this is what's going on,
121
324000
2000
Teoreticianul spune, păi, eu cred că asta se întâmplă,
05:51
and the experimentalistexperimentator saysspune, no, you're wronggresit.
122
326000
2000
și experimentatorul spune, nu, greșești.
05:53
And it goesmerge back and forthmai departe, you know?
123
328000
2000
Și tot așa, înainte și înapoi, înțelegeți?
05:55
This workslucrări in physicsfizică. This workslucrări in geologyGeologie. But if this is normalnormal scienceştiinţă,
124
330000
2000
Asta funcționează în fizică și în geologie. Dar dacă asta este știința normală,
05:57
what does neuroscienceneurostiintele look like? This is what neuroscienceneurostiintele looksarată like.
125
332000
3000
cum arată știința creierului? Așa arată știința creierului.
06:00
We have this mountainMunte of datadate, whichcare is anatomyanatomie, physiologyfiziologie and behaviorcomportament.
126
335000
5000
Avem acest munte de date, care provin din anatomie, fiziologie și comportament.
06:05
You can't imagineimagina how much detaildetaliu we know about brainscreier.
127
340000
3000
Nu vă puteți închipui cât de multe detalii știm despre creier.
06:08
There were 28,000 people who wenta mers to the neuroscienceneurostiintele conferenceconferinţă this yearan,
128
343000
4000
28000 de oameni au participat la conferințe de știința creierului anul ăsta,
06:12
and everyfiecare one of them is doing researchcercetare in brainscreier.
129
347000
2000
și fiecare din ei face cercetare asupra creierului.
06:14
A lot of datadate. But there's no theoryteorie. There's a little, wimpyWimpy boxcutie on toptop there.
130
349000
4000
O mulțime de date. Dar nu există nici o teorie. E o cutie mică, anemică acolo în vârf.
06:18
And theoryteorie has not playedjucat a rolerol in any sortfel of grandmare way in the neurosciencesNeuroştiinţe.
131
353000
5000
Iar teoria nu a jucat niciun rol major în știința creierului.
06:23
And it's a realreal shamerușine. Now why has this come about?
132
358000
3000
Și asta-i într-adevăr, păcat. De ce s-a ajuns la asta?
06:26
If you askcere neuroscientistsNeurologii, why is this the statestat of affairafacere,
133
361000
2000
Dacă întrebați cercetători ai sistemului nervos, de ce este asta starea?
06:28
they'llei vor first of all admitadmite it. But if you askcere them, they'llei vor say,
134
363000
3000
Ei vor recunoaște întâii. Dar dacă îi întrebați,
06:31
well, there's variousvariat reasonsmotive we don't have a good braincreier theoryteorie.
135
366000
3000
vor spune că sunt motive diverse pentru care nu avem o teorie bună a creierului.
06:34
Some people say, well, we don't still have enoughdestul datadate,
136
369000
2000
Unii oameni spun că totuși încă nu avem destule date,
06:36
we need to get more informationinformație, there's all these things we don't know.
137
371000
3000
trebuie să obținem mai multă informație, mai sunt toate aceste lucruri pe care nu le știm.
06:39
Well, I just told you there's so much datadate comingvenire out your earsurechi.
138
374000
3000
Ei bine, tocmai v-am spus că există așa de multe date că vă ies pe urechi.
06:42
We have so much informationinformație, we don't even know how to beginÎNCEPE to organizeorganiza it.
139
377000
3000
Avem așa de multă informație; nu știm cum să începem s-o organizăm.
06:45
What good is more going to do?
140
380000
2000
La ce ar fi bună și mai multă?
06:47
Maybe we'llbine be luckynorocos and discoverdescoperi some magicmagie thing, but I don't think so.
141
382000
3000
Poate vom avea noroc să descoperim ceva magic, dar nu cred.
06:50
This is actuallyde fapt a symptomsimptom of the factfapt that we just don't have a theoryteorie.
142
385000
3000
Acesta este de fapt un simptom al faptului că încă nu avem o teorie.
06:53
We don't need more datadate -- we need a good theoryteorie about it.
143
388000
3000
Nu avem nevoie de mai multe date -- avem nevoie de o teorie bună despre creier.
06:56
AnotherUn alt one is sometimesuneori people say, well, brainscreier are so complexcomplex,
144
391000
3000
Altă dată oamenii spun, păi, creierul este așa de complex,
06:59
it'llO să take anothero alta 50 yearsani.
145
394000
2000
încât ne va lua încă 50 de ani.
07:01
I even think ChrisChris said something like this yesterdayieri.
146
396000
2000
Cred că chiar Chris a zis așa ceva ieri.
07:03
I'm not sure what you said, ChrisChris, but something like,
147
398000
2000
Nu sunt sigur ce ai spus Chris, dar era ceva similar,
07:05
well, it's one of the mostcel mai complicatedcomplicat things in the universeunivers. That's not trueAdevărat.
148
400000
3000
creierul este cel mai complicat lucru din univers. Asta nu-i adevărat.
07:08
You're more complicatedcomplicat than your braincreier. You've got a braincreier.
149
403000
2000
Tu ești mai complicat decât creierul tău. Tu ai creier.
07:10
And it's alsode asemenea, althoughcu toate ca the braincreier looksarată very complicatedcomplicat,
150
405000
2000
Și mai este că, deși creierul arată foarte complicat,
07:12
things look complicatedcomplicat untilpana cand you understanda intelege them.
151
407000
3000
lucrurile par complicate până le înțelegi.
07:15
That's always been the casecaz. And so all we can say, well,
152
410000
3000
Așa a fost întotdeauna. Deci putem zice e că neocortexul meu,
07:18
my neocortexneocortex, whichcare is the partparte of the braincreier I'm interestedinteresat in, has 30 billionmiliard cellscelulele.
153
413000
4000
care-i parte a creierului de care sunt interesat, are 30 de miliarde de celule.
07:22
But, you know what? It's very, very regularregulat.
154
417000
2000
Dar știți ceva? Este foarte, foarte regulat.
07:24
In factfapt, it looksarată like it's the samela fel thing repeatedrepetate over and over and over again.
155
419000
3000
De fapt, arată ca același lucru repetat din nou și din nou.
07:27
It's not as complexcomplex as it looksarată. That's not the issueproblema.
156
422000
3000
Nu este așa de complex cum arată. Nu asta este problema.
07:30
Some people say, brainscreier can't understanda intelege brainscreier.
157
425000
2000
Unii oameni spun, creierul nu poate înțelege creierul.
07:32
Very Zen-likeZen-ca. WhooWhoo. (LaughterRâs)
158
427000
3000
Sună a zen. Uau. Știți --
07:35
You know,
159
430000
1000
(Râsete)
07:36
it soundssunete good, but why? I mean, what's the pointpunct?
160
431000
3000
Sună bine, dar de ce? Adică care este sensul?
07:39
It's just a bunchbuchet of cellscelulele. You understanda intelege your liverficat.
161
434000
3000
Creierul este doar o grămadă de celule. Înțelegi ficatul.
07:42
It's got a lot of cellscelulele in it too, right?
162
437000
2000
Și ficatul are o grămadă de celule, corect?
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
Așa că eu nu cred că asta este adevărat.
07:46
And finallyin sfarsit, some people say, well, you know,
164
441000
2000
Și în final, unii oameni spun, știți,
07:48
I don't feel like a bunchbuchet of cellscelulele, you know. I'm consciousconştient.
165
443000
4000
eu nu mă simt ca o grămadă de celule. Eu sunt conștient.
07:52
I've got this experienceexperienţă, I'm in the worldlume, you know.
166
447000
2000
Am această experiență, sunt în lume.
07:54
I can't be just a bunchbuchet of cellscelulele. Well, you know,
167
449000
2000
Nu pot fi doar o grămadă de celule. Ei bine, știți,
07:56
people used to believe there was a life forceforta to be livingviaţă,
168
451000
3000
oamenii credeau că există o forță vitală pentru a fi viu,
07:59
and we now know that's really not trueAdevărat at all.
169
454000
2000
iar acum știm că asta nu este deloc adevărat.
08:01
And there's really no evidenceevidență that saysspune -- well, other than people
170
456000
3000
Și nu există nici o dovadă care să spună că alții decât oamenii
08:04
just have disbeliefneîncredere that cellscelulele can do what they do.
171
459000
2000
ar avea dubii că celulele pot face ceea ce vor ele.
08:06
And so, if some people have fallencăzut into the pitgroapă of metaphysicalmetafizic dualismdualismul,
172
461000
3000
Așa încât, dacă unii oameni au căzut în capcana dualismului metafizic,
08:09
some really smartinteligent people, too, but we can rejectrespinge all that.
173
464000
3000
chiar și unii oameni foarte deștepți, dar noi putem respinge toate astea.
08:12
(LaughterRâs)
174
467000
2000
(Râsete)
08:14
No, I'm going to tell you there's something elsealtfel,
175
469000
3000
Nu, vă voi spune că este altceva,
08:17
and it's really fundamentalfundamental, and this is what it is:
176
472000
2000
și este cu adevărat fundamental, și asta este:
08:19
there's anothero alta reasonmotiv why we don't have a good braincreier theoryteorie,
177
474000
2000
există alt motiv pentru care nu avem o teorie bună a creierului,
08:21
and it's because we have an intuitiveintuitiv, strongly-heldputernic a avut loc,
178
476000
3000
iar asta este fiindcă avem o supoziție intuitivă, foarte puternică,
08:24
but incorrectincorecte assumptionpresupunere that has preventedprevenite us from seeingvedere the answerRăspuns.
179
479000
5000
dar incorectă, care ne-a împiedicat să vedem răspunsul.
08:29
There's something we believe that just, it's obviousevident, but it's wronggresit.
180
484000
3000
Există o presupunere care ni se pare evidentă, dar e de fapt greșită.
08:32
Now, there's a historyistorie of this in scienceştiinţă and before I tell you what it is,
181
487000
4000
Există o istorie a acestui lucru în știință și înainte să vă spun ce este,
08:36
I'm going to tell you a bitpic about the historyistorie of it in scienceştiinţă.
182
491000
2000
vă voi spune puțin despre istoria lui în știință.
08:38
You look at some other scientificștiințific revolutionsrevoluții,
183
493000
2000
Priviți la alte revoluții științifice,
08:40
and this casecaz, I'm talkingvorbind about the solarsolar systemsistem, that's CopernicusCopernicus,
184
495000
2000
și în acest caz, vorbesc despre sistemul solar, adică Copernic,
08:42
Darwin'sLui Darwin evolutionevoluţie, and tectonictectonice platesplăci, that's WegenerGranulomatoza.
185
497000
3000
teoria evoluției al lui Darwin, și plăcile tectonice ale lui Wegener.
08:45
They all have a lot in commoncomun with braincreier scienceştiinţă.
186
500000
3000
Acestea toate au multe în comun cu știința creierului.
08:48
First of all, they had a lot of unexplainedinexplicabilă datadate. A lot of it.
187
503000
3000
La început au avut o mulțime de date neexplicate. O mulțime.
08:51
But it got more manageableuşor de gestionat onceo singura data they had a theoryteorie.
188
506000
3000
Dar au devenit mai ușor de gestionat odată ce au avut o teorie.
08:54
The bestCel mai bun mindsminți were stumpedlovit -- really, really smartinteligent people.
189
509000
3000
Cele mai bune minți erau puse în încurcătură, oameni inteligenți.
08:57
We're not smartermai inteligent now than they were then.
190
512000
2000
Nu suntem acum mai deștepți decât erau ei atunci.
08:59
It just turnstransformă out it's really hardgreu to think of things,
191
514000
2000
Se pare însă că este foarte greu să gândești la lucruri,
09:01
but onceo singura data you've thought of them, it's kinddrăguț of easyuşor to understanda intelege it.
192
516000
2000
dar odată ce te-ai gândit, este mai ușor să le înțelegi.
09:03
My daughtersfiice understoodînțeles these threeTrei theoriesteorii
193
518000
2000
Fiicele mele au înțeles aceste trei teorii
09:05
in theiral lor basicde bază frameworkcadru by the time they were in kindergartengradinita.
194
520000
3000
în forma lor de bază pe când erau în grădiniță.
09:08
And now it's not that hardgreu, you know, here'saici e the applemăr, here'saici e the orangeportocale,
195
523000
3000
Și acum nu-i așa de greu, știți, aici este mărul, aici portocala,
09:11
you know, the EarthPământ goesmerge around, that kinddrăguț of stuffchestie.
196
526000
3000
Pământul se învârtește, acest tip de lucruri.
09:14
FinallyÎn cele din urmă, anothero alta thing is the answerRăspuns was there all alongde-a lungul,
197
529000
2000
În final, un alt lucru este că răspunsul a fost acolo tot timpul,
09:16
but we kinddrăguț of ignoredignorate it because of this obviousevident thing, and that's the thing.
198
531000
3000
dar l-am ignorat din cauza acestei erori intuitive care părea evident corectă.
09:19
It was an intuitiveintuitiv, strong-heldputernică a avut loc beliefcredință that was wronggresit.
199
534000
3000
Era o convingere intuitivă, puternică care era greșită. Aici e cheia.
09:22
In the casecaz of the solarsolar systemsistem, the ideaidee that the EarthPământ is spinningfilare
200
537000
3000
În cazul sistemului solar, idea că Pământul se învârte
09:25
and the surfacesuprafaţă of the EarthPământ is going like a thousandmie milesmile an hourora,
201
540000
3000
și suprafața Pământului se mișcă cu 1.000 mile/oră,
09:28
and the EarthPământ is going throughprin the solarsolar systemsistem about a millionmilion milesmile an hourora.
202
543000
3000
și Pământul se rotește în sistemul solar cu aprox. 1.000.000 mile/oră.
09:31
This is lunacynebunie. We all know the EarthPământ isn't movingin miscare.
203
546000
2000
Asta-i nebunie. Știm cu toții că Pământul nu se mișcă.
09:33
Do you feel like you're movingin miscare a thousandmie milesmile an hourora?
204
548000
2000
Simțiți că vă deplasați cu 1.000 mile/ oră?
09:35
Of coursecurs not. You know, and someonecineva who said,
205
550000
2000
Deigur că nu. Știți, dacă cineva ar fi spus,
09:37
well, it was spinningfilare around in spacespaţiu and it's so hugeimens,
206
552000
2000
că Pământul se învârte și este așa de imens,
09:39
they would lockblocare you up, and that's what they did back then.
207
554000
2000
l-ar fi închis, și chiar asta au și făcut pe atunci.
09:41
(LaughterRâs)
208
556000
1000
(Râsete)
09:42
So it was intuitiveintuitiv and obviousevident. Now what about evolutionevoluţie?
209
557000
3000
Deci era intuitiv și evident. Acum, despre evoluție.
09:45
Evolution'sEvolutia pe the samela fel thing. We taughtînvățat our kidscopii, well, the BibleBiblia saysspune,
210
560000
3000
Povestea evoluției e la fel. I-am învățat pe copiii noștri cum zice Biblia,
09:48
you know, God createdcreată all these speciesspecie, catspisici are catspisici, dogscâini are dogscâini,
211
563000
2000
Dumnezeu a creat toate speciile, pisicile sunt pisici, câini sunt câini,
09:50
people are people, plantsplante are plantsplante, they don't changeSchimbare.
212
565000
3000
oamenii sunt oameni, plantele plante, nu se schimbă.
09:53
NoahNoe put them on the ArkArca in that orderOrdin, blahbla, blahbla, blahbla. And, you know,
213
568000
4000
Noe i-a pus în arca lui în acea ordine, bla, bla, bla.
09:57
the factfapt is, if you believe in evolutionevoluţie, we all have a commoncomun ancestorstrămoş,
214
572000
4000
Adevărul este că, dacă credeți în evoluție, noi toți avem un strămoș comun,
10:01
and we all have a commoncomun ancestrystrămoşi with the plantplantă in the lobbylobby.
215
576000
3000
și avem un stămoș comun cu planta din hol.
10:04
This is what evolutionevoluţie tellsspune us. And, it's trueAdevărat. It's kinddrăguț of unbelievablenecrezut.
216
579000
3000
Asta ne spune evoluția. Și este adevărat. Pare de necrezut.
10:07
And the samela fel thing about tectonictectonice platesplăci, you know?
217
582000
3000
Același lucru despre plăcile tectonice.
10:10
All the mountainsmunţi and the continentscontinente are kinddrăguț of floatingplutitor around
218
585000
2000
Toți munții și continentele plutesc în jur
10:12
on toptop of the EarthPământ, you know? It's like, it doesn't make any sensesens.
219
587000
4000
pe suprafața Pământului. Pare că n-are niciun sens.
10:16
So what is the intuitiveintuitiv, but incorrectincorecte assumptionpresupunere,
220
591000
4000
Deci care este presupunerea intuitivă, dar incorectă
10:20
that's keptținut us from understandingînţelegere brainscreier?
221
595000
2000
care ne-a ținut în urmă în înțelegerea creierului?
10:22
Now I'm going to tell it to you, and it's going to seempărea obviousevident that that is correctcorect,
222
597000
2000
Acum o voi spune și va fi evident că este corectă,
10:24
and that's the pointpunct, right? Then I'm going to have to make an argumentargument
223
599000
2000
și asta-i tocmai esența, corect? Apoi voi argumenta
10:26
why you're incorrectincorecte about the other assumptionpresupunere.
224
601000
2000
de ce nu aveți dreptate despre cealaltă presupunere.
10:28
The intuitiveintuitiv but obviousevident thing is that somehowoarecum intelligenceinteligență
225
603000
3000
Lucrul intuitiv dar evident este că inteligența este cumva
10:31
is defineddefinit by behaviorcomportament,
226
606000
2000
definită de comportamentul nostru.
10:33
that we are intelligentinteligent because of the way that we do things
227
608000
2000
că suntem inteligenți din cauza modului în care facem lucrurile
10:35
and the way we behavecomporta intelligentlyinteligent, and I'm going to tell you that's wronggresit.
228
610000
3000
și a modului în care ne comportăm inteligent, și vă voi spune că e greșit.
10:38
What it is is intelligenceinteligență is defineddefinit by predictionprezicere.
229
613000
2000
De fapt inteligența este definită de prezicere.
10:40
And I'm going to work you throughprin this in a fewpuțini slidesslide-uri here,
230
615000
3000
Și vă voi trece prin câteva imagini aici,
10:43
give you an exampleexemplu of what this meansmijloace. Here'sAici este a systemsistem.
231
618000
4000
vă voi da un exemplu. Iată un sistem.
10:47
EngineersIngineri like to look at systemssisteme like this. ScientistsOamenii de stiinta like to look at systemssisteme like this.
232
622000
3000
Inginerilor și oamenilor de știință le place să se uite la sisteme ca acesta.
10:50
They say, well, we have a thing in a boxcutie, and we have its inputsintrări and its outputsiesiri.
233
625000
3000
Ei spun: ei bine, avem un lucru într-o cutie și avem intrările și ieșirile.
10:53
The AIAI people said, well, the thing in the boxcutie is a programmableprogramabile computercomputer
234
628000
3000
Cei de la AI (inteligența artificială) spun că lucrul din cutie este un calculator programabil,
10:56
because that's equivalentechivalent to a braincreier, and we'llbine feeda hrani it some inputsintrări
235
631000
2000
fiindcă asta este echivalent unui creier, și vom alimenta niște intrări
10:58
and we'llbine get it to do something, have some behaviorcomportament.
236
633000
2000
și-l vom determina să facă ceva, să aibă o anumită comportare.
11:00
And AlanAlan TuringTuring defineddefinit the TuringTuring testTest, whichcare is essentiallyin esenta sayingzicală,
237
635000
3000
Iar Alan Turing a definit testul Turing, care spune în esență că
11:03
we'llbine know if something'sceva e intelligentinteligent if it behavesse comportă identicalidentic to a humanuman.
238
638000
3000
vom ști dacă ceva este inteligent, dacă se comportă identic cu un om.
11:06
A behavioralcomportamentale metricmetric of what intelligenceinteligență is,
239
641000
3000
O metrică comportamentală a inteligenței,
11:09
and this has stuckblocat in our mindsminți for a long periodperioadă of time.
240
644000
3000
și asta ne-a blocat înțelegerea pentru mult timp.
11:12
RealityRealitatea thoughdeşi, I call it realreal intelligenceinteligență.
241
647000
2000
În realitate însă eu o numesc inteligență reală.
11:14
RealReal intelligenceinteligență is builtconstruit on something elsealtfel.
242
649000
2000
Inteligența reală este construită pe altceva.
11:16
We experienceexperienţă the worldlume throughprin a sequencesecvenţă of patternsmodele, and we storemagazin them,
243
651000
4000
Cunoaștem lumea printr-o secvență de tipare, le stocăm,
11:20
and we recallrechemare them. And when we recallrechemare them, we matchMeci them up
244
655000
3000
și le readucem din memorie. Iar când le accesăm, le comparăm
11:23
againstîmpotriva realityrealitate, and we're makingluare predictionsPredictii all the time.
245
658000
4000
cu realitatea, și facem predicții tot timpul.
11:27
It's an eternalveşnică metricmetric. There's an eternalveşnică metricmetric about us sortfel of sayingzicală,
246
662000
3000
E o metrică eternă. E o metrică eternă despre noi, care parcă spune:
11:30
do we understanda intelege the worldlume? Am I makingluare predictionsPredictii? And so on.
247
665000
3000
Înțelegem lumea? Fac eu predicții? Ș.a.m.d.
11:33
You're all beingfiind intelligentinteligent right now, but you're not doing anything.
248
668000
2000
Toți sunteți inteligenți chiar acum, dar nu faceți ceva deosebit pentru asta.
11:35
Maybe you're scratchingzgarieturi yourselftu, or pickingcules your nosenas,
249
670000
2000
Poate vă scărpinați, sau vă scobiți nasul,
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
nu știu, dar nu faceți ceva deosebit chiar acum,
11:39
but you're beingfiind intelligentinteligent; you're understandingînţelegere what I'm sayingzicală.
251
674000
3000
dar fiind inteligenți, voi înțelegeți ceea ce spun.
11:42
Because you're intelligentinteligent and you speakvorbi EnglishEngleză,
252
677000
2000
Fiindcă sunteți inteligenți și vorbiți engleza,
11:44
you know what wordcuvânt is at the endSfârşit of this -- (SilenceTăcere)
253
679000
1000
voi știți ce cuvânt este la sfârșitul acestei -- (Liniște)
11:45
sentenceteză.
254
680000
2000
fraze.
11:47
The wordcuvânt camea venit into you, and you're makingluare these predictionsPredictii all the time.
255
682000
3000
Cuvântul v-a venit în minte, și faceți aceste predicții tot timpul.
11:50
And then, what I'm sayingzicală is,
256
685000
2000
Ceea ce spun este că
11:52
is that the eternalveşnică predictionprezicere is the outputproducție in the neocortexneocortex.
257
687000
2000
prezicerea eternă este concluzia neocortexului.
11:54
And that somehowoarecum, predictionprezicere leadsOportunitati to intelligentinteligent behaviorcomportament.
258
689000
3000
Și cumva această prezicere duce la comportare inteligentă.
11:57
And here'saici e how that happensse întâmplă. Let's startstart with a non-intelligentnon-inteligent braincreier.
259
692000
3000
Și iată cum se întâmplă. Să pornim cu creierele non-inteligente.
12:00
Well I'll argueargumenta a non-intelligentnon-inteligent braincreier, we got holddeține of an oldvechi braincreier,
260
695000
4000
Voi vorbi despre un creier non-inteligent, un creier vechi,
12:04
and we're going to say it's like a non-mammalnon-mamifere, like a reptilereptilă,
261
699000
3000
să zicem că este al unui non-mamifer, al unei reptile,
12:07
so I'll say, an alligatoraligator; we have an alligatoraligator.
262
702000
2000
să zicem un aligator, avem un aligator.
12:09
And the alligatoraligator has some very sophisticatedsofisticat sensessimțurile.
263
704000
3000
Iar aligatorul are niște simțuri foarte sofisticate.
12:12
It's got good eyesochi and earsurechi and touchatingere sensessimțurile and so on,
264
707000
3000
Are ochi și urechi bune și simțuri tactile și așa mai departe,
12:15
a mouthgură and a nosenas. It has very complexcomplex behaviorcomportament.
265
710000
4000
o gură și un nas. Are o comportare foarte complexă.
12:19
It can runalerga and hideascunde. It has fearstemerile and emotionsemoții. It can eatmânca you, you know.
266
714000
4000
Poate fugi și se poate ascunde. Are temeri si emoții. Vă poate mânca.
12:23
It can attackatac. It can do all kindstipuri of stuffchestie.
267
718000
4000
Poate ataca. Poate face tot felul de lucruri.
12:27
But we don't considerconsidera the alligatoraligator very intelligentinteligent, not like in a humanuman sortfel of way.
268
722000
5000
Dar nu considerăm un aligator inteligent, cel puțin nu într-un mod uman.
12:32
But it has all this complexcomplex behaviorcomportament alreadydeja.
269
727000
2000
Dar are deja această comportare complexă.
12:34
Now, in evolutionevoluţie, what happeneds-a întâmplat?
270
729000
2000
Acum, ce s-a întâmplat în evoluție?
12:36
First thing that happeneds-a întâmplat in evolutionevoluţie with mammalsmamifere,
271
731000
3000
Primul lucru care s-a întâmplat la evoluția mamiferelor
12:39
we starteda început to developdezvolta a thing calleddenumit the neocortexneocortex.
272
734000
2000
am început să dezvoltăm un lucru numit neocortex.
12:41
And I'm going to representreprezinta the neocortexneocortex here,
273
736000
2000
Și voi reprezenta neocortexul aici,
12:43
by this boxcutie that's stickinglipirea on toptop of the oldvechi braincreier.
274
738000
2000
prin această cutie lipită deasupra vechiului creier.
12:45
NeocortexNeocortex meansmijloace newnou layerstrat. It is a newnou layerstrat on toptop of your braincreier.
275
740000
3000
Neocortex însemnă = strat nou. E un strat nou peste creier.
12:48
If you don't know it, it's the wrinklywrinkly thing on the toptop of your headcap that,
276
743000
3000
Dacă nu-l știți, e partea încrețită din vârful capului,
12:51
it's got wrinklywrinkly because it got shovedîmpins in there and doesn't fitpotrivi.
277
746000
3000
care s-a încrețit fiindcă a fost înghesuită acolo și nu a încăput.
12:54
(LaughterRâs)
278
749000
1000
(Râsete)
12:55
No, really, that's what it is. It's about the sizemărimea of a tablemasa napkinservetel.
279
750000
2000
Nu, pe bune, așa este. Este cam de mărimea unui șervet de masă.
12:57
And it doesn't fitpotrivi, so it getsdevine all wrinklywrinkly. Now look at how I've drawndesenat this here.
280
752000
3000
Nu încape, așa că-i plin de cute [circumvoluțiuni], cum am desenat aici.
13:00
The oldvechi braincreier is still there. You still have that alligatoraligator braincreier.
281
755000
4000
Vechiul creier este încă acolo. Mai aveți creierul de aligator.
13:04
You do. It's your emotionalemoţional braincreier.
282
759000
2000
Îl aveți. Este creierul emoțional.
13:06
It's all those things, and all those gutintestin reactionsreacții you have.
283
761000
3000
Sunt toate acele lucruri și toate reacțiile instinctive pe care le aveți.
13:09
And on toptop of it, we have this memorymemorie systemsistem calleddenumit the neocortexneocortex.
284
764000
3000
Iar deasupra lui avem acest sistem de memorie, numit neocortex.
13:12
And the memorymemorie systemsistem is sittingședință over the sensorysenzorial partparte of the braincreier.
285
767000
4000
Și sistemul de memorie stă deasupra părții senzoriale a creierului.
13:16
And so as the sensorysenzorial inputintrare comesvine in and feedsfeed-uri from the oldvechi braincreier,
286
771000
3000
Pe măsură ce vin intrările senzoriale și semnalele din creierul vechi,
13:19
it alsode asemenea goesmerge up into the neocortexneocortex. And the neocortexneocortex is just memorizingmemorarea.
287
774000
4000
ele se duc și sus în neocortex. Iar neocortexul doar memorează.
13:23
It's sittingședință there sayingzicală, ahAh, I'm going to memorizememora all the things that are going on:
288
778000
4000
Stă acolo spunând: voi memora toate lucrurile care se întâmplă,
13:27
where I've been, people I've seenvăzut, things I've heardauzit, and so on.
289
782000
2000
unde am fost, oamenii pe care i-am văzut, lucrurile care le-am auzit, ș.a.m.d.
13:29
And in the futureviitor, when it seesvede something similarasemănător to that again,
290
784000
4000
Iar în viitor, când vede din nou ceva similar,
13:33
so in a similarasemănător environmentmediu inconjurator, or the exactcorect samela fel environmentmediu inconjurator,
291
788000
3000
deci intr-un mediu similar, sau în exact același mediu,
13:36
it'llO să playa juca it back. It'llAcesta va startstart playingjoc it back.
292
791000
2000
îl redă. Va începe să-l redea.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
Oh, am mai fost aici. Și când ați mai fost aici înainte,
13:40
this happeneds-a întâmplat nextUrmător →. It allowspermite you to predictprezice the futureviitor.
294
795000
3000
asta s-a întâmplat în continuare. Vă permite să preziceți viitorul.
13:43
It allowspermite you to, literallyliteralmente it feedsfeed-uri back the signalssemnalele into your braincreier;
295
798000
4000
În mod concret redă semnalele în creier și astfel vă permite
13:47
they'llei vor let you see what's going to happenîntâmpla nextUrmător →,
296
802000
2000
să vedeți ce se va întâmpla în continuare,
13:49
will let you hearauzi the wordcuvânt "sentenceteză" before I said it.
297
804000
3000
să auziți cuvântul "frază" înainte ca eu să-l fi spus.
13:52
And it's this feedinghrănire back into the oldvechi braincreier
298
807000
3000
Și acest feedback spre creierul vechi
13:55
that'llcare va allowpermite you to make very more intelligentinteligent decisionsdeciziile.
299
810000
3000
vă permite să luați decizii mult mai inteligente.
13:58
This is the mostcel mai importantimportant slidealuneca of my talk, so I'll dwelllocui on it a little bitpic.
300
813000
3000
Asta-i cea mai importantă imagine din dicurs, așa că o voi explica puțin.
14:01
And so, all the time you say, oh, I can predictprezice the things.
301
816000
4000
Așa că tot timpul spuneți, oh, eu pot prezice lucrurile.
14:05
And if you're a ratşobolan and you go throughprin a mazelabirint, and then you learnînvăța the mazelabirint,
302
820000
3000
Dacă sunteți un șobolan și mergeți printr-un labirint, și apoi învățați labirintul,
14:08
the nextUrmător → time you're in a mazelabirint, you have the samela fel behaviorcomportament,
303
823000
2000
data următoare când sunteți în labirint, aveți aceeași comportare,
14:10
but all of a suddenbrusc, you're smartermai inteligent
304
825000
2000
dar brusc, deodată sunteți mai deștept,
14:12
because you say, oh, I recognizerecunoaşte this mazelabirint, I know whichcare way to go,
305
827000
3000
fiindcă spuneți, oh, eu recunosc acest labirint, știu încotro să merg,
14:15
I've been here before, I can envisionimagina the futureviitor. And that's what it's doing.
306
830000
3000
am mai fost aici înainte, pot prevedea viitorul. Și asta-i ce face.
14:18
In humansoameni -- by the way, this is trueAdevărat for all mammalsmamifere;
307
833000
3000
La oameni, și apropo, e adevărat pentru toate mamiferele,
14:21
it's trueAdevărat for other mammalsmamifere -- and in humansoameni, it got a lot worsemai rau.
308
836000
2000
la oameni a devenit mult mai serios.
14:23
In humansoameni, we actuallyde fapt developeddezvoltat the frontfață partparte of the neocortexneocortex
309
838000
3000
În oameni, noi am dezvoltat partea frontală a neocortexului,
14:26
calleddenumit the anterioranterioara partparte of the neocortexneocortex. And naturenatură did a little tricktruc.
310
841000
4000
numită partea anterioară. Iar natura a făcut un mic truc.
14:30
It copiedcopiat the posteriorposterior partparte, the back partparte, whichcare is sensorysenzorial,
311
845000
2000
A copiat partea posterioară, din spate, care este senzorială,
14:32
and put it in the frontfață partparte.
312
847000
2000
și a pus-o în partea din față.
14:34
And humansoameni uniquelyunic have the samela fel mechanismmecanism on the frontfață,
313
849000
2000
Și oamenii au în mod unic același mecanism în partea frontală,
14:36
but we use it for motormotor controlControl.
314
851000
2000
dar noi îl folosim pentru controlul mișcării.
14:38
So we are now ablecapabil to make very sophisticatedsofisticat motormotor planningplanificare, things like that.
315
853000
3000
Așa că acum suntem în stare să planificăm mișcări sofisticate.
14:41
I don't have time to get into all this, but if you want to understanda intelege how a braincreier workslucrări,
316
856000
3000
N-am timp să detaliez, dar dacă vreți să înțelegeți cum funcționează creierul,
14:44
you have to understanda intelege how the first partparte of the mammalianmamifere neocortexneocortex workslucrări,
317
859000
3000
trebuie să înțelegeți cum funcționează prima parte a neocortexului mamifer,
14:47
how it is we storemagazin patternsmodele and make predictionsPredictii.
318
862000
2000
cum stocăm tiparele și cum facem predicții.
14:49
So let me give you a fewpuțini examplesexemple of predictionsPredictii.
319
864000
3000
Să vă dau câteva exemple de predicții.
14:52
I alreadydeja said the wordcuvânt "sentenceteză." In musicmuzică,
320
867000
2000
V-am spus deja cuvântul de la sfârșitul frazei. În muzică,
14:54
if you've heardauzit a songcântec before, if you heardauzit JillJill singcânta those songscântece before,
321
869000
3000
dacă ați auzit un cântec înainte, dacă ați mai auzit-o pe Jill cântând acele cântece,
14:57
when she singscântă them, the nextUrmător → noteNotă popsapare into your headcap alreadydeja --
322
872000
3000
când le cântă, următoarea notă apare în capul vostru imediat --
15:00
you anticipateanticipa it as you're going. If it was an albumalbum of musicmuzică,
323
875000
2000
anticipați cântecul pe măsură ce-l auziți. Dacă ar fi un album muzical,
15:02
the endSfârşit of one albumalbum, the nextUrmător → songcântec popsapare into your headcap.
324
877000
3000
la sfârșitul unei piese, următoarea piesă apare în capul vostru.
15:05
And these things happenîntâmpla all the time. You're makingluare these predictionsPredictii.
325
880000
2000
Și aceste lucruri se întâmplă tot timpul. Faceți aceste predicții.
15:07
I have this thing calleddenumit the alteredmodificată dooruşă thought experimentexperiment.
326
882000
3000
Am numit acest lucru experimentul ușii modificate.
15:10
And the alteredmodificată dooruşă thought experimentexperiment saysspune, you have a dooruşă at home,
327
885000
3000
Iar experimentul ușii modificate spune: aveți o ușă acasă,
15:13
and when you're here, I'm changingschimbare it, I've got a guy
328
888000
3000
și în timp ce sunteți aici, eu o modific, am un tip
15:16
back at your housecasă right now, movingin miscare the dooruşă around,
329
891000
2000
acasă la voi chiar acum, modificând ușa,
15:18
and they're going to take your doorknobdoorknob and movemișcare it over two inchesinch.
330
893000
2000
și ei vor muta clanța ușii cu vreo cinci centimetri.
15:20
And when you go home tonightastă seară, you're going to put your handmână out there,
331
895000
2000
Și când ajungeți acasă deseară, veți pune mâna acolo,
15:22
and you're going to reacha ajunge for the doorknobdoorknob and you're going to noticeînștiințare
332
897000
2000
veți întinde mâna spre clanță și veți observa
15:24
it's in the wronggresit spotloc, and you'llveți go, whoaWhoa, something happeneds-a întâmplat.
333
899000
3000
că este în alt loc, și veți înțelege că s-a întâmplat ceva.
15:27
It mayMai take a secondal doilea to figurefigura out what it was, but something happeneds-a întâmplat.
334
902000
2000
Poate lua o secundă până înțelegeți ce s-a întâmplat, dar ceva s-a întâmplat.
15:29
Now I could changeSchimbare your doorknobdoorknob in other waysmoduri.
335
904000
2000
Aș putea modifica clanța și în alte moduri.
15:31
I can make it largermai mare or smallermai mic, I can changeSchimbare its brassalamă to silverargint,
336
906000
2000
Pot s-o fac mai mare sau mai mică, pot s-o schimb din bronz în argint,
15:33
I could make it a levermaneta. I can changeSchimbare your dooruşă, put colorscolorate on;
337
908000
2000
pot s-o fac de tip mâner. Pot să vă schimb ușa, s-o colorez,
15:35
I can put windowsferestre in. I can changeSchimbare a thousandmie things about your dooruşă,
338
910000
3000
pot să-i pun fereastră. Pot schimba o mie de lucruri la ușa voastră,
15:38
and in the two secondssecunde you take to opendeschis your dooruşă,
339
913000
2000
și în cele două secunde necesare ca să deschideți ușa,
15:40
you're going to noticeînștiințare that something has changedschimbat.
340
915000
3000
veți observa că ceva s-a modificat.
15:43
Now, the engineeringInginerie approachabordare to this, the AIAI approachabordare to this,
341
918000
2000
Acum, modul ingineresc de abordare, modul AI,
15:45
is to buildconstrui a dooruşă databaseBază de date. It has all the dooruşă attributesatribute.
342
920000
3000
e să construiască o bază de date a ușii, cu toate atributele ușii.
15:48
And as you go up to the dooruşă, you know, let's checkVerifica them off one at time.
343
923000
3000
Și când mergeți la ușă, le veți verifica una câte una, pe rând.
15:51
DoorUsa, dooruşă, dooruşă, you know, colorculoare, you know what I'm sayingzicală.
344
926000
2000
Ușă, ușă, ușă, culoare, înțelegeți ce spun.
15:53
We don't do that. Your braincreier doesn't do that.
345
928000
2000
Noi nu facem așa. Creierul vostru nu face asta.
15:55
What your braincreier is doing is makingluare constantconstant predictionsPredictii all the time
346
930000
2000
Creierul vostru face predicții constante tot timpul
15:57
about what is going to happenîntâmpla in your environmentmediu inconjurator.
347
932000
2000
despre ce se va întâmpla în mediul înconjurător.
15:59
As I put my handmână on this tablemasa, I expectaştepta to feel it stop.
348
934000
3000
Când pun mâna pe această masă, mă aștept să simt că se oprește.
16:02
When I walkmers pe jos, everyfiecare stepEtapa, if I missedratat it by an eighthAl optulea of an inchinch,
349
937000
3000
Când mă plimb, la fiecare pas, dacă greșesc pasul cu trei milimetri,
16:05
I'll know something has changedschimbat.
350
940000
2000
voi ști că ceva s-a modificat.
16:07
You're constantlymereu makingluare predictionsPredictii about your environmentmediu inconjurator.
351
942000
2000
Faceți în mod constant predicții despre mediul vostru.
16:09
I'll talk about visionviziune here brieflyscurt. This is a pictureimagine of a womanfemeie.
352
944000
3000
Voi vorbi pe scurt despre vedere. Asta-i poza unei femei.
16:12
And when you look at people, your eyesochi are caughtprins
353
947000
2000
Și când vă uitați la oameni, ochii voștri se mișcă
16:14
over at two to threeTrei timesori a secondal doilea.
354
949000
1000
de 2-3 ori pe secundă.
16:15
You're not awareconștient of this, but your eyesochi are always movingin miscare.
355
950000
2000
Nu sunteți conștienți de asta, dar ochii voștri se mișcă continuu.
16:17
And so when you look at someone'se cineva facefață,
356
952000
2000
Și când vă uitați la fața cuiva,
16:19
you'dte-ai typicallytipic go from eyeochi to eyeochi to eyeochi to nosenas to mouthgură.
357
954000
2000
în mod tipic mergeți de la un ochi la altul, apoi la nas, apoi la gură.
16:21
Now, when your eyeochi movesmișcări from eyeochi to eyeochi,
358
956000
2000
Acum, când ochiul vostru se duce de la ochi la ochi,
16:23
if there was something elsealtfel there like, a nosenas,
359
958000
2000
dacă ar fi fost altceva acolo, să zicem un nas,
16:25
you'dte-ai see a nosenas where an eyeochi is supposedpresupus to be,
360
960000
2000
ați vedea un nas acolo unde ar trebui să fie un ochi,
16:27
and you'dte-ai go, oh shitrahat, you know --
361
962000
3000
și ați spune: ei drăcie, --
16:30
(LaughterRâs)
362
965000
1000
(Râsete)
16:31
There's something wronggresit about this personpersoană.
363
966000
2000
Ceva nu-i în regulă cu această persoană.
16:33
And that's because you're makingluare a predictionprezicere.
364
968000
2000
Și asta fiindcă faceți predicții.
16:35
It's not like you just look over there and say, what am I seeingvedere now?
365
970000
2000
Nu e doar ca și cum ați privi acolo și ați spune : ce văd acum?
16:37
A nosenas, that's okay. No, you have an expectationaşteptări of what you're going to see.
366
972000
3000
Un nas, e în regulă. Nu, aveți o așteptare a ceea ce veți vedea.
16:40
(LaughterRâs)
367
975000
1000
(Râsete)
16:41
EveryFiecare singlesingur momentmoment. And finallyin sfarsit, let's think about how we testTest intelligenceinteligență.
368
976000
4000
În fiecare moment. Și în final, să ne gândim cum testăm inteligența.
16:45
We testTest it by predictionprezicere. What is the nextUrmător → wordcuvânt in this, you know?
369
980000
3000
O testăm prin predicții. Care este următorul cuvânt în acest șir ?
16:48
This is to this as this is to this. What is the nextUrmător → numbernumăr in this sentenceteză?
370
983000
3000
Ce element lipsește? Care este următorul număr în această secvență?
16:51
Here'sAici este threeTrei visionsviziuni of an objectobiect.
371
986000
2000
Iată trei imagini ale unui obiect. Care-i a patra?
16:53
What's the fourthAl patrulea one? That's how we testTest it. It's all about predictionprezicere.
372
988000
4000
Așa testăm inteligența. Totul se reduce la predicții.
16:57
So what is the recipereţetă for braincreier theoryteorie?
373
992000
3000
Deci care este rețeta pentru teoria creierului?
17:00
First of all, we have to have the right frameworkcadru.
374
995000
3000
În primul rând, trebuie să avem un context potrivit.
17:03
And the frameworkcadru is a memorymemorie frameworkcadru,
375
998000
2000
Și contextul este unul de memorie,
17:05
not a computationcalcul or behaviorcomportament frameworkcadru. It's a memorymemorie frameworkcadru.
376
1000000
2000
nu de calcul sau comportare. E un context de memorie.
17:07
How do you storemagazin and recallrechemare these sequencessecvenţe or patternsmodele? It's spatio-temporalspatio-temporale patternsmodele.
377
1002000
4000
Cum stocați și accesați aceste secvențe sau modele spațio-temporale?
17:11
Then, if in that frameworkcadru, you take a bunchbuchet of theoreticiansteoreticieni.
378
1006000
3000
Atunci, dacă acela-i contextul, să consultăm o mulțime de teoreticieni.
17:14
Now biologistsbiologi generallyîn general are not good theoreticiansteoreticieni.
379
1009000
2000
Acum, biologii în general nu sunt buni teoreticieni.
17:16
It's not always trueAdevărat, but in generalgeneral, there's not a good historyistorie of theoryteorie in biologybiologie.
380
1011000
4000
Nu-i întotdeauna adevărat, dar în general, nu există o istorie bună a teoriei în biologie.
17:20
So I foundgăsite the bestCel mai bun people to work with are physicistsfizicienii,
381
1015000
3000
Așa că am concluzionat că cei mai buni oameni cu care să lucrez sunt
17:23
engineersingineri and mathematiciansmatematicieni, who tendtind to think algorithmicallyalgoritmic.
382
1018000
3000
fizicienii, inginerii și matematicienii, care tind să gândească algoritmic.
17:26
Then they have to learnînvăța the anatomyanatomie, and they'vele-au got to learnînvăța the physiologyfiziologie.
383
1021000
3000
Apoi ei trebuie să învețe anatomia și fiziologia.
17:29
You have to make these theoriesteorii very realisticrealist in anatomicalanatomic termstermeni.
384
1024000
4000
Trebuie să faci aceste teorii foarte realiste în termeni anatomici.
17:33
AnyoneOricine who getsdevine up and tellsspune you theiral lor theoryteorie about how the braincreier workslucrări
385
1028000
4000
Oricine își prezintă teoria despre funcționarea creierului
17:37
and doesn't tell you exactlyexact how it's workinglucru in the braincreier
386
1032000
2000
și nu vă spune exact cum lucrează teoria în creier
17:39
and how the wiringcabluri workslucrări in the braincreier, it is not a theoryteorie.
387
1034000
2000
și cum lucrează conexiunile din creier, nu este o teorie.
17:41
And that's what we're doing at the RedwoodRedwood NeuroscienceNeuroştiinţe InstituteInstitutul.
388
1036000
3000
Și asta facem noi la Institutul de Neuroștiință Redwood.
17:44
I would love to have more time to tell you we're makingluare fantasticfantastic progressprogres in this thing,
389
1039000
4000
Aș vrea să am mai mult timp să vă spun cât de fantastic progresăm
17:48
and I expectaştepta to be back up on this stageetapă,
390
1043000
2000
și mă aștept să revin pe această scenă,
17:50
maybe this will be some other time in the not too distantîndepărtat futureviitor and tell you about it.
391
1045000
2000
poate în viitorul nu prea îndepărtat și să vă vorbesc despre asta.
17:52
I'm really, really excitedexcitat. This is not going to take 50 yearsani at all.
392
1047000
3000
Sunt foarte, foarte entuziasmat. Asta nu va dura deloc 50 de ani.
17:55
So what will braincreier theoryteorie look like?
393
1050000
2000
Deci cum va arăta teoria creierului?
17:57
First of all, it's going to be a theoryteorie about memorymemorie.
394
1052000
2000
Întâi, va fi o teorie despre memorie.
17:59
Not like computercomputer memorymemorie. It's not at all like computercomputer memorymemorie.
395
1054000
3000
Nu ca memoria din calculatoare. Nu e deloc ca memoria calculatoarelor.
18:02
It's very, very differentdiferit. And it's a memorymemorie of these very
396
1057000
2000
E foarte diferită. Și este o memorie a acestor modele imense,
18:04
high-dimensionalhigh-dimensională patternsmodele, like the things that come from your eyesochi.
397
1059000
3000
multi-dimensionale, ca informațiile care vin de la ochii noștri.
18:07
It's alsode asemenea memorymemorie of sequencessecvenţe.
398
1062000
2000
Este deasemenea o memorie a secvențelor.
18:09
You cannotnu poti learnînvăța or recallrechemare anything outsidein afara of a sequencesecvenţă.
399
1064000
2000
Nu puteți învăța sau reaccesa ceva în afara unei secvențe.
18:11
A songcântec musttrebuie sa be heardauzit in sequencesecvenţă over time,
400
1066000
3000
Un cântec trebuie ascultat în secvență, în timp,
18:14
and you musttrebuie sa playa juca it back in sequencesecvenţă over time.
401
1069000
3000
și trebuie redat în secvență, în timp.
18:17
And these sequencessecvenţe are auto-associativelyauto-associatively recalleda reamintit, so if I see something,
402
1072000
3000
Iar aceste secvențe sunt redate auto-asociativ, așa că dacă văd ceva,
18:20
I hearauzi something, it remindsreamintește me of it, and then it playsjoacă back automaticallyautomat.
403
1075000
3000
aud ceva, îmi reamintește de el și apoi este redat în mod automat.
18:23
It's an automaticautomată playbackredare. And predictionprezicere of futureviitor inputsintrări is the desireddorit outputproducție.
404
1078000
4000
E o redare automată. Predicția unor viitoare intrări este rezultatul dorit.
18:27
And as I said, the theoryteorie musttrebuie sa be biologicallybiologic accurateprecis,
405
1082000
3000
Teoria trebuie să fie precisă din punct de vedere biologic,
18:30
it musttrebuie sa be testabletestabile, and you musttrebuie sa be ablecapabil to buildconstrui it.
406
1085000
2000
trebuie să fie testabilă și trebuie să poată fi construită.
18:32
If you don't buildconstrui it, you don't understanda intelege it. So, one more slidealuneca here.
407
1087000
4000
Dacă nu o construiești, nu o înțelegi. Deci, încă o imagine aici.
18:36
What is this going to resultrezultat in? Are we going to really buildconstrui intelligentinteligent machinesmaşini?
408
1091000
4000
Care va fi rezultatul? Chiar vom construi mașini inteligente?
18:40
AbsolutelyAbsolut. And it's going to be differentdiferit than people think.
409
1095000
4000
Absolut. Și va fi diferit de ceea ce cred oamenii.
18:44
No doubtîndoială that it's going to happenîntâmpla, in my mindminte.
410
1099000
3000
Nici o îndoială că se va întâmpla.
18:47
First of all, it's going to be builtconstruit up, we're going to buildconstrui the stuffchestie out of siliconsiliciu.
411
1102000
4000
În primul rând, va fi construit, o vom face din siliciu.
18:51
The samela fel techniquestehnici we use for buildingclădire siliconsiliciu computercomputer memoriesamintiri,
412
1106000
3000
Aceleași tehnici pentru construirea memoriilor de siliciu în calculatoare,
18:54
we can use for here.
413
1109000
1000
le putem folosi aici.
18:55
But they're very differentdiferit typestipuri of memoriesamintiri.
414
1110000
2000
Dar ele sunt tipuri de memorie foarte diferite.
18:57
And we're going to attachatașa these memoriesamintiri to sensorssenzori,
415
1112000
2000
Și vom atașa aceste memorii la senzori,
18:59
and the sensorssenzori will experienceexperienţă real-livereal-live, real-worldlumea reala datadate,
416
1114000
3000
iar senzorii vor colecta în timp real date din lumea reală,
19:02
and these things are going to learnînvăța about theiral lor environmentmediu inconjurator.
417
1117000
2000
și aceste sisteme vor învăța despre mediul înconjurător.
19:04
Now it's very unlikelyimprobabil the first things you're going to see are like robotsroboți.
418
1119000
3000
E improbabil ca primele realizări pe care le veți vedea să fie roboți.
19:07
Not that robotsroboți aren'tnu sunt usefulutil and people can buildconstrui robotsroboți.
419
1122000
3000
Nu că roboții n-ar fi utili, oamenii pot construi roboți.
19:10
But the roboticsRobotica partparte is the hardestcel mai greu partparte. That's the oldvechi braincreier. That's really hardgreu.
420
1125000
4000
Dar partea robotică e cea mai grea. Ăsta-i creierul vechi. Asta-i greu.
19:14
The newnou braincreier is actuallyde fapt kinddrăguț of easierMai uşor than the oldvechi braincreier.
421
1129000
2000
Noul creier este de fapt mai ușor decât cel vechi.
19:16
So the first thing we're going to do are the things that don't requirenecesita a lot of roboticsRobotica.
422
1131000
3000
Primele lucruri pe care le vom face vor fi cele ce nu necesită multă robotică.
19:19
So you're not going to see C-C-3POPO.
423
1134000
2000
Așa că nu-l veți vedea pe C-3PO [micul robot din Războiul Stelelor].
19:21
You're going to more see things like, you know, intelligentinteligent carsautoturisme
424
1136000
2000
Mai degrabă veți vedea lucruri ca automobile inteligente
19:23
that really understanda intelege what traffictrafic is and what drivingconducere is
425
1138000
3000
care chiar înțeleg ce este traficul și conducerea,
19:26
and have learnedînvățat that certainanumit typestipuri of carsautoturisme with the blinkersochelari de protecţie on for halfjumătate a minuteminut
426
1141000
3000
și care au învățat că anumite mașini cu semnalizatoare aprinse
19:29
probablyprobabil aren'tnu sunt going to turnviraj, things like that.
427
1144000
2000
mai mult de 1/2 minut, probabil nu vor vira totuși.
19:31
(LaughterRâs)
428
1146000
1000
(Râsete)
19:32
We can alsode asemenea do intelligentinteligent securitySecuritate systemssisteme.
429
1147000
2000
Putem face și sisteme de securitate inteligente.
19:34
AnywhereOriunde where we're basicallype scurt usingutilizând our braincreier, but not doing a lot of mechanicsmecanica.
430
1149000
4000
Oriunde ne folosim creierul, dar nu facem multă mecanică.
19:38
Those are the things that are going to happenîntâmpla first.
431
1153000
2000
Acele lucruri se vor întâmpla întâi.
19:40
But ultimatelyîn cele din urmă, the world'slume the limitlimită here.
432
1155000
2000
Dar în fond, nu avem limite aici.
19:42
I don't know how this is going to turnviraj out.
433
1157000
2000
Nu știu cum va ieși asta.
19:44
I know a lot of people who inventedinventat the microprocessormicroprocesor
434
1159000
2000
Știu multă lume care a inventat microprocesorul
19:46
and if you talk to them, they knewștiut what they were doing was really significantsemnificativ,
435
1161000
5000
ei știau că ceea ce-au făcut era cu adevărat semnificativ,
19:51
but they didn't really know what was going to happenîntâmpla.
436
1166000
3000
dar nu prea știau cu exactitate ce se va întâmpla.
19:54
They couldn'tnu a putut anticipateanticipa cellcelulă phonestelefoane and the InternetInternet and all this kinddrăguț of stuffchestie.
437
1169000
5000
Nu au putut anticipa telefoanele celulare și Internetul.
19:59
They just knewștiut like, hey, they were going to buildconstrui calculatorscalculatoare
438
1174000
2000
Ei știau doar că, hei, se vor construi calculatoare
20:01
and traffictrafic lightușoară controllersControlere. But it's going to be bigmare.
439
1176000
2000
și controloare pentru luminile de trafic. Dar va fi ceva măreț.
20:03
In the samela fel way, this is like braincreier scienceştiinţă and these memoriesamintiri
440
1178000
3000
În același mod, știința creierului și aceste memorii
20:06
are going to be a very fundamentalfundamental technologytehnologie, and it's going to leadconduce
441
1181000
3000
vor fi tehnologii absolut fundamentale și vor conduce
20:09
to very unbelievablenecrezut changesschimbări in the nextUrmător → 100 yearsani.
442
1184000
3000
la schimbări incredibile în următorii 100 de ani.
20:12
And I'm mostcel mai excitedexcitat about how we're going to use them in scienceştiinţă.
443
1187000
4000
Și sunt foarte entuziasmat pentru modul în care le vom folosi în știință.
20:16
So I think that's all my time, I'm over it, and I'm going to endSfârşit my talk
444
1191000
3000
Cred că s-a terminat timpul meu și-mi închei discursul
20:19
right there.
445
1194000
1000
chiar aici.
Translated by Laszlo Kereszturi
Reviewed by Ariana Bleau Lugo

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee