ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

Jeff Hawkins arról, hogy hogyan fogja az agytudomány megváltoztatni a számítástudományt

Filmed:
1,674,773 views

A Treo megalkotója, Jeff Hawkins arra ösztökél, hogy új szemszögből nézzünk az agyra. Ne egy gyors processzornak tekintsük, hanem egy memóriarendszernek, amely tapasztalatokat tárol és játszik vissza, hogy intelligensen megjósolhassuk, mi fog történni.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I designtervezés mobileMobil computersszámítógépek and I studytanulmány brainsagyvelő.
0
0
3000
Két dolgot csinálok. Mobil számítógépeket tervezek és az agyat tanulmányozom.
00:29
And today'sa mai talk is about brainsagyvelő and,
1
4000
2000
A mai előadás pedig az agyról szól, és ...
00:31
yayHurrá, somewherevalahol I have a brainagy fanventilátor out there.
2
6000
2000
hurrá, valahol van egy agy-rajongó.
00:33
(LaughterNevetés)
3
8000
2000
(Nevetés)
00:35
I'm going to, if I can have my first slidecsúszik up here,
4
10000
2000
Ha kérhetném az első slide-omat megjeleníteni,
00:37
and you'llazt is megtudhatod see the titlecím of my talk and my two affiliationskapcsolatok.
5
12000
4000
látható lesz az előadásom címe és a két vállalatom.
00:41
So what I'm going to talk about is why we don't have a good brainagy theoryelmélet,
6
16000
4000
Amiről tehát beszélni fogok az, hogy miért is nincs egy jó agyelméletünk,
00:45
why it is importantfontos that we should developfejleszt one and what we can do about it.
7
20000
3000
miért lenne fontos ennek a kidolgozása, és mit tudunk tenni ennek érdekében.
00:48
And I'll try to do all that in 20 minutespercek. I have two affiliationskapcsolatok.
8
23000
3000
És mindezt megpróbálom 20 perc alatt megtenni. Két vállalatom van.
00:51
MostA legtöbb of you know me from my PalmPalm and HandspringHandspring daysnapok,
9
26000
3000
A többség bizonyára a Palm és Handspring-es napjaimból ismer,
00:54
but I alsois runfuss a nonprofitnonprofit scientifictudományos researchkutatás instituteintézet
10
29000
3000
de vezetek egy nonprofit tudományos kutatóintézetet is
00:57
calledhívott the RedwoodVörösfenyő NeuroscienceIdegtudomány InstituteIntézet in MenloMenlo ParkPark,
11
32000
2000
a Menlo Parkban, Redwood Neuroscience Institute névvel,
00:59
and we studytanulmány theoreticalelméleti neuroscienceidegtudomány,
12
34000
2000
ahol elméleti idegtudománnyal foglalkozunk
01:01
and we studytanulmány how the neocortexagykéregben worksművek.
13
36000
2000
és a neokortex működését tanulmányozzuk.
01:03
I'm going to talk all about that.
14
38000
2000
És erről fogok beszélni.
01:05
I have one slidecsúszik on my other life, the computerszámítógép life, and that's the slidecsúszik here.
15
40000
3000
Van egy slide-om a másik életemről, a számítógépes életről, ez látható most.
01:08
These are some of the productsTermékek I've workeddolgozott on over the last 20 yearsévek,
16
43000
3000
Ez itt néhány termék, amelyen az utóbbi 20 évben dolgoztam,
01:11
startingkiindulási back from the very originaleredeti laptophordozható számítógép to some of the first tablettabletta computersszámítógépek
17
46000
4000
kezdve a laptoptól az első tablet pc-kig
01:15
and so on, and endingbefejező up mosta legtöbb recentlymostanában with the TreoTreo,
18
50000
2000
és így tovább, egészen a legújabb Treo-ig,
01:17
and we're continuingfolyamatos to do this.
19
52000
2000
és ezt a továbbiakban is folytatjuk.
01:19
And I've doneKész this because I really believe that mobileMobil computingszámítástechnika
20
54000
2000
Tettem ezeket azért, mert hiszem, hogy a mobil számítástechnika
01:21
is the futurejövő of personalszemélyes computingszámítástechnika, and I'm tryingmegpróbálja to make the worldvilág
21
56000
3000
a személyi számítástechnika jövője, és ezeken dolgozva
01:24
a little bitbit better by workingdolgozó on these things.
22
59000
3000
megpróbálom a világot egy kicsivel jobbá tenni.
01:27
But this was, I have to admitbeismerni, all an accidentbaleset.
23
62000
2000
De ez, be kell, hogy valljam, a véletlen műve volt.
01:29
I really didn't want to do any of these productsTermékek
24
64000
2000
Én valójában nem akartam egyik ilyen terméket sem kifejleszetni,
01:31
and very earlykorai in my careerkarrier I decidedhatározott
25
66000
2000
és már a pályafutásom kezdetén elhatároztam,
01:33
I was not going to be in the computerszámítógép industryipar.
26
68000
3000
hogy nem szállok be a számítógépiparba.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
Mielőtt ezt elmesélném, elmondom
01:38
this one little picturekép of graffitigraffiti there I pickedválogatott off the webháló the other day.
28
73000
2000
a kis Graffitis kép történetét, amit a minap szedtem le a webről.
01:40
I was looking for a picturekép of graffitigraffiti, little textszöveg inputbemenet languagenyelv,
29
75000
3000
A Graffitiről kerestem képet, a kézírásfelismerő programról,
01:43
and I foundtalál the websiteweboldal dedicateddedikált to teacherstanárok who want to make these,
30
78000
3000
és találtam egy tanároknak ajánlott weboldalt, akik ilyen
01:46
you know, the scriptscript writingírás things acrossát the topfelső of theirazok blackboardtábla,
31
81000
3000
kezírásos betűket akarnak a tábla tetejére tenni,
01:49
and they had addedhozzáadott graffitigraffiti to it, and I'm sorry about that.
32
84000
3000
és Graffitist is tettek hozzá, szóval bocsánatot kérek.
01:52
(LaughterNevetés)
33
87000
2000
(Nevetés)
01:54
So what happenedtörtént was, when I was youngfiatal and got out of engineeringmérnöki schooliskola
34
89000
5000
Tehát az történt, hogy amikor fiatal voltam és kijöttem a mérnökiről,
01:59
at CornellCornell in '79, I decidedhatározott -- I wentment to work for IntelIntel and
35
94000
4000
a Cornellről '79-ben, eldöntöttem, hogy elmegyek az Intelhez dolgozni.
02:03
I was in the computerszámítógép industryipar -- and threehárom monthshónap into that,
36
98000
3000
A számítógépiparban voltam, és három hónap alatt
02:06
I fellesett in love with something elsemás, and I said, "I madekészült the wrongrossz careerkarrier choiceválasztás here,"
37
101000
4000
beleszerettem valami másba, és azt mondtam "rossz pályát választottam",
02:10
and I fellesett in love with brainsagyvelő.
38
105000
3000
és beleszerettem az agyba.
02:13
This is not a realigazi brainagy. This is a picturekép of one, a linevonal drawingrajz.
39
108000
3000
Ez nem egy igazi agy. Csak egynek a képe, egy vonalrajz.
02:16
But I don't rememberemlékezik exactlypontosan how it happenedtörtént,
40
111000
3000
Nem emlékszem, pontosan hogy is történt,
02:19
but I have one recollectionemléke, whichmelyik was prettyszép strongerős in my mindelme.
41
114000
3000
de van egy emlékem, ami elég erősen megmaradt a fejemben.
02:22
In SeptemberSzeptember 1979, ScientificTudományos AmericanAmerikai camejött out
42
117000
3000
1979 szeptemberében a Scientific American
02:25
with a singleegyetlen topictéma issueprobléma about the brainagy. And it was quiteegészen good.
43
120000
3000
kijött egy tematikus számmal az agyról. És egész jó volt.
02:28
It was one of the bestlegjobb issueskérdések ever. And they talkedbeszélt about the neuronidegsejt
44
123000
3000
A valaha megjelent egyik legjobb szám volt. És beszéltek a neuronról,
02:31
and developmentfejlődés and diseasebetegség and visionlátomás and all the things
45
126000
2000
a fejlődésről, a betegségekről, a látásról és mindenről,
02:33
you mightesetleg want to know about brainsagyvelő. It was really quiteegészen impressivehatásos.
46
128000
3000
amit tudni szeretnénk az agyról. Teljesen lenyűgöző volt.
02:36
And one mightesetleg have the impressionbenyomás that we really knewtudta a lot about brainsagyvelő.
47
131000
3000
És azt a benyomást kelthették, hogy tényleg sokat tudunk az agyról.
02:39
But the last articlecikk in that issueprobléma was writtenírott by FrancisFrancis CrickCrick of DNADNS famehírnév.
48
134000
4000
De a szám utolsó cikkét a DNS-ről elhíresült Francis Crick írta.
02:43
TodayMa is, I think, the 50thth anniversaryévforduló of the discoveryfelfedezés of DNADNS.
49
138000
3000
Ma, azt hiszem, a DNS felfedezésének 50-edik születésnapját ünnepeljük.
02:46
And he wroteírt a storysztori basicallyalapvetően sayingmondás,
50
141000
2000
És ő írt egy történetet, amelyben alapjában véve azt mondja,
02:48
well, this is all well and good, but you know what,
51
143000
3000
hogy ez mind nagyon szép és jó, de mondok valamit,
02:51
we don't know diddleyDiddley squatzömök about brainsagyvelő
52
146000
2000
az égvilágon semmit sem tudunk az agyról
02:53
and no one has a cluenyom how these things work,
53
148000
2000
és halvány gőze sincs senkinek arról, hogyan működenek ezek a dolgok,
02:55
so don't believe what anyonebárki tellsmegmondja you.
54
150000
2000
tehát ne higgyétek el, amit mások mondanak nektek.
02:57
This is a quoteidézet from that articlecikk. He said, "What is conspicuouslyfeltűnően lackinghiányzó,"
55
152000
3000
Egy idézet a cikkből. Azt mondta "Ami szembetűnően hiányzik,"
03:00
he's a very propermegfelelő BritishBrit gentlemanúriember so, "What is conspicuouslyfeltűnően lackinghiányzó
56
155000
4000
ő egy valódi angol úriember, tehát "Ami szembetűnően hiányzik,
03:04
is a broadszéles frameworkkeretrendszer of ideasötletek in whichmelyik to interpretértelmezése these differentkülönböző approachesmegközelít."
57
159000
3000
az egy átfogó keretrendszer, amelyben értelmeznénk ezeket az eltérő megközelítéseket."
03:07
I thought the wordszó frameworkkeretrendszer was great.
58
162000
2000
Azt gondoltam, hogy a keretrendszer szó nagyszerű.
03:09
He didn't say we didn't even have a theoryelmélet. He saysmondja,
59
164000
2000
Nem mondja, hogy még csak elméletünk sincs. Azt mondja,
03:11
we don't even know how to beginkezdődik to think about it --
60
166000
2000
hogy még csak azt sem tudjuk, hogyan kezdjünk el gondolkozni róla,
03:13
we don't even have a frameworkkeretrendszer.
61
168000
2000
még csak egy keretrendszerünk sincs.
03:15
We are in the pre-paradigmelőtti paradigma daysnapok, if you want to use ThomasThomas KuhnKuhn.
62
170000
3000
Thomas Kuhn szavait használva, a pre-paradigma napjaiban élünk.
03:18
And so I fellesett in love with this, and said look,
63
173000
3000
És így beleszerettem ebbe, és azt mondtam, nézd,
03:21
we have all this knowledgetudás about brainsagyvelő. How hardkemény can it be?
64
176000
3000
ismerjük ezeket a dolgokat az agyról. Mennyire lehet ez nehéz?
03:24
And this is something we can work on my lifetimeélettartam. I feltfilc I could make a differencekülönbség,
65
179000
3000
Ezen egy életen át lehet dolgozni. Úgy éreztem, hogy itt tudnék valamit tenni,
03:27
and so I triedmegpróbálta to get out of the computerszámítógép businessüzleti, into the brainagy businessüzleti.
66
182000
4000
ezért megpróbáltam átlépni a számítógépes üzletből az agy-üzletbe.
03:31
First, I wentment to MITMIT, the AIAI lablabor was there,
67
186000
2000
Először elmentem az MIT-hoz, az MI laboratóriumba,
03:33
and I said, well, I want to buildépít intelligentintelligens machinesgépek, too,
68
188000
2000
és azt mondtam, hogy nos, én is intelligens gépeket akarok építeni,
03:35
but the way I want to do it is to studytanulmány how brainsagyvelő work first.
69
190000
3000
de oly módon, hogy először az agy működését tanulmányozom.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
És ők azt mondták, hogy ó, nincs arra szükség.
03:41
We're just going to programprogram computersszámítógépek; that's all we need to do.
71
196000
2000
Mi csak számítógépeket programozunk, ennyi nekünk elég.
03:43
And I said, no, you really oughtkellene to studytanulmány brainsagyvelő. They said, oh, you know,
72
198000
3000
Azt mondtam, tényleg tanulmányoznotok kellene az agyat. Ők azt mondták,
03:46
you're wrongrossz. And I said, no, you're wrongrossz, and I didn't get in.
73
201000
2000
tévedsz. Erre én azt mondtam, ti tévedtek, és nem kerültem be.
03:48
(LaughterNevetés)
74
203000
1000
(Nevetés)
03:50
But I was a little disappointedcsalódott -- prettyszép youngfiatal -- but I wentment back again
75
205000
2000
Egy kicsit csalódott voltam, és eléggé fiatal, de néhány évvel később
03:52
a fewkevés yearsévek latera későbbiekben and this time was in CaliforniaCalifornia, and I wentment to BerkeleyBerkeley.
76
207000
3000
visszamentem, ezúttal Kaliforniába, és elmentem a Berkeley-re.
03:55
And I said, I'll go in from the biologicalbiológiai sideoldal.
77
210000
4000
És azt gondoltam, a biológiai oldalról fogom megközelíteni.
03:59
So I got in -- in the PhPH-érték.D. programprogram in biophysicsbiofizika, and I was, all right,
78
214000
3000
Tehát bejutottam a doktorátusra biofizikából, és azt gondoltam, rendben,
04:02
I'm studyingtanul brainsagyvelő now, and I said, well, I want to studytanulmány theoryelmélet.
79
217000
3000
mostmár az agyat tanulmányozom. Az elméletet akartam tanulmányozni.
04:05
And they said, oh no, you can't studytanulmány theoryelmélet about brainsagyvelő.
80
220000
2000
Erre ők azt mondták, hogy ó, nem, nem tanulmányozhatod az agy elméletét.
04:07
That's not something you do. You can't get fundedtőkefedezeti for that.
81
222000
2000
Ezt nem fogod csinálni. Erre nem kapsz finanszírozást.
04:09
And as a graduateérettségizni studentdiák, you can't do that. So I said, oh my goshmindenit.
82
224000
4000
És végzős hallgatóként ezt nem teheted. Erre azt gondoltam, ó, istenem.
04:13
I was very depressednyomott. I said, but I can make a differencekülönbség in this fieldmező.
83
228000
2000
Nagyon szomorú lettem. Azt mondtam, én akkor is el tudok érni valamit.
04:15
So what I did is I wentment back in the computerszámítógép industryipar
84
230000
3000
Így azt tettem, hogy visszatértem a számítógépiparhoz,
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
és azt mondtam magamnak, nos, itt kell dolgozz egy ideig, csinálj valamit.
04:20
That's when I designedtervezett all those computerszámítógép productsTermékek.
86
235000
3000
Ekkor terveztem azokat a számítógépes termékeket.
04:23
(LaughterNevetés)
87
238000
1000
(Nevetés)
04:24
And I said, I want to do this for fournégy yearsévek, make some moneypénz,
88
239000
3000
És azt mondtam, hogy négy évig csinálom ezt, szerzek egy kis pénzt,
04:27
like I was havingamelynek a familycsalád, and I would matureérett a bitbit,
89
242000
4000
mivel családom is volt, és kicsit érettebbé válok,
04:31
and maybe the businessüzleti of neuroscienceidegtudomány would matureérett a bitbit.
90
246000
3000
és hátha az idegtudomány is érettebbé válik egy kicsit.
04:34
Well, it tookvett longerhosszabb than fournégy yearsévek. It's been about 16 yearsévek.
91
249000
3000
Hát, tovább tartott négy évnél. Körülbelül 16 évet.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
De most ezt csinálom, és erről fogok beszélni.
04:39
So why should we have a good brainagy theoryelmélet?
93
254000
3000
Miért lenne szükségünk egy jó agyelméletre?
04:42
Well, there's lots of reasonsokok people do sciencetudomány.
94
257000
3000
Hát, elég sok oka van annak, hogy az emberek tudománnyal foglalkoznak.
04:45
One is -- the mosta legtöbb basicalapvető one is -- people like to know things.
95
260000
3000
Az egyik, a legalapvetőbb az, hogy az emberek szeretnek megtudni dolgokat.
04:48
We're curiouskíváncsi, and we just go out and get knowledgetudás, you know?
96
263000
2000
Kíváncsiak vagyunk, elmegyünk és megszerezzük a tudást.
04:50
Why do we studytanulmány antshangyák? Well, it's interestingérdekes.
97
265000
2000
Miért tanulmányozzuk a hangyákat? Hát, mert érdekes.
04:52
Maybe we'lljól learntanul something really usefulhasznos about it, but it's interestingérdekes and fascinatingelbűvölő.
98
267000
3000
Lehet, hogy megtudunk valami ténylegesen hasznosat is, de érdekes és lenyűgöző.
04:55
But sometimesnéha, a sciencetudomány has some other attributesattribútumok
99
270000
2000
De néha más sajátosságai
04:57
whichmelyik makesgyártmányú it really, really interestingérdekes.
100
272000
2000
teszik a tudományt igazán érdekfeszítővé.
04:59
SometimesNéha a sciencetudomány will tell something about ourselvesminket,
101
274000
3000
Egy tudomány olykor saját magunkról mond el valamit,
05:02
it'llez lesz tell us who we are.
102
277000
1000
megmondja, kik vagyunk.
05:03
RarelyRitkán, you know: evolutionevolúció did this and CopernicusKopernikusz did this,
103
278000
3000
Az evolúció megmagyarázta, Kopernikusz megmagyarázta,
05:06
where we have a newúj understandingmegértés of who we are.
104
281000
2000
és egy új magyarázatot kaptunk arra, hogy kik is vagyunk.
05:08
And after all, we are our brainsagyvelő. My brainagy is talkingbeszél to your brainagy.
105
283000
4000
És elvégre mi a saját agyunk vagyunk. Az én agyam a te agyadhoz beszél.
05:12
Our bodiestestületek are hangingfüggő alongmentén for the ridelovagol, but my brainagy is talkingbeszél to your brainagy.
106
287000
3000
A testünk is ott van, de az agyam beszél a te a agyadhoz.
05:15
And if we want to understandmegért who we are and how we feel and perceiveérzékeli,
107
290000
3000
És ha meg akarjuk érteni, kik vagyunk és hogyan érzünk és érzékelünk,
05:18
we really understandmegért what brainsagyvelő are.
108
293000
2000
valójában az agyunkat akarjuk megérteni.
05:20
AnotherEgy másik thing is sometimesnéha sciencetudomány
109
295000
2000
Másrészt a tudomány néha
05:22
leadsvezet to really bignagy societaltársadalmi benefitselőnyök and technologiestechnológiák,
110
297000
2000
nagy társadalmi haszonhoz, technológiához
05:24
or businessesvállalkozások, or whatevertök mindegy, that come out of it. And this is one, too,
111
299000
2000
vagy üzletekhez vezet, vagy akármihez. És ez is az,
05:26
because when we understandmegért how brainsagyvelő work, we're going to be ableképes
112
301000
3000
mivel ha megértjük, hogyan műküdik az agy, képesek leszünk
05:29
to buildépít intelligentintelligens machinesgépek, and I think that's actuallytulajdonképpen a good thing on the wholeegész,
113
304000
3000
intelligens gépeket építeni, és úgy gondolom, hogy ez egészében véve jó dolog,
05:32
and it's going to have tremendousborzasztó benefitselőnyök to societytársadalom,
114
307000
2000
és óriási hasznára válik a társadalomnak,
05:34
just like a fundamentalalapvető technologytechnológia.
115
309000
2000
mint egy alapvető technológia.
05:36
So why don't we have a good theoryelmélet of brainsagyvelő?
116
311000
2000
Tehát miért is nincs egy jó elméletünk az agyról?
05:38
And people have been workingdolgozó on it for 100 yearsévek.
117
313000
3000
Pedig 100 éve dolgoznak rajta az emberek.
05:41
Well, let's first take a look at what normalnormál sciencetudomány looksúgy néz ki, like.
118
316000
2000
Először is nézzük meg, hogyan is néz ki egy normális tudomány.
05:43
This is normalnormál sciencetudomány.
119
318000
2000
Ez egy normális tudomány.
05:45
NormalNormál sciencetudomány is a niceszép balanceegyensúly betweenközött theoryelmélet and experimentalistskísérletezők.
120
320000
4000
Egy normális tudomány egy szép egyensúly az elmélet és a kísérlet között.
05:49
And so the theoristteoretikus guys say, well, I think this is what's going on,
121
324000
2000
Az elméleti fickók azt mondják, nos, azt hiszem ez megy végbe,
05:51
and the experimentalistkísérletező saysmondja, no, you're wrongrossz.
122
326000
2000
a kísérletezők pedig azt mondják, nem, tévedsz.
05:53
And it goesmegy back and forthtovább, you know?
123
328000
2000
És ez így megy oda-vissza.
05:55
This worksművek in physicsfizika. This worksművek in geologygeológia. But if this is normalnormál sciencetudomány,
124
330000
2000
Ez működik a fizikában. Működik a geológiában. De ha ez a normális tudomány,
05:57
what does neuroscienceidegtudomány look like? This is what neuroscienceidegtudomány looksúgy néz ki, like.
125
332000
3000
hogyan néz ki az idegtudomány? Így néz ki az idegtudomány.
06:00
We have this mountainhegy of dataadat, whichmelyik is anatomyanatómia, physiologyfiziológia and behaviorviselkedés.
126
335000
5000
Van ez a hegyoldalnyi adat, ami valójában anatómia, pszichológia és viselkedés.
06:05
You can't imagineKépzeld el how much detailRészlet we know about brainsagyvelő.
127
340000
3000
El sem tudják képzelni, mennyi részletet tudunk az agyról.
06:08
There were 28,000 people who wentment to the neuroscienceidegtudomány conferencekonferencia this yearév,
128
343000
4000
Összesen 28000 ember vett részt az idei idegtudományi konferencián,
06:12
and everyminden one of them is doing researchkutatás in brainsagyvelő.
129
347000
2000
és mindegyikük az agyat kutatja.
06:14
A lot of dataadat. But there's no theoryelmélet. There's a little, wimpymamlasz boxdoboz on topfelső there.
130
349000
4000
Rengeteg adat. De nincs elmélet. Ott van egy kicsi tehetetlen doboz az egésznek a tetején.
06:18
And theoryelmélet has not playedDátum a roleszerep in any sortfajta of grandnagy way in the neurosciencesidegtudományok.
131
353000
5000
Az elmélet soha nem kapott nagy szerepet a idegtudományban.
06:23
And it's a realigazi shameszégyen. Now why has this come about?
132
358000
3000
És ez egy igazi szégyen. Miért történt mindez?
06:26
If you askkérdez neuroscientistsidegtudósok, why is this the stateállapot of affairügy,
133
361000
2000
Ha megkérdezzük a idegtudósokat, hogy miért ez a helyzet?
06:28
they'llfognak first of all admitbeismerni it. But if you askkérdez them, they'llfognak say,
134
363000
3000
Először is bevallják, hogy így van. De ha megkérdezzük őket, azt fogják mondani,
06:31
well, there's variouskülönféle reasonsokok we don't have a good brainagy theoryelmélet.
135
366000
3000
nos, többféle oka is van annak, hogy nincs egy jó agyelméletünk.
06:34
Some people say, well, we don't still have enoughelég dataadat,
136
369000
2000
Egyesek azt mondják, hogy még mindig nincs elég adatunk,
06:36
we need to get more informationinformáció, there's all these things we don't know.
137
371000
3000
több információra van szükség, itt van ez a csomó dolog, amit nem tudunk.
06:39
Well, I just told you there's so much dataadat comingeljövetel out your earsfülek.
138
374000
3000
Nemrég mondtam, olyan sok adatunk van, hogy már a fülünkön is az folyik ki.
06:42
We have so much informationinformáció, we don't even know how to beginkezdődik to organizeszervez it.
139
377000
3000
Nagyon sok információnk van, de nem tudjuk, hogyan rendezzük azokat.
06:45
What good is more going to do?
140
380000
2000
Mire lenne jó ennél is több?
06:47
Maybe we'lljól be luckyszerencsés and discoverfelfedez some magicvarázslat thing, but I don't think so.
141
382000
3000
Talán szerencsénk lesz és felfedezünk valamilyen mágikus dolgot, ezt nem igazán hiszem.
06:50
This is actuallytulajdonképpen a symptomtünet of the facttény that we just don't have a theoryelmélet.
142
385000
3000
Ez tulajdonképpen annak a tünete, hogy nincs elméletünk.
06:53
We don't need more dataadat -- we need a good theoryelmélet about it.
143
388000
3000
Nincs szükségünk több adatra, egy jó elméletre van szükségünk azokra vonatkozóan.
06:56
AnotherEgy másik one is sometimesnéha people say, well, brainsagyvelő are so complexösszetett,
144
391000
3000
Néha az emberek azt mondják, hogy az agy annyira bonyolult,
06:59
it'llez lesz take anotheregy másik 50 yearsévek.
145
394000
2000
még 50 évbe beletelik.
07:01
I even think ChrisChris said something like this yesterdaytegnap.
146
396000
2000
Azt hiszem, éppen Chris mondott valami hasonlót tegnap.
07:03
I'm not sure what you said, ChrisChris, but something like,
147
398000
2000
Nem vagyok benne biztos, hogy mit mondtál, Chris, de valami olyasmit,
07:05
well, it's one of the mosta legtöbb complicatedbonyolult things in the universevilágegyetem. That's not trueigaz.
148
400000
3000
hogy az egyik legbonyolultabb dolog a világegyetemben. Ez nem igaz.
07:08
You're more complicatedbonyolult than your brainagy. You've got a brainagy.
149
403000
2000
Te sokkal bonyolultabb vagy az agyadnál. Neked részed az agyad.
07:10
And it's alsois, althoughhabár the brainagy looksúgy néz ki, very complicatedbonyolult,
150
405000
2000
És habár az agy nagyon bonyolultnak tűnik,
07:12
things look complicatedbonyolult untilamíg you understandmegért them.
151
407000
3000
a dolgok csak addig tűnnek bonyolultnak, amíg meg nem értjük őket.
07:15
That's always been the caseügy. And so all we can say, well,
152
410000
3000
Mindig is ez volt a helyzet. Mondhatjuk, hogy
07:18
my neocortexagykéregben, whichmelyik is the partrész of the brainagy I'm interestedérdekelt in, has 30 billionmilliárd, ezermillió cellssejteket.
153
413000
4000
a neokortexem, az agyterület, ami engem érdekel, 30 milliárd sejtet tartalmaz.
07:22
But, you know what? It's very, very regularszabályos.
154
417000
2000
De mondjak valamit? Nagyon, de nagyon szabályos.
07:24
In facttény, it looksúgy néz ki, like it's the sameazonos thing repeatedmegismételt over and over and over again.
155
419000
3000
Tulajdonképpen ugyanaz a dolog van megismételve sokszor egymás után.
07:27
It's not as complexösszetett as it looksúgy néz ki,. That's not the issueprobléma.
156
422000
3000
Nem olyan összetett, mint ahogy látszik. Nem ez a lényeg.
07:30
Some people say, brainsagyvelő can't understandmegért brainsagyvelő.
157
425000
2000
Egyesek azt mondják, az agy nem tudja megérteni az agyat.
07:32
Very Zen-likeZen-szerű. WhooHúúú. (LaughterNevetés)
158
427000
3000
Nagyon zenként hangzik. Úú. Tudják ...
07:35
You know,
159
430000
1000
(Nevetés)
07:36
it soundshangok good, but why? I mean, what's the pointpont?
160
431000
3000
Hangzani jól hangzik, de miért? Úgy értem, mi az értelme?
07:39
It's just a bunchcsokor of cellssejteket. You understandmegért your livermáj.
161
434000
3000
Csak egy halom sejt. A tündőnket értjük.
07:42
It's got a lot of cellssejteket in it too, right?
162
437000
2000
Abban is egy halom sejt van, igaz?
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
Ezért én nem hiszem, hogy ennél több lenne.
07:46
And finallyvégül, some people say, well, you know,
164
441000
2000
Erre egyes emberek azt mondják, hogy
07:48
I don't feel like a bunchcsokor of cellssejteket, you know. I'm conscioustudatos.
165
443000
4000
én nem egy kupac sejtnek érzem magam. Én tudatos vagyok.
07:52
I've got this experiencetapasztalat, I'm in the worldvilág, you know.
166
447000
2000
Tudatos vagyok, a világon vagyok.
07:54
I can't be just a bunchcsokor of cellssejteket. Well, you know,
167
449000
2000
Nem lehetek csak egy kupac sejt. Nos,
07:56
people used to believe there was a life forceerő to be livingélő,
168
451000
3000
az emberek hajlamosak azt hinni, hogy létezett egy bizonyos életerő, amely az életet létrehozta,
07:59
and we now know that's really not trueigaz at all.
169
454000
2000
de ma már tudjuk, hogy ez egyáltalán nem igaz.
08:01
And there's really no evidencebizonyíték that saysmondja -- well, other than people
170
456000
3000
És valójában nincs olyan bizonyíték, az emberek
08:04
just have disbeliefhitetlenség that cellssejteket can do what they do.
171
459000
2000
hitetlenkedésén túl, hogy a sejtek képesek minderre.
08:06
And so, if some people have fallenelesett into the pitPit of metaphysicalmetafizikai dualismdualizmus,
172
461000
3000
Még ha néhányan bele is estek a metafizikai dualizmus vermébe,
08:09
some really smartOkos people, too, but we can rejectelutasítás all that.
173
464000
3000
néhány igazán eszes ember is, elvethetjük ezt az egészet.
08:12
(LaughterNevetés)
174
467000
2000
(Nevetés)
08:14
No, I'm going to tell you there's something elsemás,
175
469000
3000
Nem, én elmondom önöknek, hogy másról van szó,
08:17
and it's really fundamentalalapvető, and this is what it is:
176
472000
2000
egy nagyon alapvető dologról, és ez a következő:
08:19
there's anotheregy másik reasonok why we don't have a good brainagy theoryelmélet,
177
474000
2000
egy másik oka annak, hogy nincs egy jó agyelméletünk az,
08:21
and it's because we have an intuitiveintuitív, strongly-helderősen tartott,
178
476000
3000
hogy egy intuitív, beidegződött
08:24
but incorrecthelytelen assumptionfeltevés that has preventedmegakadályozták us from seeinglátás the answerválasz.
179
479000
5000
de helytelen feltevésünk meggátolt minket a válasz meglátásától.
08:29
There's something we believe that just, it's obviousnyilvánvaló, but it's wrongrossz.
180
484000
3000
Van valami, amit nyilvánvalónak tartunk, de helytelenül.
08:32
Now, there's a historytörténelem of this in sciencetudomány and before I tell you what it is,
181
487000
4000
Ennek múltja van a tudományban, és mielőtt elmondanám, hogy mi is ez,
08:36
I'm going to tell you a bitbit about the historytörténelem of it in sciencetudomány.
182
491000
2000
elmondok egy keveset ennek múltjáról a tudományban.
08:38
You look at some other scientifictudományos revolutionsfordulat,
183
493000
2000
Most néhány forradalmi jelentőségű tudományos felfedezést láthatnak,
08:40
and this caseügy, I'm talkingbeszél about the solarnap- systemrendszer, that's CopernicusKopernikusz,
184
495000
2000
éspedig a naprendszert, ez Kopernikusz nevéhez fűződik,
08:42
Darwin'sDarwin evolutionevolúció, and tectonictektonikus plateslemezek, that's WegenerWegener.
185
497000
3000
Darwin evolúcióelméletét és a lemeztektonikát, ami Wegener elmélete.
08:45
They all have a lot in commonközös with brainagy sciencetudomány.
186
500000
3000
Mindegyik sok hasonlóságot mutat az agytudománnyal.
08:48
First of all, they had a lot of unexplainedmegmagyarázatlan dataadat. A lot of it.
187
503000
3000
Először is mindenhol nagyon sok tisztázatlan adat volt. Nagyon sok.
08:51
But it got more manageablekezelhető onceegyszer they had a theoryelmélet.
188
506000
3000
De egyből kezelhetőbbé vált, amint volt egy elmélet.
08:54
The bestlegjobb mindselmék were stumpedkivágott -- really, really smartOkos people.
189
509000
3000
A legnagyobb elméket, a nagyon de nagyon eszes embereket is zavarba ejtették.
08:57
We're not smarterintelligensebb now than they were then.
190
512000
2000
Mi sem vagyunk okosabbak, mint ők voltak akkor.
08:59
It just turnsmenetek out it's really hardkemény to think of things,
191
514000
2000
Rájövünk, hogy nagyon nehéz gondolkodni a dolgokról,
09:01
but onceegyszer you've thought of them, it's kindkedves of easykönnyen to understandmegért it.
192
516000
2000
de ha egyszer gondolkoztunk, elég könnyen megértjük azokat.
09:03
My daughterslányai understoodmegértett these threehárom theorieselméletek
193
518000
2000
A lányaim is megértették ezt a három elméletet
09:05
in theirazok basicalapvető frameworkkeretrendszer by the time they were in kindergartenóvoda.
194
520000
3000
még óvodás korukban.
09:08
And now it's not that hardkemény, you know, here'sitt the applealma, here'sitt the orangenarancs,
195
523000
3000
Nem olyan nehéz, tudják, itt az alma, itt a narancs,
09:11
you know, the EarthFöld goesmegy around, that kindkedves of stuffdolog.
196
526000
3000
a Föld körbemegy, valahogy így.
09:14
FinallyVégül, anotheregy másik thing is the answerválasz was there all alongmentén,
197
529000
2000
Valójában a válasz mindvégig ott volt,
09:16
but we kindkedves of ignoredfigyelmen kívül hagyja it because of this obviousnyilvánvaló thing, and that's the thing.
198
531000
3000
de valahogy figyelmen kívül hagytuk emiatt a magától értetődőség miatt, és ez az a valami.
09:19
It was an intuitiveintuitív, strong-helderős tartott beliefhit that was wrongrossz.
199
534000
3000
Egy intuitív, beidegződött meggyőződés, ami helytelen volt.
09:22
In the caseügy of the solarnap- systemrendszer, the ideaötlet that the EarthFöld is spinningfonás
200
537000
3000
A naprendszer esetében a gondolat, hogy a Föld forog,
09:25
and the surfacefelület of the EarthFöld is going like a thousandezer milesmérföld an houróra,
201
540000
3000
és a Föld felülete körülbelül ezer mérföldes sebességgel mozog,
09:28
and the EarthFöld is going throughkeresztül the solarnap- systemrendszer about a millionmillió milesmérföld an houróra.
202
543000
3000
és a Föld körülbelül egymillió mérföldes sebességgel száguld a naprendszeren keresztül.
09:31
This is lunacyelmebaj. We all know the EarthFöld isn't movingmozgó.
203
546000
2000
Ez őrültség. Mindannyian tudjuk, hogy a Föld nem mozog.
09:33
Do you feel like you're movingmozgó a thousandezer milesmérföld an houróra?
204
548000
2000
Te úgy érzed, hogy ezer mérföldes sebességgel mozogsz?
09:35
Of coursetanfolyam not. You know, and someonevalaki who said,
205
550000
2000
Persze, hogy nem. Ha valaki azt mondta volna,
09:37
well, it was spinningfonás around in spacehely and it's so hugehatalmas,
206
552000
2000
hogy körbe forog az űrben és olyan hatalmas,
09:39
they would lockzár you up, and that's what they did back then.
207
554000
2000
azt bezárták volna, és ezt meg is tették akkoriban.
09:41
(LaughterNevetés)
208
556000
1000
(Nevetés)
09:42
So it was intuitiveintuitív and obviousnyilvánvaló. Now what about evolutionevolúció?
209
557000
3000
Tehát intuitív és nyilvánvaló volt. Mi a helyzet az evolúcióval?
09:45
Evolution'sEvolution the sameazonos thing. We taughttanított our kidsgyerekek, well, the BibleBiblia saysmondja,
210
560000
3000
Az evolúció ugyanaz a mese. Azt tanítottuk a gyermekeinknek, hogy a Biblia azt mondja,
09:48
you know, God createdkészítette all these speciesfaj, catsmacskák are catsmacskák, dogskutyák are dogskutyák,
211
563000
2000
Isten teremtette az összes fajt, a macskák macskák, a kutyák kutyák,
09:50
people are people, plantsnövények are plantsnövények, they don't changeváltozás.
212
565000
3000
az emberek emberek, a növények növények, és ezek nem változnak.
09:53
NoahNoé put them on the ArkBárka in that ordersorrend, blahblabla, blahblabla, blahblabla. And, you know,
213
568000
4000
Noé ilyen sorrendben vitte fel őket a bárkájára, bla, bla, bla. A helyzet az,
09:57
the facttény is, if you believe in evolutionevolúció, we all have a commonközös ancestorőse,
214
572000
4000
hogy ha hiszünk az evolúciónak, akkor egyetlen közös őstől származunk,
10:01
and we all have a commonközös ancestryszármazás with the plantnövény in the lobbyelőcsarnok.
215
576000
3000
és nekünk valamint az előszobai növénynek közös őseink vannak.
10:04
This is what evolutionevolúció tellsmegmondja us. And, it's trueigaz. It's kindkedves of unbelievablehihetetlen.
216
579000
3000
Ezt mondja nekünk az evolúció. És ez az igazság. Mennyire hihetetlen.
10:07
And the sameazonos thing about tectonictektonikus plateslemezek, you know?
217
582000
3000
És ugyanez a helyzet a tektonikai lemezekkel is.
10:10
All the mountainshegyek and the continentskontinensek are kindkedves of floatingúszó around
218
585000
2000
Az összes hegy és kontinens valahogy
10:12
on topfelső of the EarthFöld, you know? It's like, it doesn't make any senseérzék.
219
587000
4000
a Föld tetején úszik. Ennek sincs semmi értelme.
10:16
So what is the intuitiveintuitív, but incorrecthelytelen assumptionfeltevés,
220
591000
4000
Tehát, mi az az intuitív de helytelen feltevés,
10:20
that's kepttartotta us from understandingmegértés brainsagyvelő?
221
595000
2000
ami meggátolt minket az agy megértésében?
10:22
Now I'm going to tell it to you, and it's going to seemlátszik obviousnyilvánvaló that that is correcthelyes,
222
597000
2000
Ezt fogom most most elmondani, és nyilvánvaló lesz, hogy ez helyes,
10:24
and that's the pointpont, right? Then I'm going to have to make an argumentérv
223
599000
2000
és ez a lényeg, rendben? Ezután meg kell majd indokolnom,
10:26
why you're incorrecthelytelen about the other assumptionfeltevés.
224
601000
2000
hogy miért is tévednek a másik feltevéssel kapcsolatban.
10:28
The intuitiveintuitív but obviousnyilvánvaló thing is that somehowvalahogy intelligenceintelligencia
225
603000
3000
Az intuitív, de nyilvánvaló dolog az, hogy valamilyen módon az intelligenciát
10:31
is definedmeghatározott by behaviorviselkedés,
226
606000
2000
a viselkedés határozza meg,
10:33
that we are intelligentintelligens because of the way that we do things
227
608000
2000
vagyis intelligensek vagyunk, amiatt ahogyan teszünk dolgokat
10:35
and the way we behaveviselkedik intelligentlyintelligensen, and I'm going to tell you that's wrongrossz.
228
610000
3000
és mert intelligensen viselkedünk, de elárulom, hogy ez helytelen.
10:38
What it is is intelligenceintelligencia is definedmeghatározott by predictionjóslás.
229
613000
2000
Valójában az intelligenciát a predikció határozza meg.
10:40
And I'm going to work you throughkeresztül this in a fewkevés slidesdiák here,
230
615000
3000
A következő néhány slide-on ezen fogunk végigmenni,
10:43
give you an examplepélda of what this meanseszközök. Here'sItt van a systemrendszer.
231
618000
4000
és adok egy példát arra, hogy ez mit is jelent. Ez egy rendszer.
10:47
EngineersMérnökök like to look at systemsrendszerek like this. ScientistsA tudósok like to look at systemsrendszerek like this.
232
622000
3000
A mérnökök szeretnek így tekinteni egy rendszerre. A tudósok szeretnek így tekinteni egy rendszerre.
10:50
They say, well, we have a thing in a boxdoboz, and we have its inputsbemenetek and its outputskimenetek.
233
625000
3000
Azt mondják, van valami egy dobozban, továbbá vannak bemeneteink es kimeneteink.
10:53
The AIAI people said, well, the thing in the boxdoboz is a programmableprogramozható computerszámítógép
234
628000
3000
Az MI-sek azt mondják, hogy a dolog a dobozban egy programozható számítógép,
10:56
because that's equivalentegyenértékű to a brainagy, and we'lljól feedtakarmány it some inputsbemenetek
235
631000
2000
mivel az egyenértékű egy aggyal, adunk neki valamilyen bemenetet,
10:58
and we'lljól get it to do something, have some behaviorviselkedés.
236
633000
2000
és az produkálni fog valamit, valamilyen viselkedést.
11:00
And AlanAlan TuringTuring definedmeghatározott the TuringTuring testteszt, whichmelyik is essentiallylényegében sayingmondás,
237
635000
3000
Alan Turing definiálta a Turing-tesztet, ami tulajdonképpen azt mondja,
11:03
we'lljól know if something'svalami intelligentintelligens if it behavesúgy viselkedik identicalazonos to a humanemberi.
238
638000
3000
hogy valami intelligens, ha az emberhez hasonlóan viselkedik.
11:06
A behavioralviselkedési metricmetrikus of what intelligenceintelligencia is,
239
641000
3000
Az intelligenciának egy viselkedési metrikája,
11:09
and this has stuckmegragadt in our mindselmék for a long periodidőszak of time.
240
644000
3000
amely hosszú ideig megragadt az eszünkben.
11:12
RealityValóság thoughbár, I call it realigazi intelligenceintelligencia.
241
647000
2000
A valóságot azonban én az igazi intelligenciának nevezem.
11:14
RealIgazi intelligenceintelligencia is builtépült on something elsemás.
242
649000
2000
Az igazi intelligencia valami máson alapszik.
11:16
We experiencetapasztalat the worldvilág throughkeresztül a sequencesorrend of patternsminták, and we storebolt them,
243
651000
4000
A világot minták sorozatán keresztül ismerjük meg, eltároljuk azokat,
11:20
and we recallvisszahívás them. And when we recallvisszahívás them, we matchmérkőzés them up
244
655000
3000
majd visszaemlékezünk rájuk. És amikor visszaemlékszünk, összevetjük azokat
11:23
againstellen realityvalóság, and we're makinggyártás predictionselőrejelzések all the time.
245
658000
4000
a valósággal, és minden alkalommal jóslást végzünk.
11:27
It's an eternalörök metricmetrikus. There's an eternalörök metricmetrikus about us sortfajta of sayingmondás,
246
662000
3000
Ez egy állandó metrika. Van egy állandó metrika, amely valami olyasmit mond,
11:30
do we understandmegért the worldvilág? Am I makinggyártás predictionselőrejelzések? And so on.
247
665000
3000
értjük mi a világot? Most jóslásokat végzek? És így tovább.
11:33
You're all beinglény intelligentintelligens right now, but you're not doing anything.
248
668000
2000
Mindenki önök közül intelligens, pedig nem is csinálnak semmit.
11:35
Maybe you're scratchingkarcolás yourselfsaját magad, or pickingfeltörés your noseorr,
249
670000
2000
Lehet, hogy egyesek vakaróznak, piszkálják az orrukat,
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
nem tudom, de épp most nem csinálnak semmit,
11:39
but you're beinglény intelligentintelligens; you're understandingmegértés what I'm sayingmondás.
251
674000
3000
azonban intelligensek, értik, amit mondok.
11:42
Because you're intelligentintelligens and you speakbeszél Englishangol,
252
677000
2000
Mivel mindenki intelligens és beszél angolul,
11:44
you know what wordszó is at the endvég of this -- (SilenceCsend)
253
679000
1000
ezért tudják, hogy milyen
11:45
sentencemondat.
254
680000
2000
szó lesz a végén ennek a ... mondatnak.
11:47
The wordszó camejött into you, and you're makinggyártás these predictionselőrejelzések all the time.
255
682000
3000
Megtalálták a szót, és ilyen predikciókat végeznek minden alkalommal.
11:50
And then, what I'm sayingmondás is,
256
685000
2000
Az akarom mondani,
11:52
is that the eternalörök predictionjóslás is the outputkibocsátás in the neocortexagykéregben.
257
687000
2000
hogy az állandó jóslás a neokortex kimenete.
11:54
And that somehowvalahogy, predictionjóslás leadsvezet to intelligentintelligens behaviorviselkedés.
258
689000
3000
És valahogyan a jóslás intelligens viselkedéshez vezet.
11:57
And here'sitt how that happensmegtörténik. Let's startRajt with a non-intelligentnem intelligens brainagy.
259
692000
3000
És ez a következőképpen történik. Kezdjük egy nem-intelligens aggyal.
12:00
Well I'll argueérvel a non-intelligentnem intelligens brainagy, we got holdtart of an oldrégi brainagy,
260
695000
4000
Egy nem-intelligens aggyal fogok érvelni, vegyünk egy régi agyat,
12:04
and we're going to say it's like a non-mammalnem-emlős, like a reptilehüllő,
261
699000
3000
mondjuk egy nem-emlős agyat, például hüllőt,
12:07
so I'll say, an alligatoraligátor; we have an alligatoraligátor.
262
702000
2000
például egy aligátort. Van egy aligátorunk.
12:09
And the alligatoraligátor has some very sophisticatedkifinomult sensesérzékek.
263
704000
3000
Az aligátornak nagyon kifinomult érzékei vannak.
12:12
It's got good eyesszemek and earsfülek and touchérintés sensesérzékek and so on,
264
707000
3000
Nagyon jó szeme van és hallása és tapintóérzéke és így tovább,
12:15
a mouthszáj and a noseorr. It has very complexösszetett behaviorviselkedés.
265
710000
4000
szája és orra. Nagyon bonyolult viselkedéssel rendelkezik.
12:19
It can runfuss and hideelrejt. It has fearsfélelmek and emotionsérzelmek. It can eateszik you, you know.
266
714000
4000
Tud szaladni és el tud rejtőzni. Vannak félelmei és érzelmei. Meg tudja enni önöket.
12:23
It can attacktámadás. It can do all kindsféle of stuffdolog.
267
718000
4000
Tud támadni. Mindenféle dolgot tud csinálni.
12:27
But we don't considerfontolgat the alligatoraligátor very intelligentintelligens, not like in a humanemberi sortfajta of way.
268
722000
5000
De mi nem igazán tekintjük az aligátort nagyon intelligensnek, legalábbis nem úgy mint az embereket.
12:32
But it has all this complexösszetett behaviorviselkedés alreadymár.
269
727000
2000
De akkor is rendelkezik ezzel a bonyolult viselkedéssel.
12:34
Now, in evolutionevolúció, what happenedtörtént?
270
729000
2000
Mi történt az evolúció során?
12:36
First thing that happenedtörtént in evolutionevolúció with mammalsemlősök,
271
731000
3000
Az első dolog, ami az evolúció során történt az emlősökkel az,
12:39
we startedindult to developfejleszt a thing calledhívott the neocortexagykéregben.
272
734000
2000
hogy elkezdtük kifejleszteni ezt a neokortexnek nevezett dolgot.
12:41
And I'm going to representképvisel the neocortexagykéregben here,
273
736000
2000
Itt a neokortexet ez a kis doboz
12:43
by this boxdoboz that's stickingragasztás on topfelső of the oldrégi brainagy.
274
738000
2000
fogja ábrázolni, a régi agy tetejére illesztve.
12:45
NeocortexAgykéreg meanseszközök newúj layerréteg. It is a newúj layerréteg on topfelső of your brainagy.
275
740000
3000
A neokortex egy új réteget jelent. Egy új réteget az agyunkon.
12:48
If you don't know it, it's the wrinklyráncos thing on the topfelső of your headfej that,
276
743000
3000
Ha még nem ismerik, ez az a barázdás dolog a fejünk tetején, ami
12:51
it's got wrinklyráncos because it got shovedtolta in there and doesn't fitillő.
277
746000
3000
azért lett barázdás, mert betuszkolták oda és nem fér el.
12:54
(LaughterNevetés)
278
749000
1000
(Nevetés)
12:55
No, really, that's what it is. It's about the sizeméret of a tableasztal napkinszalvéta.
279
750000
2000
Nem, tényleg, ez így van. Körülbelül egy asztalkendő méretű.
12:57
And it doesn't fitillő, so it getsjelentkeznek all wrinklyráncos. Now look at how I've drawnhúzott this here.
280
752000
3000
És nem fér el, tehát összegyűrődik. Most figyeljék meg, hogyan rajzoltam itt le.
13:00
The oldrégi brainagy is still there. You still have that alligatoraligátor brainagy.
281
755000
4000
A régi agy még mindig itt van. Mindenkinek aligátoragya van.
13:04
You do. It's your emotionalérzelmi brainagy.
282
759000
2000
Mindenkinek. Ez az érzelmi agyunk.
13:06
It's all those things, and all those gutbelek reactionsreakciók you have.
283
761000
3000
Mindezek a dolgok és az ösztönös reakcióink.
13:09
And on topfelső of it, we have this memorymemória systemrendszer calledhívott the neocortexagykéregben.
284
764000
3000
És mindennek a tetején ott van ez a memóriarendszer, amit neokortexnek nevezünk.
13:12
And the memorymemória systemrendszer is sittingülés over the sensoryszenzoros partrész of the brainagy.
285
767000
4000
És a memóriarendszer az agy érzékelési részén ül.
13:16
And so as the sensoryszenzoros inputbemenet comesjön in and feedshírcsatornák from the oldrégi brainagy,
286
771000
3000
És így, amint az érzékelt dolog bejön majd továbbmegy a régi agyból,
13:19
it alsois goesmegy up into the neocortexagykéregben. And the neocortexagykéregben is just memorizingmemorizálás.
287
774000
4000
felmegy a neokortexbe is. És a neokortex csak tárol.
13:23
It's sittingülés there sayingmondás, ahah, I'm going to memorizememorizál all the things that are going on:
288
778000
4000
Ott ül és azt mondja, eltárolok minden dolgot amit történik,
13:27
where I've been, people I've seenlátott, things I've heardhallott, and so on.
289
782000
2000
ahol voltam, az embereket, akiket láttam, a dolgokat, amit hallottam, és így tovább.
13:29
And in the futurejövő, when it seeslát something similarhasonló to that again,
290
784000
4000
És a jövőben, ha valami ezekhez hasonlót lát,
13:33
so in a similarhasonló environmentkörnyezet, or the exactpontos sameazonos environmentkörnyezet,
291
788000
3000
tehát egy hasonló környezetben vagy ugyanabban a környezetben,
13:36
it'llez lesz playjáték it back. It'llEz lesz startRajt playingjátszik it back.
292
791000
2000
akkor visszajátssza. Elkezdi visszajátszani.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
Ó, jártam én már itt. És amikor ezelőtt itt voltunk,
13:40
this happenedtörtént nextkövetkező. It allowslehetővé tesz you to predictmegjósolni the futurejövő.
294
795000
3000
ez történt ezután. Lehetővé teszi, hogy megjósoljuk a jövőt.
13:43
It allowslehetővé tesz you to, literallyszó szerint it feedshírcsatornák back the signalsjelek into your brainagy;
295
798000
4000
Szó szerint visszacsatolja a jeleket az agyunkba,
13:47
they'llfognak let you see what's going to happentörténik nextkövetkező,
296
802000
2000
megmutatja mi fog történni a következő pillanatban,
13:49
will let you hearhall the wordszó "sentencemondat" before I said it.
297
804000
3000
megmondja a "mondat" szót, mielőtt én kimondanám.
13:52
And it's this feedingetetés back into the oldrégi brainagy
298
807000
3000
És ez a régi agyba való visszacsatolás az,
13:55
that'llhogy majd allowlehetővé teszi you to make very more intelligentintelligens decisionsdöntések.
299
810000
3000
ami alapján sokkal intelligensebb döntésekre vagyunk képesek.
13:58
This is the mosta legtöbb importantfontos slidecsúszik of my talk, so I'll dwelllakni on it a little bitbit.
300
813000
3000
Ez az előadásom legfontosabb slide-ja, ezért el fogok időzni kicsit ennél.
14:01
And so, all the time you say, oh, I can predictmegjósolni the things.
301
816000
4000
Tehát egyfolytában azt mondjuk, ó, meg tudom jósolni a dolgokat.
14:05
And if you're a ratpatkány and you go throughkeresztül a mazelabirintus, and then you learntanul the mazelabirintus,
302
820000
3000
És ha egy patkány vagyok és keresztülmegyek egy labirintuson, és megtanulom a labirintust,
14:08
the nextkövetkező time you're in a mazelabirintus, you have the sameazonos behaviorviselkedés,
303
823000
2000
a következő alkalommal, amikor egy labirintusban leszek, ugyanúgy fogok viselkedni,
14:10
but all of a suddenhirtelen, you're smarterintelligensebb
304
825000
2000
de hirtelen sokkal okosabb leszek,
14:12
because you say, oh, I recognizeelismerik this mazelabirintus, I know whichmelyik way to go,
305
827000
3000
mert felismerem a labirintust, tudom, merre kell mennem,
14:15
I've been here before, I can envisionelképzelni the futurejövő. And that's what it's doing.
306
830000
3000
már jártam itt, előre tudom vetíteni a jövőt. És ez az mit csinál.
14:18
In humansemberek -- by the way, this is trueigaz for all mammalsemlősök;
307
833000
3000
Az emberek esetében, egyébként ez igaz minden emlősre,
14:21
it's trueigaz for other mammalsemlősök -- and in humansemberek, it got a lot worserosszabb.
308
836000
2000
igaz más emlősökre, de az emberek esetén ez sokkal rosszabb lett.
14:23
In humansemberek, we actuallytulajdonképpen developedfejlett the frontelülső partrész of the neocortexagykéregben
309
838000
3000
Mi, az emberek, kifejlesztettük a neokortex egy új részét,
14:26
calledhívott the anteriorelülső partrész of the neocortexagykéregben. And naturetermészet did a little tricktrükk.
310
841000
4000
amit a neokortex elülső részének hívunk. És a természet elkövetett egy csínyt.
14:30
It copiedfénymásoló the posteriorhátsó partrész, the back partrész, whichmelyik is sensoryszenzoros,
311
845000
2000
Lemásolta a hátsó, vagyis az érzékelő részt,
14:32
and put it in the frontelülső partrész.
312
847000
2000
és betette az elülső részbe.
14:34
And humansemberek uniquelyegyedileg have the sameazonos mechanismmechanizmus on the frontelülső,
313
849000
2000
És az emberekben egyedülálló módon ugyanaz a mechanizmus a frontális részben,
14:36
but we use it for motormotor controlellenőrzés.
314
851000
2000
de ezt a motoros funckiókra használjuk.
14:38
So we are now ableképes to make very sophisticatedkifinomult motormotor planningtervezés, things like that.
315
853000
3000
Így mostmár nagyon kifinomult mozgásterveket tudunk készíteni.
14:41
I don't have time to get into all this, but if you want to understandmegért how a brainagy worksművek,
316
856000
3000
Nincs rá idő, hogy igazán belemenjek ezekbe, de ha meg akarjuk érteni, hogyan működik az agy,
14:44
you have to understandmegért how the first partrész of the mammalianemlős neocortexagykéregben worksművek,
317
859000
3000
meg kell értenünk, hogyan működik az emlősök neokortexének első része,
14:47
how it is we storebolt patternsminták and make predictionselőrejelzések.
318
862000
2000
hogyan tároljuk a mintákat és hogyan jósolunk.
14:49
So let me give you a fewkevés examplespéldák of predictionselőrejelzések.
319
864000
3000
Hadd mutassak be néhány jóslási példát.
14:52
I alreadymár said the wordszó "sentencemondat." In musiczene,
320
867000
2000
Már elmondtam a mondatos dolgot. A zenében,
14:54
if you've heardhallott a songdal before, if you heardhallott JillJill singénekel those songsdalok before,
321
869000
3000
ha hallottunk egy dalt valamikor, ha már hallottuk Jillt énekelni azokat a dalokat,
14:57
when she singsénekel them, the nextkövetkező notejegyzet popsPOP-ok into your headfej alreadymár --
322
872000
3000
amikor énekel, a rákövetkező hang egyből beugrik a fejünkbe,
15:00
you anticipateszámít it as you're going. If it was an albumalbum of musiczene,
323
875000
2000
előre halljuk menet közben. Ha egy zenealbumról van szó,
15:02
the endvég of one albumalbum, the nextkövetkező songdal popsPOP-ok into your headfej.
324
877000
3000
a szám végén beugrik a következő dal.
15:05
And these things happentörténik all the time. You're makinggyártás these predictionselőrejelzések.
325
880000
2000
És ezek a dolgok egyfolytában megtörténnek. Ilyen jóslásokat végzünk.
15:07
I have this thing calledhívott the alteredmegváltozott doorajtó thought experimentkísérlet.
326
882000
3000
Van ez a dolog, amit a megváltozott ajtó kísérletének hívunk.
15:10
And the alteredmegváltozott doorajtó thought experimentkísérlet saysmondja, you have a doorajtó at home,
327
885000
3000
A megváltozott ajtó kísérlete úgy szól, hogy van egy ajtód otthon,
15:13
and when you're here, I'm changingváltozó it, I've got a guy
328
888000
3000
és amíg te itt vagy, én megváltoztatom. Most épp ott van
15:16
back at your houseház right now, movingmozgó the doorajtó around,
329
891000
2000
egy fickó a házadnál, épp az ajtót piszkálgatja,
15:18
and they're going to take your doorknobkilincs and movemozog it over two incheshüvelyk.
330
893000
2000
majd le fogja venni a kilincsgombot és két hüvelykkel feljebb teszi.
15:20
And when you go home tonightma este, you're going to put your handkéz out there,
331
895000
2000
És amikor ma este hazamész, kinyújtod a kezed,
15:22
and you're going to reachelér for the doorknobkilincs and you're going to noticeértesítés
332
897000
2000
el akarod majd érni a kilincsgombot, és észreveszed,
15:24
it's in the wrongrossz spotfolt, and you'llazt is megtudhatod go, whoahóha, something happenedtörtént.
333
899000
3000
hogy rossz helyen van, és azt mondod, várjunk csak, valami történt.
15:27
It maylehet take a secondmásodik to figureábra out what it was, but something happenedtörtént.
334
902000
2000
Beletelhet egy másodpercbe, hogy rágyere mi is az, de valami történt.
15:29
Now I could changeváltozás your doorknobkilincs in other waysmódokon.
335
904000
2000
Sokféleképpen meg lehetne még változtatni a kilincsgombot.
15:31
I can make it largernagyobb or smallerkisebb, I can changeváltozás its brasssárgaréz to silverezüst,
336
906000
2000
Lehetne nagyobb vagy kisebb, rézből ezüst,
15:33
I could make it a leverkar. I can changeváltozás your doorajtó, put colorsszínek on;
337
908000
2000
kicserélhetem fogantyúsra. Vagy magát az ajtót befesthetném,
15:35
I can put windowsablakok in. I can changeváltozás a thousandezer things about your doorajtó,
338
910000
3000
tehetnék rá ablakokat. Ezer dolgot megváltoztathatnék az ajtódon,
15:38
and in the two secondsmásodperc you take to opennyisd ki your doorajtó,
339
913000
2000
de a két másodperc alatt, amíg kinyitnád az ajtót
15:40
you're going to noticeértesítés that something has changedmegváltozott.
340
915000
3000
észrevennéd, hogy valami megváltozott.
15:43
Now, the engineeringmérnöki approachmegközelítés to this, the AIAI approachmegközelítés to this,
341
918000
2000
A mérnöki megközelítése ennek, az MI megközelítés az
15:45
is to buildépít a doorajtó databaseadatbázis. It has all the doorajtó attributesattribútumok.
342
920000
3000
hogy készítünk egy ajtóadatbázist. Ez minden ajtóattribútumot tartalmaz.
15:48
And as you go up to the doorajtó, you know, let's checkjelölje be them off one at time.
343
923000
3000
És ahogy az ajtó felé mész, megvizsgáljuk azokat, egyszerre csak egyet.
15:51
DoorAjtó, doorajtó, doorajtó, you know, colorszín, you know what I'm sayingmondás.
344
926000
2000
Ajtó, ajtó, ajtó, szín, értik, amit mondok.
15:53
We don't do that. Your brainagy doesn't do that.
345
928000
2000
Ilyet nem csinálunk. Az agyunk nem csinál ilyet.
15:55
What your brainagy is doing is makinggyártás constantállandó predictionselőrejelzések all the time
346
930000
2000
Amit az agyunk tesz az az állandó jóslás egész idő alatt
15:57
about what is going to happentörténik in your environmentkörnyezet.
347
932000
2000
arról, hogy mi fog történni a környezetünkben.
15:59
As I put my handkéz on this tableasztal, I expectelvár to feel it stop.
348
934000
3000
Ahogy ráteszem a kezem erre az asztalra, azt várom, hogy érezzem, az megállítja.
16:02
When I walkséta, everyminden steplépés, if I missednem fogadott it by an eighthnyolcadik of an inchhüvelyk,
349
937000
3000
Amikor megyek, minden egynyolcad hüvelykkel elvétett lépésnél
16:05
I'll know something has changedmegváltozott.
350
940000
2000
tudom, hogy valami megváltozott.
16:07
You're constantlyállandóan makinggyártás predictionselőrejelzések about your environmentkörnyezet.
351
942000
2000
Állandóan jóslásokat végzünk a környezetünkről.
16:09
I'll talk about visionlátomás here brieflytömören. This is a picturekép of a woman.
352
944000
3000
Beszélek röviden a látásról is. Ez a kép egy hölgyet ábrázol.
16:12
And when you look at people, your eyesszemek are caughtelkapott
353
947000
2000
Amikor egy emberre nézünk, a szemünket másodpercenként
16:14
over at two to threehárom timesalkalommal a secondmásodik.
354
949000
1000
kétszer vagy háromszor elkapjuk.
16:15
You're not awaretudatában van of this, but your eyesszemek are always movingmozgó.
355
950000
2000
Nem vagyunk tudatában ennek, de a szemünk egyfolytában mozog.
16:17
And so when you look at someone'svalaki facearc,
356
952000
2000
Ha valakinek az arcát nézzük,
16:19
you'djobb lenne, ha typicallyjellemzően go from eyeszem to eyeszem to eyeszem to noseorr to mouthszáj.
357
954000
2000
akkor az egyik szeméről a másikra, vissza, az orrára, a szájára nézünk.
16:21
Now, when your eyeszem movesmozog from eyeszem to eyeszem,
358
956000
2000
Amikor a szemünk az egyik szemről a másikra megy,
16:23
if there was something elsemás there like, a noseorr,
359
958000
2000
ha ott valami mást talál, mondjuk egy orrot,
16:25
you'djobb lenne, ha see a noseorr where an eyeszem is supposedfeltételezett to be,
360
960000
2000
ha egy orrot látunk ott ahol egy szemnek kellene lennie,
16:27
and you'djobb lenne, ha go, oh shitszar, you know --
361
962000
3000
akkor azt mondjuk, basszus ...
16:30
(LaughterNevetés)
362
965000
1000
(Nevetés)
16:31
There's something wrongrossz about this personszemély.
363
966000
2000
Valami baj van ezzel az alakkal.
16:33
And that's because you're makinggyártás a predictionjóslás.
364
968000
2000
És ez azért van, mert jóslást végzünk.
16:35
It's not like you just look over there and say, what am I seeinglátás now?
365
970000
2000
Nem úgy, hogy csak végigpillantunk és azt mondjuk, mit is látok én most?
16:37
A noseorr, that's okay. No, you have an expectationelvárás of what you're going to see.
366
972000
3000
Egy orrot, az rendben van. Nem, van egy elvárásunk, hogy mit kellene látnunk.
16:40
(LaughterNevetés)
367
975000
1000
(Nevetés)
16:41
EveryMinden singleegyetlen momentpillanat. And finallyvégül, let's think about how we testteszt intelligenceintelligencia.
368
976000
4000
Minden egyes pillanatban. Végül gondoljuk meg, hogyan vizsgáljuk az intelligenciát.
16:45
We testteszt it by predictionjóslás. What is the nextkövetkező wordszó in this, you know?
369
980000
3000
Jóslással vizsgáljuk. Mi a következő szó ebben a, ismerik?
16:48
This is to this as this is to this. What is the nextkövetkező numberszám in this sentencemondat?
370
983000
3000
Ez ehhez, ahogy amaz ahhoz. Mi lesz a következő szám ebben a mondatban?
16:51
Here'sItt van threehárom visionslátomások of an objecttárgy.
371
986000
2000
Itt van három tárgy képe.
16:53
What's the fourthnegyedik one? That's how we testteszt it. It's all about predictionjóslás.
372
988000
4000
Mi a negyedik? Így történik a vizsgálat. Minden a jóslásról szól.
16:57
So what is the reciperecept for brainagy theoryelmélet?
373
992000
3000
Szóval mi lenne a recept az agyelméletre?
17:00
First of all, we have to have the right frameworkkeretrendszer.
374
995000
3000
Először is rendelkeznünk kell a megfelelő keretrendszerrel.
17:03
And the frameworkkeretrendszer is a memorymemória frameworkkeretrendszer,
375
998000
2000
És a keretrendszer egy memória-keretrendszer,
17:05
not a computationszámítás or behaviorviselkedés frameworkkeretrendszer. It's a memorymemória frameworkkeretrendszer.
376
1000000
2000
nem egy számítási vagy viselkedési keretrendszer. Egy memória-keretrendszer.
17:07
How do you storebolt and recallvisszahívás these sequencessorozatok or patternsminták? It's spatio-temporaltartalomban nem-időbeli patternsminták.
377
1002000
4000
Hogyan tároljuk és hívjuk vissza ezeket a mintaszekvenciákat? A tér- és időbeli mintákat.
17:11
Then, if in that frameworkkeretrendszer, you take a bunchcsokor of theoreticiansteoretikus.
378
1006000
3000
Ha megvan a keretrendszer, akkor veszünk egy halom teoretikust.
17:14
Now biologistsbiológusok generallyáltalában are not good theoreticiansteoretikus.
379
1009000
2000
A biológusok általában nem jó teoretikusok.
17:16
It's not always trueigaz, but in generalTábornok, there's not a good historytörténelem of theoryelmélet in biologybiológia.
380
1011000
4000
Ez nem mindig igaz, de elmondható, hogy a biológiában az elméletnek nincs jó múltja.
17:20
So I foundtalál the bestlegjobb people to work with are physicistsfizikusok,
381
1015000
3000
Rájöttem, hogy akikkel a legjobban lehet dolgozni azok a fizikusok,
17:23
engineersmérnökök and mathematiciansmatematikusok, who tendhajlamosak to think algorithmicallyalgoritmikusan.
382
1018000
3000
mérnökök és matematikusok, akik hajlamosak algoritmikusan gondolkodni.
17:26
Then they have to learntanul the anatomyanatómia, and they'veők már got to learntanul the physiologyfiziológia.
383
1021000
3000
Meg kell tanulják az anatómiát, és meg kell tanulják az élettant.
17:29
You have to make these theorieselméletek very realisticreális in anatomicalanatómiai termsfeltételek.
384
1024000
4000
Ezeket az elméleteket anatómiai értelemben nagyon realisztikussá kell tenni.
17:33
AnyoneBárki, aki who getsjelentkeznek up and tellsmegmondja you theirazok theoryelmélet about how the brainagy worksművek
385
1028000
4000
Bárki, aki kiáll és elmondja az elméletét az agy működéséről,
17:37
and doesn't tell you exactlypontosan how it's workingdolgozó in the brainagy
386
1032000
2000
és nem mondja el, pontosan hogyan is működik az az agyban
17:39
and how the wiringvezetékek worksművek in the brainagy, it is not a theoryelmélet.
387
1034000
2000
és hogyan működnek a kapcsolatok az agyban, az nem elmélet.
17:41
And that's what we're doing at the RedwoodVörösfenyő NeuroscienceIdegtudomány InstituteIntézet.
388
1036000
3000
Ez az amit mi a Redwood Neuroscience Institute-nál csinálunk.
17:44
I would love to have more time to tell you we're makinggyártás fantasticfantasztikus progressHaladás in this thing,
389
1039000
4000
Szerettem volna, ha több időm van, hogy elmondjam milyen fantasztikusuan haladunk e téren,
17:48
and I expectelvár to be back up on this stageszínpad,
390
1043000
2000
de szeretnék visszatérni erre a színpadra,
17:50
maybe this will be some other time in the not too distanttávoli futurejövő and tell you about it.
391
1045000
2000
talán valamikor a nem túl távoli jövőben és akkor elmondom önöknek.
17:52
I'm really, really excitedizgatott. This is not going to take 50 yearsévek at all.
392
1047000
3000
Teljesen, teljesen izgatott vagyok. Ez egyáltalán nem fog 50 évbe beletelni.
17:55
So what will brainagy theoryelmélet look like?
393
1050000
2000
Hogyan is fog kinézni az agyelmélet?
17:57
First of all, it's going to be a theoryelmélet about memorymemória.
394
1052000
2000
Először is egy elmélet lesz, amely a memóriáról szól.
17:59
Not like computerszámítógép memorymemória. It's not at all like computerszámítógép memorymemória.
395
1054000
3000
Nem olyanról, mint a számítógépes memória. Ez egyáltalán nem olyan, mint a számítógép memóriája.
18:02
It's very, very differentkülönböző. And it's a memorymemória of these very
396
1057000
2000
Nagyon, de nagyon különbözik attól. Egy memória ezekkel a
18:04
high-dimensionalhigh-dimenziós patternsminták, like the things that come from your eyesszemek.
397
1059000
3000
nagyon nagydimenziós mintákkal, mint amilyenek a szemünkbe érkező dolgok.
18:07
It's alsois memorymemória of sequencessorozatok.
398
1062000
2000
De egyúttal a egymásutániság memóriája is.
18:09
You cannotnem tud learntanul or recallvisszahívás anything outsidekívül of a sequencesorrend.
399
1064000
2000
Egymásutániság nélkül nem tudunk tanulni vagy visszaemlékezni.
18:11
A songdal mustkell be heardhallott in sequencesorrend over time,
400
1066000
3000
Egy dalt időbeni egymásutániságában kell meghallgatnunk,
18:14
and you mustkell playjáték it back in sequencesorrend over time.
401
1069000
3000
és időbeni egymásutániságában kell visszajátszanunk.
18:17
And these sequencessorozatok are auto-associativelyAuto-associatively recalledemlékeztetett, so if I see something,
402
1072000
3000
És ezek az egymásutániságok autoasszociatívan felidéződnek, így ha látok valamit,
18:20
I hearhall something, it remindsemlékezteti me of it, and then it playsjátszik back automaticallyautomatikusan.
403
1075000
3000
hallok valamit, az agyam eszembe juttatja és automatikusan visszajátssza.
18:23
It's an automaticautomatikus playbackLejátszás. And predictionjóslás of futurejövő inputsbemenetek is the desiredkívánt outputkibocsátás.
404
1078000
4000
Egy automatikus visszajátszás. Ahol a kívánt kimenetet a jövőbeli bemenetek képezik.
18:27
And as I said, the theoryelmélet mustkell be biologicallybiológiailag accuratepontos,
405
1082000
3000
És ahogy már mondtam, az elméletnek biológiailag pontosnak kell lennie,
18:30
it mustkell be testabletesztelhető, and you mustkell be ableképes to buildépít it.
406
1085000
2000
vizsgálhatónak kell lennie, és képesek kell legyünk azt felépíteni.
18:32
If you don't buildépít it, you don't understandmegért it. So, one more slidecsúszik here.
407
1087000
4000
Ha nem tudjuk felépíteni, akkor nem is értjük. Hadd mutassak még egy slide-ot.
18:36
What is this going to resulteredmény in? Are we going to really buildépít intelligentintelligens machinesgépek?
408
1091000
4000
Mi lesz ennek a következménye? Képesek leszünk valóban intelligens gépeket építeni?
18:40
AbsolutelyTeljesen. And it's going to be differentkülönböző than people think.
409
1095000
4000
Teljes mértékben. És különbözni fog attól, ahogy az emberek gondolják.
18:44
No doubtkétség that it's going to happentörténik, in my mindelme.
410
1099000
3000
Semmi kétségem afelől, hogy ez meg fog történni.
18:47
First of all, it's going to be builtépült up, we're going to buildépít the stuffdolog out of siliconszilícium.
411
1102000
4000
Meg fog épülni, meg fogjuk építeni ezt a dolgot szilikonból.
18:51
The sameazonos techniquestechnikák we use for buildingépület siliconszilícium computerszámítógép memoriesmemóriák,
412
1106000
3000
Ugyanaz a módszer, amit a szilkon alapú számítógépes memóriánál használunk,
18:54
we can use for here.
413
1109000
1000
használható itt is.
18:55
But they're very differentkülönböző typestípusok of memoriesmemóriák.
414
1110000
2000
De ezek nagyon különböző típusú memóriák.
18:57
And we're going to attachcsatolni these memoriesmemóriák to sensorsérzékelők,
415
1112000
2000
És ezeket a memóriákat szenzorokhoz fogjuk csatolni,
18:59
and the sensorsérzékelők will experiencetapasztalat real-livevalós élő, real-worldvaló Világ dataadat,
416
1114000
3000
és a szenzorok valós életbeli, valós világbeli adatokat fognak tapasztalni,
19:02
and these things are going to learntanul about theirazok environmentkörnyezet.
417
1117000
2000
és ezek a dolgok tanulni fognak a környezetükből.
19:04
Now it's very unlikelyvalószínűtlen the first things you're going to see are like robotsrobotok.
418
1119000
3000
Elég valószínűtlen, hogy az első dolgok, amiket látni fogunk azok robotszerűek lesznek.
19:07
Not that robotsrobotok aren'tnem usefulhasznos and people can buildépít robotsrobotok.
419
1122000
3000
Nem mintha a robotok ne lennének hasznosak, és az emberek tudnak robotokat építeni.
19:10
But the roboticsRobotika partrész is the hardestlegnehezebb partrész. That's the oldrégi brainagy. That's really hardkemény.
420
1125000
4000
De a robotikai rész a legnehezebb. Az a régi agy. Az nagyon nehéz.
19:14
The newúj brainagy is actuallytulajdonképpen kindkedves of easierkönnyebb than the oldrégi brainagy.
421
1129000
2000
Az új agy kicsit egyszerűbb a régi agynál.
19:16
So the first thing we're going to do are the things that don't requirekíván a lot of roboticsRobotika.
422
1131000
3000
Tehát az első dolog, amit csinálni fogunk, olyan lesz, ami nem igényel sok robotikát.
19:19
So you're not going to see C-C-3POPO.
423
1134000
2000
Nem fogjuk látni C-3PO-t.
19:21
You're going to more see things like, you know, intelligentintelligens carsautók
424
1136000
2000
Inkább olyasmiket fogunk látni, mint az intelligens autók,
19:23
that really understandmegért what trafficforgalom is and what drivingvezetés is
425
1138000
3000
amelyek valóban értik, mit jelent a közlekedés, mit jelent a vezetés,
19:26
and have learnedtanult that certainbizonyos typestípusok of carsautók with the blinkersszemellenző on for halffél a minuteperc
426
1141000
3000
és megtanulták, hogy bizonyos, fél percen keresztül jelzőlámpájukat villogtató autók
19:29
probablyvalószínűleg aren'tnem going to turnfordulat, things like that.
427
1144000
2000
valószínűleg nem fognak befordulni, és hasonló dolgokat.
19:31
(LaughterNevetés)
428
1146000
1000
(Nevetés)
19:32
We can alsois do intelligentintelligens securityBiztonság systemsrendszerek.
429
1147000
2000
Készíthetünk intelligens biztonsági rendszereket is.
19:34
AnywhereBárhol where we're basicallyalapvetően usinghasználva our brainagy, but not doing a lot of mechanicsmechanika.
430
1149000
4000
Bárhol, ahol alapvetően az agyunkat használjuk, és nincs sok mechanika.
19:38
Those are the things that are going to happentörténik first.
431
1153000
2000
Ezek lesznek azok a dolgok, amelyeket először létrehozunk.
19:40
But ultimatelyvégül, the world'svilág the limithatár here.
432
1155000
2000
De végső soron csak a képzelet szab határt ezeknek.
19:42
I don't know how this is going to turnfordulat out.
433
1157000
2000
Nem tudom, hogyan fog ez alakulni.
19:44
I know a lot of people who inventedfeltalált the microprocessormikroprocesszor
434
1159000
2000
Ismerek egy csomó embert, akik feltalálták a mikroprocesszort,
19:46
and if you talk to them, they knewtudta what they were doing was really significantjelentős,
435
1161000
5000
és ha megkérdezed tőlük, tudták, hogy amit csinálnak az nagy jelentőséggel bír,
19:51
but they didn't really know what was going to happentörténik.
436
1166000
3000
de nem igazán tudták, hogy mi fog utána történni.
19:54
They couldn'tnem tudott anticipateszámít cellsejt phonestelefonok and the InternetInternet and all this kindkedves of stuffdolog.
437
1169000
5000
Nem tudták megjósolni a mobiltelefont és az Internetet és ezeket a dolgokat.
19:59
They just knewtudta like, hey, they were going to buildépít calculatorsszámológépek
438
1174000
2000
Csak olyasmit tudtak, hogy számológépeket fognak építeni
20:01
and trafficforgalom lightfény controllersvezérlők. But it's going to be bignagy.
439
1176000
2000
és forgalomirányító lámpákat. De valami nagy dolog lesz.
20:03
In the sameazonos way, this is like brainagy sciencetudomány and these memoriesmemóriák
440
1178000
3000
Ugyanígy van ez az agytudománnyal is, és ezek a memóriák
20:06
are going to be a very fundamentalalapvető technologytechnológia, and it's going to leadvezet
441
1181000
3000
egy nagyon alapvető technológiát fognak képezni, és hihetetlen
20:09
to very unbelievablehihetetlen changesváltoztatások in the nextkövetkező 100 yearsévek.
442
1184000
3000
változásokhoz fognak vezetni az elkövetkezendő 100 évben.
20:12
And I'm mosta legtöbb excitedizgatott about how we're going to use them in sciencetudomány.
443
1187000
4000
És a legjobban aziránt vagyok izgatott, hogy hogyan fogjuk ezeket a tudományban felhasználni.
20:16
So I think that's all my time, I'm over it, and I'm going to endvég my talk
444
1191000
3000
Azt hiszem ennyi volt az én időm, túl is léptem, és itt
20:19
right there.
445
1194000
1000
be is fejezem az előadásomat.
Translated by Zalán Bodó
Reviewed by Krisztián Pintér

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee