ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

Jeff Hawkins o tome kako će znanost o mozgu promijeniti tehnologiju računala

Filmed:
1,674,773 views

Jeff Hawkins, tvorac Treoa, nas primorava da mozak doživimo na drugačiji način -- da ga ne doživimo poput brzog procesora, već kao memorijski sustav koji pohranjuje i nanovo pregledava iskustva kako bi nam pomogao inteligentno predvidjeti ono što će se tek dogoditi.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I designdizajn mobilemobilni computersračunala and I studystudija brainsmozak.
0
0
3000
Bavim se dvjema stvarima. Kreiram mobilna računala i bavim se proučavanjem mozga.
00:29
And today'sdanas je talk is about brainsmozak and,
1
4000
2000
Današnji je govor o mozgu i,
00:31
yayyay, somewherenegdje I have a brainmozak fanventilator out there.
2
6000
2000
odlično, tamo je negdje fan mozga.
00:33
(LaughterSmijeh)
3
8000
2000
(Smijeh)
00:35
I'm going to, if I can have my first slideklizanje up here,
4
10000
2000
Govorit ću, ako mi možete staviti prvi dijapozitiv,
00:37
and you'llvi ćete see the titletitula of my talk and my two affiliationspripadnost.
5
12000
4000
vidjet ćete naslov mog govora i moje druge dvije podružnice.
00:41
So what I'm going to talk about is why we don't have a good brainmozak theoryteorija,
6
16000
4000
Ono o čemu ću pričati je zašto ne postoji dobra teorija o mozgu,
00:45
why it is importantvažno that we should developrazviti one and what we can do about it.
7
20000
3000
zašto je važno da razvijemo takvu teoriju i što možemo poduzeti po tom pitanju.
00:48
And I'll try to do all that in 20 minutesminuta. I have two affiliationspripadnost.
8
23000
3000
Pokušat ću to napraviti u 20 minuta. Imam dvije podružnice.
00:51
MostVećina of you know me from my PalmDlan and HandspringPremet daysdana,
9
26000
3000
Većina vas me poznaje još iz vremena kada sam radio u tvrtki Palm and Handspring,
00:54
but I alsotakođer runtrčanje a nonprofitneprofitna scientificznanstvena researchistraživanje instituteinstitut
10
29000
3000
ali vodim i neprofitni znanstveni institut
00:57
calledzvao the RedwoodSekvoja NeuroscienceNeuroznanost InstituteInstitut in MenloMenlo ParkPark,
11
32000
2000
neuroznanstveni institut Redwood u Menlo Parku
00:59
and we studystudija theoreticalteorijski neuroscienceneuroznanost,
12
34000
2000
gdje se bavimo teorijskom neuroznanošću
01:01
and we studystudija how the neocortexneokorteks worksdjela.
13
36000
2000
i načinom rada neokorteksa.
01:03
I'm going to talk all about that.
14
38000
2000
O tome ću vam pričati.
01:05
I have one slideklizanje on my other life, the computerračunalo life, and that's the slideklizanje here.
15
40000
3000
Jedan dijapozitiv je o mom drugom životu, računalnom životu, to je ovaj dijapozitiv ovdje.
01:08
These are some of the productsproizvodi I've workedradio on over the last 20 yearsgodina,
16
43000
3000
Ovo su neki od proizvoda na kojima radim zadnjih 20 godina,
01:11
startingpolazeći back from the very originalizvornik laptoplaptop to some of the first tablettableta computersračunala
17
46000
4000
počevši od prvotnih prijenosnih računala do nekih početnih tablet računala
01:15
and so on, and endingzavršni up mostnajviše recentlynedavno with the TreoTreo,
18
50000
2000
i tako dalje, završivši, nedavno, s Treom
01:17
and we're continuingnastavlja to do this.
19
52000
2000
i nastavljamo s daljim radom na tome.
01:19
And I've doneučinio this because I really believe that mobilemobilni computingračunanje
20
54000
2000
Bavim se ovime jer iskreno vjerujem da je mobilno računalstvo
01:21
is the futurebudućnost of personalosobni computingračunanje, and I'm tryingtežak to make the worldsvijet
21
56000
3000
budućnost osobnog računalstva te, radeći na ovome, pokušavam učiniti svijet
01:24
a little bitbit better by workingrad on these things.
22
59000
3000
malo boljim.
01:27
But this was, I have to admitpriznati, all an accidentnesreća.
23
62000
2000
No, moram priznati, ovo je sve bila slučajnost.
01:29
I really didn't want to do any of these productsproizvodi
24
64000
2000
Zaista nisam želio napraviti niti jedan od ovih proizvoda
01:31
and very earlyrano in my careerkarijera I decidedodlučio
25
66000
2000
i već sam na početku svoje karijere odlučio
01:33
I was not going to be in the computerračunalo industryindustrija.
26
68000
3000
kako neću raditi u računalnoj industriji.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
I prije nego što vam krenem pričati o tome, moram vam reći
01:38
this one little pictureslika of graffitigrafiti there I pickedizabran off the webmreža the other day.
28
73000
2000
o ovoj maloj slici grafita koju sam pronašao neki dan na Internetu.
01:40
I was looking for a pictureslika of graffitigrafiti, little texttekst inputulazni languagejezik,
29
75000
3000
Tražio sam fotografiju grafita, malenog tekstualnog oblika,
01:43
and I foundpronađeno the websiteweb stranica dedicatedposvećen to teachersučitelji who want to make these,
30
78000
3000
i pronašao sam web stranicu posvećenu učiteljima koji žele napraviti takvo nešto
01:46
you know, the scriptskripta writingpisanje things acrosspreko the topvrh of theirnjihov blackboardŠkolska ploča,
31
81000
3000
iznad svojih školskih ploča
01:49
and they had addeddodano graffitigrafiti to it, and I'm sorry about that.
32
84000
3000
tamo su dodali te grafite i sada mi je žao zbog ovoga.
01:52
(LaughterSmijeh)
33
87000
2000
(Smijeh)
01:54
So what happeneddogodilo was, when I was youngmladi and got out of engineeringinženjering schoolškola
34
89000
5000
Dogodilo se sljedeće: kada sam bio mlad i kada sam završio računalno inženjerstvo
01:59
at CornellCornell in '79, I decidedodlučio -- I wentotišao to work for IntelIntel and
35
94000
4000
na Cornellu 1979. godine, počeo sam raditi za Intel.
02:03
I was in the computerračunalo industryindustrija -- and threetri monthsmjeseci into that,
36
98000
3000
Radio sam u toj industriji i nakon tri mjeseca
02:06
I fellpao in love with something elsedrugo, and I said, "I madenapravljen the wrongpogrešno careerkarijera choiceizbor here,"
37
101000
4000
zavolio sam nešto drugo te sam rekao „odabrao sam krivo područje u karijeri“,
02:10
and I fellpao in love with brainsmozak.
38
105000
3000
zaljubio sam se u mozak.
02:13
This is not a realstvaran brainmozak. This is a pictureslika of one, a linecrta drawingcrtanje.
39
108000
3000
Ovo nije pravi mozak. Ovo je slika mozga napravljena tehnikom ocrtavanja.
02:16
But I don't rememberzapamtiti exactlytočno how it happeneddogodilo,
40
111000
3000
Ne znam kako se to točno dogodilo,
02:19
but I have one recollectionsjećanja, whichkoji was prettyprilično strongjak in my mindum.
41
114000
3000
ali sjećam se jednog događaja koji je vrlo istaknut u mojem sjećanju.
02:22
In SeptemberRujna 1979, ScientificZnanstveni AmericanAmerički camedošao out
42
117000
3000
U rujnu 1979. godine, izašao je broj časopisa Scientific American
02:25
with a singlesingl topictema issueizdanje about the brainmozak. And it was quitedosta good.
43
120000
3000
posvećen jednoj temi - mozgu. Bio je to vrlo dobar broj.
02:28
It was one of the bestnajbolje issuespitanja ever. And they talkedRazgovarao about the neuronneuron
44
123000
3000
Jedno od najboljih izdanja. U časopisu je bila riječ o neuronima,
02:31
and developmentrazvoj and diseasebolest and visionvizija and all the things
45
126000
2000
razvoju, bolestima, vidu i svim drugim stvarima
02:33
you mightmoć want to know about brainsmozak. It was really quitedosta impressiveimpresivan.
46
128000
3000
koje biste željeli znati o mozgu. Zapravo je bilo vrlo impresivno.
02:36
And one mightmoć have the impressionutisak that we really knewznao a lot about brainsmozak.
47
131000
3000
Dobijete dojam kako puno toga znamo o mozgu.
02:39
But the last articlečlanak in that issueizdanje was writtennapisan by FrancisFranjo CrickCrick of DNADNK fameslava.
48
134000
4000
Međutim, zadnji je članak tog izdanja napisao Francis Crick, poznat po otkriću DNK.
02:43
TodayDanas is, I think, the 50thth anniversarygodišnjica of the discoveryotkriće of DNADNK.
49
138000
3000
Mislim da je danas 50-ta obljetnica otkrića DNK.
02:46
And he wrotenapisao a storypriča basicallyu osnovi sayingizreka,
50
141000
2000
Crick je napisao članak u kojem u biti kaže,
02:48
well, this is all well and good, but you know what,
51
143000
3000
„sve je to super, ali po pitanju mozga
02:51
we don't know diddleyDiddley squatčučanj about brainsmozak
52
146000
2000
mi pojma nemamo,
02:53
and no one has a cluetrag how these things work,
53
148000
2000
nitko ne zna kako sve to funkcionira
02:55
so don't believe what anyonebilo tko tellsgovori you.
54
150000
2000
tako da ne vjerujte svemu što vam netko kaže“.
02:57
This is a quotecitat from that articlečlanak. He said, "What is conspicuouslyvidno lackingnedostaje,"
55
152000
3000
Ovo je citat iz tog članka. On kaže, „Ono što očito nedostaje“,
03:00
he's a very properodgovarajuće BritishBritanski gentlemangospodin so, "What is conspicuouslyvidno lackingnedostaje
56
155000
4000
on je uglađeni britanski gospodin, tako da, „Ono što očito nedostaje jest
03:04
is a broadširok frameworkokvir of ideasideje in whichkoji to interpretinterpretirati these differentdrugačiji approachespristupi."
57
159000
3000
široki okvir ideja putem kojeg bismo interpretirali različite pristupe mozgu“.
03:07
I thought the wordriječ frameworkokvir was great.
58
162000
2000
Mislio sam da je riječ „okvir“ odlična.
03:09
He didn't say we didn't even have a theoryteorija. He sayskaže,
59
164000
2000
Nije čak niti rekao kako nemamo teoriju. On kaže
03:11
we don't even know how to beginpočeti to think about it --
60
166000
2000
da niti ne znamo kako bismo trebali započeti misliti o tome --
03:13
we don't even have a frameworkokvir.
61
168000
2000
nemamo niti okvir.
03:15
We are in the pre-paradigmpred paradigma daysdana, if you want to use ThomasThomas KuhnKuhn.
62
170000
3000
Ako želimo parafrazirati Thomasa Kuhna – trenutno smo u razdoblju prije paradigmi.
03:18
And so I fellpao in love with this, and said look,
63
173000
3000
I tako sam se zaljubio u ovo i rekao „gledajte,
03:21
we have all this knowledgeznanje about brainsmozak. How hardteško can it be?
64
176000
3000
posjedujemo svo to znanje o mozgu. Koliko teško može biti?
03:24
And this is something we can work on my lifetimedoživotno. I feltosjećala I could make a differencerazlika,
65
179000
3000
To je nešto čime se možemo baviti za moga života“. Mislio sam da mogu napraviti nešto,
03:27
and so I triedpokušala to get out of the computerračunalo businessPoslovni, into the brainmozak businessPoslovni.
66
182000
4000
pa sam pokušao otići iz svijeta računalstva u svijet mozga.
03:31
First, I wentotišao to MITMIT, the AIAI lablaboratorija was there,
67
186000
2000
Prvo sam otišao na MIT gdje imaju laboratorij za umjetnu inteligenciju
03:33
and I said, well, I want to buildizgraditi intelligentinteligentan machinesstrojevi, too,
68
188000
2000
i rekao sam im „i ja želim raditi inteligentne strojeve,
03:35
but the way I want to do it is to studystudija how brainsmozak work first.
69
190000
3000
ali način na koji to želim napraviti je tako da prvo proučim kako radi mozak“.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
Rekli su mi „ma ne trebate to raditi.
03:41
We're just going to programprogram computersračunala; that's all we need to do.
71
196000
2000
Mi ćemo samo programirati računala, samo to i moramo raditi“.
03:43
And I said, no, you really oughttreba to studystudija brainsmozak. They said, oh, you know,
72
198000
3000
Ja sam im rekao „ne, stvarno biste trebali proučiti mozak“. „Znate,
03:46
you're wrongpogrešno. And I said, no, you're wrongpogrešno, and I didn't get in.
73
201000
2000
u krivu ste“, rekli su mi. Ja sam im rekao da su oni u krivu i nisu me primili.
03:48
(LaughterSmijeh)
74
203000
1000
(Smijeh)
03:50
But I was a little disappointedrazočaran -- prettyprilično youngmladi -- but I wentotišao back again
75
205000
2000
Bio sam malo razočaran -- poprilično mlad, ali nakon nekoliko sam godina
03:52
a fewnekoliko yearsgodina laterkasnije and this time was in CaliforniaCalifornia, and I wentotišao to BerkeleyBerkeley.
76
207000
3000
pokušao ponovno i taj sam put otišao u Kaliforniju, na Berkeley.
03:55
And I said, I'll go in from the biologicalbiološki sidestrana.
77
210000
4000
Rekao sam, pokušat ću pristupiti problemu s biološke strane.
03:59
So I got in -- in the PhPH.D. programprogram in biophysicsbiofizika, and I was, all right,
78
214000
3000
Primili su me na doktorski studij biofizike; mislio sam „u redu,
04:02
I'm studyingučenje brainsmozak now, and I said, well, I want to studystudija theoryteorija.
79
217000
3000
sada proučavam mozak“ i rekao sam im „želim proučiti teoriju“.
04:05
And they said, oh no, you can't studystudija theoryteorija about brainsmozak.
80
220000
2000
A oni su rekli „a ne, ne možeš se baviti teorijom mozga.
04:07
That's not something you do. You can't get fundedfinansiran for that.
81
222000
2000
To se ne radi. Ne možeš dobiti sredstva za tako nešto.
04:09
And as a graduatediplomirani studentstudent, you can't do that. So I said, oh my goshvraga.
82
224000
4000
A kao doktorand time se ne možeš baviti“. „Bog moj mili“, rekao sam.
04:13
I was very depresseddepresivno. I said, but I can make a differencerazlika in this fieldpolje.
83
228000
2000
Bio sam vrlo deprimiran. „Ali mogu biti od značaja u ovom području“, rekao sam.
04:15
So what I did is I wentotišao back in the computerračunalo industryindustrija
84
230000
3000
Sljedeće što sam napravio je da sam se vratio računalnoj industriji
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
i rekao „izgleda da ću neko vrijeme morati raditi ovdje, nešto napraviti“.
04:20
That's when I designedkonstruiran all those computerračunalo productsproizvodi.
86
235000
3000
Tada sam kreirao sve one računalne proizvode.
04:23
(LaughterSmijeh)
87
238000
1000
(Smijeh)
04:24
And I said, I want to do this for fourčetiri yearsgodina, make some moneynovac,
88
239000
3000
Rekao sam „želim se ovime baviti četiri godine, zaraditi nešto novaca,
04:27
like I was havingima a familyobitelj, and I would matureZreli a bitbit,
89
242000
4000
osnovati obitelj, malo ću sazrijeti,
04:31
and maybe the businessPoslovni of neuroscienceneuroznanost would matureZreli a bitbit.
90
246000
3000
možda će i područje neuroznanosti malo sazrijeti“.
04:34
Well, it tookuzeo longerviše than fourčetiri yearsgodina. It's been about 16 yearsgodina.
91
249000
3000
Prošlo je više od četiri godine. Već je 16 godina tome.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
Ali sada se bavim time i pričat ću vam o tome.
04:39
So why should we have a good brainmozak theoryteorija?
93
254000
3000
Zašto nam je potrebna dobra teorija o mozgu?
04:42
Well, there's lots of reasonsrazlozi people do scienceznanost.
94
257000
3000
Ljudi se bave znanošću iz raznoraznih razloga.
04:45
One is -- the mostnajviše basicosnovni one is -- people like to know things.
95
260000
3000
Jedan on njih -- onaj temeljni -- je taj što ljudi vole znati stvari.
04:48
We're curiousznatiželjan, and we just go out and get knowledgeznanje, you know?
96
263000
2000
Znatiželjni smo, pa odemo u svijet i pokupimo znanje, razumijete?
04:50
Why do we studystudija antsmravi? Well, it's interestingzanimljiv.
97
265000
2000
Zašto proučavamo mrave? Zato što je zanimljivo.
04:52
Maybe we'lldobro learnnaučiti something really usefulkoristan about it, but it's interestingzanimljiv and fascinatingfascinantan.
98
267000
3000
Možda ćemo saznati nešto vrlo korisno, ali zanimljivo ih je i fascinantno proučavati.
04:55
But sometimesponekad, a scienceznanost has some other attributesatributi
99
270000
2000
Ponekad, neka znanost ima neke druge karakteristike
04:57
whichkoji makesmarke it really, really interestingzanimljiv.
100
272000
2000
koje ju čine vrlo zanimljivom.
04:59
SometimesPonekad a scienceznanost will tell something about ourselvessebe,
101
274000
3000
Ponekad nam znanost kaže nešto o nama,
05:02
it'llto će tell us who we are.
102
277000
1000
o tome tko smo.
05:03
RarelyRijetko, you know: evolutionevolucija did this and CopernicusNikola Kopernik did this,
103
278000
3000
Ponekad, kao u slučaju evolucije i Kopernikovog heliocentričnog sustava,
05:06
where we have a newnovi understandingrazumijevanje of who we are.
104
281000
2000
dobijemo novo saznanje o tome tko smo.
05:08
And after all, we are our brainsmozak. My brainmozak is talkingkoji govori to your brainmozak.
105
283000
4000
Na kraju krajeva, mi smo naši mozgovi. Moj mozak razgovara s vašim mozgom.
05:12
Our bodiestjelesa are hangingvješanje alonguz for the ridevožnja, but my brainmozak is talkingkoji govori to your brainmozak.
106
287000
3000
Naša su tijela tu suvišna, moj mozak razgovara s vašim mozgom.
05:15
And if we want to understandrazumjeti who we are and how we feel and perceivedoživljavaju,
107
290000
3000
I ako želimo razumijeti tko smo, kako osjećamo i doživljavamo svijet
05:18
we really understandrazumjeti what brainsmozak are.
108
293000
2000
tada trebamo razumijeti što je mozak.
05:20
AnotherJoš jedan thing is sometimesponekad scienceznanost
109
295000
2000
Još nešto, ponekad znanost
05:22
leadsvodi to really bigvelika societaldruštvene benefitsprednosti and technologiestehnologije,
110
297000
2000
dovodi do značajnih društvenih i tehnoloških dobrobiti
05:24
or businessespoduzeća, or whateveršto god, that come out of it. And this is one, too,
111
299000
2000
ili biznisa ili čega god što je proizašlo iz znanosti. I ovo je takav primjer
05:26
because when we understandrazumjeti how brainsmozak work, we're going to be ableu stanju
112
301000
3000
jer kada shvatimo kako mozak funkcionira, bit ćemo sposobni
05:29
to buildizgraditi intelligentinteligentan machinesstrojevi, and I think that's actuallyzapravo a good thing on the wholečitav,
113
304000
3000
napraviti inteligentne strojeve, što je po meni, globalno gledajući, dobra stvar,
05:32
and it's going to have tremendousogroman benefitsprednosti to societydruštvo,
114
307000
2000
te će tako nešto imati ogromne prednosti za društvo,
05:34
just like a fundamentalosnovni technologytehnologija.
115
309000
2000
upravo poput fundamentalne tehnologije.
05:36
So why don't we have a good theoryteorija of brainsmozak?
116
311000
2000
Zašto nemamo dobru teoriju o mozgu?
05:38
And people have been workingrad on it for 100 yearsgodina.
117
313000
3000
A ljudi rade na njoj već 100 godina.
05:41
Well, let's first take a look at what normalnormalan scienceznanost looksizgled like.
118
316000
2000
Pogledajmo kako funkcionira normalna znanost.
05:43
This is normalnormalan scienceznanost.
119
318000
2000
Ovo je normalna znanost.
05:45
NormalNormalno scienceznanost is a nicelijepo balanceravnoteža betweenizmeđu theoryteorija and experimentalistsexperimentalists.
120
320000
4000
Normalna je znanost temeljena na dobro uravnoteženoj teoriji i praksi.
05:49
And so the theoristteoretičar guys say, well, I think this is what's going on,
121
324000
2000
Teoretičari kažu „mislimo da se tu događa ovo“,
05:51
and the experimentalisteksperimentalist sayskaže, no, you're wrongpogrešno.
122
326000
2000
a eksperimentalisti kažu „u krivu ste“.
05:53
And it goeside back and forthdalje, you know?
123
328000
2000
I tako se izmjenjuju.
05:55
This worksdjela in physicsfizika. This worksdjela in geologyGeologija. But if this is normalnormalan scienceznanost,
124
330000
2000
Ovo funkcionira u fizici. U geologiji. Ali ako tako funkcionira normalna znanost
05:57
what does neuroscienceneuroznanost look like? This is what neuroscienceneuroznanost looksizgled like.
125
332000
3000
kako funkcionira neuroznanost? Ona funkcionira ovako:
06:00
We have this mountainplanina of datapodaci, whichkoji is anatomyanatomija, physiologyfiziologija and behaviorponašanje.
126
335000
5000
imamo brdo podataka koje sačinjavaju anatomija, fiziologija i ponašanje.
06:05
You can't imaginezamisliti how much detaildetalj we know about brainsmozak.
127
340000
3000
Ne možete niti pojmiti koliko detalja znamo o mozgu.
06:08
There were 28,000 people who wentotišao to the neuroscienceneuroznanost conferencekonferencija this yeargodina,
128
343000
4000
Ove je godine 28.000 ljudi prisustvovalo neuroznanstvenoj konferenciji
06:12
and everysvaki one of them is doing researchistraživanje in brainsmozak.
129
347000
2000
i svatko se od njih bavi istraživanjem mozga.
06:14
A lot of datapodaci. But there's no theoryteorija. There's a little, wimpyWimpy boxkutija on topvrh there.
130
349000
4000
Puno podataka. No, nema teorije. Samo beznačajni kvadratić ondje gore.
06:18
And theoryteorija has not playedigrao a roleuloga in any sortvrsta of grandveličanstven way in the neuroscienceslateralizacija.
131
353000
5000
Teorija nije imala nikakvu značajnu ulogu u neuroznanosti.
06:23
And it's a realstvaran shamesram. Now why has this come about?
132
358000
3000
Što je velika šteta. Zašto je tome tako?
06:26
If you askpitati neuroscientistsNeuroznanstvenici, why is this the statedržava of affairafera,
133
361000
2000
Ako pitate neuroznanstvenika zašto je tomu tako,
06:28
they'lloni će first of all admitpriznati it. But if you askpitati them, they'lloni će say,
134
363000
3000
najprije će to priznati. Ali ako ih pitate reći će da
06:31
well, there's variousraznovrstan reasonsrazlozi we don't have a good brainmozak theoryteorija.
135
366000
3000
postoje brojni razlozi zašto nemamo dobru teoriju o mozgu.
06:34
Some people say, well, we don't still have enoughdovoljno datapodaci,
136
369000
2000
Neki će reći da nemamo dovoljno podataka,
06:36
we need to get more informationinformacija, there's all these things we don't know.
137
371000
3000
potrebno nam je još podataka, toliko toga još ne znamo.
06:39
Well, I just told you there's so much datapodaci comingdolazak out your earsuši.
138
374000
3000
Upravo sam vam rekao da imate toliko podataka da vam izlaze na uši.
06:42
We have so much informationinformacija, we don't even know how to beginpočeti to organizeorganizirati it.
139
377000
3000
Imamo toliko podataka da ne znamo kako bismo ih organizirali.
06:45
What good is more going to do?
140
380000
2000
Što će nam više podataka?
06:47
Maybe we'lldobro be luckysretan and discoverotkriti some magicmagija thing, but I don't think so.
141
382000
3000
Možda nam se posreći, pa pronađemo neko magično objašnjenje, ali sumnjam.
06:50
This is actuallyzapravo a symptomsimptom of the factčinjenica that we just don't have a theoryteorija.
142
385000
3000
Simptom je to nedostatka teorije.
06:53
We don't need more datapodaci -- we need a good theoryteorija about it.
143
388000
3000
Ne treba nam još podataka, treba nam dobra teorija.
06:56
AnotherJoš jedan one is sometimesponekad people say, well, brainsmozak are so complexkompleks,
144
391000
3000
Sljedeće što ljudi kažu jest da je mozak prekompliciran
06:59
it'llto će take anotherjoš 50 yearsgodina.
145
394000
2000
i da će nam trebati još 50 godina do teorije.
07:01
I even think ChrisChris said something like this yesterdayjučer.
146
396000
2000
Mislim da je Chris jučer rekao ovako nešto.
07:03
I'm not sure what you said, ChrisChris, but something like,
147
398000
2000
Nisam siguran što si točno rekao Chris, ali rekao si nešto kao
07:05
well, it's one of the mostnajviše complicatedsložen things in the universesvemir. That's not truepravi.
148
400000
3000
„to je jedna od najkompliciranijih stvari u svemiru“. To nije istina.
07:08
You're more complicatedsložen than your brainmozak. You've got a brainmozak.
149
403000
2000
Vi ste kompliciraniji od svojeg mozga. Vi imate mozak.
07:10
And it's alsotakođer, althoughiako the brainmozak looksizgled very complicatedsložen,
150
405000
2000
Isto tako, iako se mozak čini vrlo kompliciranim,
07:12
things look complicatedsložen untildo you understandrazumjeti them.
151
407000
3000
stvari su komplicirane sve dok ih ne razumijete.
07:15
That's always been the casespis. And so all we can say, well,
152
410000
3000
Uvijek je tako. Sve što možemo reći je da je
07:18
my neocortexneokorteks, whichkoji is the partdio of the brainmozak I'm interestedzainteresiran in, has 30 billionmilijardi cellsStanice.
153
413000
4000
moj neokorteks, onaj dio mozga koji me zanima, sačinjen od 30 milijardi stanica.
07:22
But, you know what? It's very, very regularredovan.
154
417000
2000
Ali znate što? Iznimno je normalan.
07:24
In factčinjenica, it looksizgled like it's the sameisti thing repeatedponovljen over and over and over again.
155
419000
3000
Zapravo, izgleda kao jedna te ista stvar nanovno i nanovo ponovljena.
07:27
It's not as complexkompleks as it looksizgled. That's not the issueizdanje.
156
422000
3000
Nije toliko kompliciran kako izgleda. Nije u tome problem.
07:30
Some people say, brainsmozak can't understandrazumjeti brainsmozak.
157
425000
2000
Neki ljudi tvrde da „mozgovi ne mogu razumijeti mozgove“.
07:32
Very Zen-likeZen-poput. WhooVau. (LaughterSmijeh)
158
427000
3000
Vrlo zen stajalište. Super. Zar ne –
07:35
You know,
159
430000
1000
(Smijeh)
07:36
it soundszvukovi good, but why? I mean, what's the pointtočka?
160
431000
3000
Zvuči dobro, ali zašto? Koja je svrha toga?
07:39
It's just a bunchmnogo of cellsStanice. You understandrazumjeti your liverjetra.
161
434000
3000
Mozak je samo skupina stanica. Razumijete jetru.
07:42
It's got a lot of cellsStanice in it too, right?
162
437000
2000
I ona se sastoji od stanica, zar ne?
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
Zato ne mislim da je tome tako.
07:46
And finallykonačno, some people say, well, you know,
164
441000
2000
I na kraju, neki ljudi kažu „znaš,
07:48
I don't feel like a bunchmnogo of cellsStanice, you know. I'm conscioussvjestan.
165
443000
4000
ne osjećam se kao hrpa stanica. Svjestan sam.
07:52
I've got this experienceiskustvo, I'm in the worldsvijet, you know.
166
447000
2000
Imam svo to iskustvo, u svijetu sam, razumiješ.
07:54
I can't be just a bunchmnogo of cellsStanice. Well, you know,
167
449000
2000
Ne mogu biti samo hrpa stanica“.
07:56
people used to believe there was a life forcesila to be livingživot,
168
451000
3000
Prije su ljudi vjerovali da je za život potrebna životna energija,
07:59
and we now know that's really not truepravi at all.
169
454000
2000
sada znamo da to uopće nije točno.
08:01
And there's really no evidencedokaz that sayskaže -- well, other than people
170
456000
3000
Ne postoje dokazi koji tvrde, osim ljudi koji ne vjeruju,
08:04
just have disbeliefnevjerica that cellsStanice can do what they do.
171
459000
2000
da stanice ne mogu raditi ono što rade.
08:06
And so, if some people have fallenpoginuli into the pitjama of metaphysicalmetafizički dualismdualizam,
172
461000
3000
Ako su neki ljudi zapali u rupu metafizičkog dualizma,
08:09
some really smartpametan people, too, but we can rejectodbijanje all that.
173
464000
3000
uključujući i neke pametne ljude, mi to možemo pobiti.
08:12
(LaughterSmijeh)
174
467000
2000
(Smijeh)
08:14
No, I'm going to tell you there's something elsedrugo,
175
469000
3000
Ne, reći ću vam da se radi o nečem drugom,
08:17
and it's really fundamentalosnovni, and this is what it is:
176
472000
2000
nečem vrlo temeljnom, a to je sljedeće:
08:19
there's anotherjoš reasonrazlog why we don't have a good brainmozak theoryteorija,
177
474000
2000
postoji još jedan razlog nepostojanja dobre teorije o mozgu,
08:21
and it's because we have an intuitiveintuitivan, strongly-heldsnažno održava,
178
476000
3000
a to je zbog toga što imamo intuitivnu, ustaljenu,
08:24
but incorrectNeispravna assumptionpretpostavka that has preventedspriječiti us from seeingvidim the answerodgovor.
179
479000
5000
ali netočnu pretpostavku koja nas sprečava da vidimo odgovor.
08:29
There's something we believe that just, it's obviousočigledan, but it's wrongpogrešno.
180
484000
3000
Postoji nešto u što vjerujemo, što je očito, ali je krivo.
08:32
Now, there's a historypovijest of this in scienceznanost and before I tell you what it is,
181
487000
4000
Postoji povijest toga u znanosti i prije nego što vam kažem o čemu se radi,
08:36
I'm going to tell you a bitbit about the historypovijest of it in scienceznanost.
182
491000
2000
reći ću vam nešto o povijesti toga u znanosti.
08:38
You look at some other scientificznanstvena revolutionsrevolucije,
183
493000
2000
Pogledajte neke druge znanstvene revolucije,
08:40
and this casespis, I'm talkingkoji govori about the solarsolarni systemsistem, that's CopernicusNikola Kopernik,
184
495000
2000
primjerice Kopernikov sunčev sustav,
08:42
Darwin'sDarwinova evolutionevolucija, and tectonictektonski platesploče, that's WegenerWegener.
185
497000
3000
Darwinovu teoriju evolucije, Wagnerove tektonske ploče.
08:45
They all have a lot in commonzajednička with brainmozak scienceznanost.
186
500000
3000
Sve one imaju puno toga zajedničkog s teorijom mozga.
08:48
First of all, they had a lot of unexplainedneobjašnjen datapodaci. A lot of it.
187
503000
3000
Prvo, imale su puno neobjašnjenih podataka. Hrpe njih.
08:51
But it got more manageablerukovanje oncejednom they had a theoryteorija.
188
506000
3000
Ali podaci su postali razumljiviji kada se razvila teorija.
08:54
The bestnajbolje mindsmisli were stumpedbatrljak -- really, really smartpametan people.
189
509000
3000
Najpametniji su ljudi bili zbunjeni, stvarno, stvarno pametni ljudi.
08:57
We're not smarterpametnije now than they were then.
190
512000
2000
Mi sada nismo ništa pametniji od njih tada.
08:59
It just turnsokreti out it's really hardteško to think of things,
191
514000
2000
Ispada da je vrlo teško razmišljati o stvarima,
09:01
but oncejednom you've thought of them, it's kindljubazan of easylako to understandrazumjeti it.
192
516000
2000
ali kada jednom o njima promislite, nekako ih jednostavnije razumijete.
09:03
My daughterskćeri understoodrazumjeti these threetri theoriesteorije
193
518000
2000
Moje su kćeri razumijele ove tri teorije
09:05
in theirnjihov basicosnovni frameworkokvir by the time they were in kindergartenDječji vrtić.
194
520000
3000
u njihovim temeljnim okvirima do trenutka kada su stigle u vrtić.
09:08
And now it's not that hardteško, you know, here'sevo the applejabuka, here'sevo the orangenarančasta,
195
523000
3000
I nije to tako teško, ovo je jabuka, ovo je narandža
09:11
you know, the EarthZemlja goeside around, that kindljubazan of stuffstvari.
196
526000
3000
i Zemlja kruži oko Sunca, takve stvari.
09:14
FinallyKonačno, anotherjoš thing is the answerodgovor was there all alonguz,
197
529000
2000
I na kraju, odgovor je uvijek bio ovdje,
09:16
but we kindljubazan of ignoredzanemarena it because of this obviousočigledan thing, and that's the thing.
198
531000
3000
ali smo ga ignorirali zbog te očite stvari, i u tome je stvar.
09:19
It was an intuitiveintuitivan, strong-heldjaka održan beliefvjerovanje that was wrongpogrešno.
199
534000
3000
Bilo je to intuitivno, čvrsto držano uvjerenje koje je krivo.
09:22
In the casespis of the solarsolarni systemsistem, the ideaideja that the EarthZemlja is spinningpredenje
200
537000
3000
U slučaju solarnog sustava, zamisao da se Zemlja vrti
09:25
and the surfacepovršinski of the EarthZemlja is going like a thousandtisuću milesmilja an hoursat,
201
540000
3000
i da se površina Zemlje kreće tisuću milja na sat
09:28
and the EarthZemlja is going throughkroz the solarsolarni systemsistem about a millionmilijuna milesmilja an hoursat.
202
543000
3000
te da se Zemlja kreće sunčevim sustavom milijun milja na sat.
09:31
This is lunacyludilo. We all know the EarthZemlja isn't movingkreće.
203
546000
2000
To je ludo. Svi znamo da se Zemlja ne kreće.
09:33
Do you feel like you're movingkreće a thousandtisuću milesmilja an hoursat?
204
548000
2000
Imate li osjećaj da se krećete tisuću milja na sat?
09:35
Of coursenaravno not. You know, and someonenetko who said,
205
550000
2000
Naravno da ne. I netko tko bi rekao
09:37
well, it was spinningpredenje around in spaceprostor and it's so hugeogroman,
206
552000
2000
da se Zemlja vrti u svemiru koji je ogroman,
09:39
they would lockzaključati you up, and that's what they did back then.
207
554000
2000
zatvorili bi ga. Prije su to i radili.
09:41
(LaughterSmijeh)
208
556000
1000
(Smijeh)
09:42
So it was intuitiveintuitivan and obviousočigledan. Now what about evolutionevolucija?
209
557000
3000
Bilo je intuitivno i očito. Što je s evolucijom?
09:45
Evolution'sEvolucija je the sameisti thing. We taughtučio our kidsdjeca, well, the BibleBiblija sayskaže,
210
560000
3000
Ista stvar. Naučili smo djecu - u Bibliji piše
09:48
you know, God createdstvorio all these speciesvrsta, catsmačke are catsmačke, dogspsi are dogspsi,
211
563000
2000
da je Bog stvorio sve te vrste životinja, mačke su mačke, psi su psi,
09:50
people are people, plantsbilje are plantsbilje, they don't changepromijeniti.
212
565000
3000
biljke su biljke, takve se stvari ne mijenjaju.
09:53
NoahNoa put them on the ArkArk in that ordernarudžba, blahpretjerivanje, blahpretjerivanje, blahpretjerivanje. And, you know,
213
568000
4000
Noa ih je stavio u arku tim redoslijedom, bla, bla, bla. Činjenica je da
09:57
the factčinjenica is, if you believe in evolutionevolucija, we all have a commonzajednička ancestorpredak,
214
572000
4000
ako vjerujete u evoluciju tada svi imamo zajedničkog pretka
10:01
and we all have a commonzajednička ancestrypodrijetlo with the plantbiljka in the lobbylobi.
215
576000
3000
i svi smo povezani zajedničkim pretkom s biljkom u predvorju.
10:04
This is what evolutionevolucija tellsgovori us. And, it's truepravi. It's kindljubazan of unbelievablenevjerojatan.
216
579000
3000
Evolucija nam to kaže. I to je istina. Nevjerojatno je.
10:07
And the sameisti thing about tectonictektonski platesploče, you know?
217
582000
3000
Isto je i s tektonskim pločama.
10:10
All the mountainsplanine and the continentskontinenti are kindljubazan of floatingplivajući around
218
585000
2000
Sve planine i kontinenti na neki način plutaju
10:12
on topvrh of the EarthZemlja, you know? It's like, it doesn't make any senseosjećaj.
219
587000
4000
na Zemlji, znate? Nema to nikakvog smisla.
10:16
So what is the intuitiveintuitivan, but incorrectNeispravna assumptionpretpostavka,
220
591000
4000
Koja je to intuitivna, ali netočna pretpostavka
10:20
that's keptčuva us from understandingrazumijevanje brainsmozak?
221
595000
2000
koja nas priječi u razumijevanju mozga?
10:22
Now I'm going to tell it to you, and it's going to seemčiniti se obviousočigledan that that is correctispravan,
222
597000
2000
Sada ću vam je reći i činit će se očitim kako je to ono točno,
10:24
and that's the pointtočka, right? Then I'm going to have to make an argumentargument
223
599000
2000
i u tome je stvar, zar ne? Nakon toga ću vam morati dokazati
10:26
why you're incorrectNeispravna about the other assumptionpretpostavka.
224
601000
2000
zašto ste u krivu što se tiče druge pretpostavke.
10:28
The intuitiveintuitivan but obviousočigledan thing is that somehownekako intelligenceinteligencija
225
603000
3000
Intuitivno, ali očito, je da je inteligencija
10:31
is defineddefiniran by behaviorponašanje,
226
606000
2000
određena ponašanjem;
10:33
that we are intelligentinteligentan because of the way that we do things
227
608000
2000
inteligentni smo zbog načina na koji radim stvari
10:35
and the way we behaveponašati intelligentlyinteligentno, and I'm going to tell you that's wrongpogrešno.
228
610000
3000
i inteligentnog ponašanja – reći ću vam kako je takvo mišljenje pogrešno.
10:38
What it is is intelligenceinteligencija is defineddefiniran by predictionproricanje.
229
613000
2000
Inteligencija je određena predviđanjem.
10:40
And I'm going to work you throughkroz this in a fewnekoliko slidesslajdova here,
230
615000
3000
Proći ćemo kroz to pomoću nekoliko dijapozitiva,
10:43
give you an exampleprimjer of what this meanssredstva. Here'sOvdje je a systemsistem.
231
618000
4000
dat ću vam primjere što to točno znači. Ovo je sustav.
10:47
EngineersInženjeri like to look at systemssustavi like this. ScientistsZnanstvenici like to look at systemssustavi like this.
232
622000
3000
Inženjeri vole promatrati sustav na ovaj način. Znanstvenici na ovaj.
10:50
They say, well, we have a thing in a boxkutija, and we have its inputsulazi and its outputsizlaza.
233
625000
3000
Oni kažu – imamo stvar u kvadratu i imamo njezine unose i iznose.
10:53
The AIAI people said, well, the thing in the boxkutija is a programmableprogramabilni computerračunalo
234
628000
3000
Ljudi koji se bave umjetnom inteligencijom rekoše „stvar u kvadratu je programirljivo računalo
10:56
because that's equivalentekvivalent to a brainmozak, and we'lldobro feedstočna hrana it some inputsulazi
235
631000
2000
jer je to ekvivalent mozgu. Programirat ćemo neke unose
10:58
and we'lldobro get it to do something, have some behaviorponašanje.
236
633000
2000
i učinit ćemo ga da nešto radi, da se nekako ponaša“.
11:00
And AlanAlan TuringTuringov defineddefiniran the TuringTuringov testtest, whichkoji is essentiallyu srži sayingizreka,
237
635000
3000
Alan Turing je odredio Turingov test koji, u biti, tvrdi
11:03
we'lldobro know if something'snešto je intelligentinteligentan if it behavesponaša se identicalidentičan to a humanljudski.
238
638000
3000
da ćemo znati je li nešto inteligentno ako se ponaša isto kao čovjek.
11:06
A behavioralponašanja metricmetrički of what intelligenceinteligencija is,
239
641000
3000
To je bihevioralni metrični sustav inteligencije
11:09
and this has stucku škripcu in our mindsmisli for a long periodrazdoblje of time.
240
644000
3000
i to je ostalo dugo vremena u našem načinu razmišljanja.
11:12
RealityStvarnost thoughiako, I call it realstvaran intelligenceinteligencija.
241
647000
2000
Ja to zovem stvarna inteligencija.
11:14
RealPravi intelligenceinteligencija is builtizgrađen on something elsedrugo.
242
649000
2000
Stvarna se inteligencija temelji na nečem drugom.
11:16
We experienceiskustvo the worldsvijet throughkroz a sequenceslijed of patternsobrasci, and we storedućan them,
243
651000
4000
Mi svijet doživljavamo kroz niz obrazaca koje zatim pohranimo
11:20
and we recallpodsjetiti them. And when we recallpodsjetiti them, we matchutakmica them up
244
655000
3000
i kojih se prisjetimo. Kada ih se prisjetimo, uspoređujemo ih
11:23
againstprotiv realitystvarnost, and we're makingizrađivanje predictionspredviđanja all the time.
245
658000
4000
sa stvarnošću i putem njih neprestano predviđamo.
11:27
It's an eternalvječni metricmetrički. There's an eternalvječni metricmetrički about us sortvrsta of sayingizreka,
246
662000
3000
To je vječni metrični sustav. U nama je takav metrični sustav koji nam govori
11:30
do we understandrazumjeti the worldsvijet? Am I makingizrađivanje predictionspredviđanja? And so on.
247
665000
3000
razumijemo li svijet? Predviđam li? I tako dalje.
11:33
You're all beingbiće intelligentinteligentan right now, but you're not doing anything.
248
668000
2000
Svi ste sada inteligentni bez da išta radite.
11:35
Maybe you're scratchinggrebanje yourselfsami, or pickingbranje your nosenos,
249
670000
2000
Ne znam, možda se svrbite ili kopate nos,
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
ali upravo sada ne radite ništa,
11:39
but you're beingbiće intelligentinteligentan; you're understandingrazumijevanje what I'm sayingizreka.
251
674000
3000
ali jeste inteligentni, razumijete što vam sada govorim.
11:42
Because you're intelligentinteligentan and you speakgovoriti Englishengleski,
252
677000
2000
Zbog toga što ste inteligentni i govorite engleski
11:44
you know what wordriječ is at the endkraj of this -- (SilenceTišina)
253
679000
1000
znate koja je riječ na kraju ove -- (Tišina)
11:45
sentencekazna.
254
680000
2000
rečenice.
11:47
The wordriječ camedošao into you, and you're makingizrađivanje these predictionspredviđanja all the time.
255
682000
3000
Sjetili ste se riječi i takva predviđanja radite neprestano.
11:50
And then, what I'm sayingizreka is,
256
685000
2000
Ono što tvrdim je
11:52
is that the eternalvječni predictionproricanje is the outputizlaz in the neocortexneokorteks.
257
687000
2000
da su takva neprestana predviđanja „output“ neokorteksa.
11:54
And that somehownekako, predictionproricanje leadsvodi to intelligentinteligentan behaviorponašanje.
258
689000
3000
Ta predviđanja nekako dovode do inteligentnog ponašanja.
11:57
And here'sevo how that happensdogađa se. Let's startpočetak with a non-intelligentneinteligentnih brainmozak.
259
692000
3000
Evo kako se to događa. Počnimo s neinteligentnim mozgom.
12:00
Well I'll argueraspravljati a non-intelligentneinteligentnih brainmozak, we got holddržati of an oldstar brainmozak,
260
695000
4000
Tvrdit ćemo ovo s neinteligentnim mozgom, starim mozgom,
12:04
and we're going to say it's like a non-mammalsisavac, like a reptilegmaz,
261
699000
3000
koji nije poput mozga sisavaca, već je reptilski mozak,
12:07
so I'll say, an alligatoraligator; we have an alligatoraligator.
262
702000
2000
aligatorski, imamo mozak aligatora.
12:09
And the alligatoraligator has some very sophisticatedsofisticirana sensesosjetila.
263
704000
3000
Aligator ima vrlo sofisticirana osjetila.
12:12
It's got good eyesoči and earsuši and touchdodir sensesosjetila and so on,
264
707000
3000
Ima vrlo dobar vid i sluh, osjetilo dodira i tako dalje,
12:15
a mouthusta and a nosenos. It has very complexkompleks behaviorponašanje.
265
710000
4000
usta i nos. Ima složen način ponašanja.
12:19
It can runtrčanje and hidesakriti. It has fearsstrahovi and emotionsemocije. It can eatjesti you, you know.
266
714000
4000
Može trčati i može se sakriti. Ima strahove i osjećaje. Može vas pojesti.
12:23
It can attacknapad. It can do all kindsvrste of stuffstvari.
267
718000
4000
Može napasti. Može svašta raditi.
12:27
But we don't considerrazmotriti the alligatoraligator very intelligentinteligentan, not like in a humanljudski sortvrsta of way.
268
722000
5000
Ali aligatora ne smatramo vrlo inteligentnim, barem ne na ljudski način.
12:32
But it has all this complexkompleks behaviorponašanje alreadyveć.
269
727000
2000
Ali već posjeduje svo to komplicirano ponašanje.
12:34
Now, in evolutionevolucija, what happeneddogodilo?
270
729000
2000
Što se dogodilo tijekom evolucije?
12:36
First thing that happeneddogodilo in evolutionevolucija with mammalssisavci,
271
731000
3000
Prvo što se dogodilo tijekom evolucije kod sisavaca
12:39
we startedpočeo to developrazviti a thing calledzvao the neocortexneokorteks.
272
734000
2000
je to da smo razvili nešto što se zove neokorteks.
12:41
And I'm going to representpredstavljati the neocortexneokorteks here,
273
736000
2000
Dočarat ću neokorteks
12:43
by this boxkutija that's stickinglijepljenje on topvrh of the oldstar brainmozak.
274
738000
2000
pomoću ovog kvadrata koji se nalazi iznad starog mozga.
12:45
NeocortexNeokorteksa meanssredstva newnovi layersloj. It is a newnovi layersloj on topvrh of your brainmozak.
275
740000
3000
Neokorteks znači novi sloj. To je novi sloj na našem mozgu.
12:48
If you don't know it, it's the wrinklybučan thing on the topvrh of your headglava that,
276
743000
3000
Ako ne znate, to je ono smežurano na vrhu vašeg mozga,
12:51
it's got wrinklybučan because it got shovedgurnuo in there and doesn't fitodgovara.
277
746000
3000
smežurano je tako jer je ugurano unutra, a ne stane tamo.
12:54
(LaughterSmijeh)
278
749000
1000
(Smijeh)
12:55
No, really, that's what it is. It's about the sizeveličina of a tablestol napkinubrus.
279
750000
2000
Ne, stvarno je to to. Približno je veličine salvete.
12:57
And it doesn't fitodgovara, so it getsdobiva all wrinklybučan. Now look at how I've drawnnacrtan this here.
280
752000
3000
Kako ne stane, sav je zgužvan. Pogledajte kako sam nacrtao ovo.
13:00
The oldstar brainmozak is still there. You still have that alligatoraligator brainmozak.
281
755000
4000
Stari je mozak još uvijek ondje. Još uvijek imate aligatorski mozak.
13:04
You do. It's your emotionalemotivan brainmozak.
282
759000
2000
Da, imate. To je vaš emocionalan mozak.
13:06
It's all those things, and all those gutcrijevo reactionsreakcije you have.
283
761000
3000
On je sve one stvari, sve one intuitivne reakcije koje imate.
13:09
And on topvrh of it, we have this memorymemorija systemsistem calledzvao the neocortexneokorteks.
284
764000
3000
Povrh toga imamo memorijski sustav koji se zove neokorteks.
13:12
And the memorymemorija systemsistem is sittingsjedenje over the sensoryčulni partdio of the brainmozak.
285
767000
4000
Memorijski se dio nalazi iznad osjetilnog dijela mozga.
13:16
And so as the sensoryčulni inputulazni comesdolazi in and feedsfeedovi from the oldstar brainmozak,
286
771000
3000
Osjetilni unos dolazi i dobiva informacije od starog mozga
13:19
it alsotakođer goeside up into the neocortexneokorteks. And the neocortexneokorteks is just memorizingmemoriranje.
287
774000
4000
te odlazi u neokorteks. Neokorteks samo pamti.
13:23
It's sittingsjedenje there sayingizreka, ahAh, I'm going to memorizememorirati all the things that are going on:
288
778000
4000
Sjedi ondje i misli „zapamtit ću sve što se događa,
13:27
where I've been, people I've seenvidio, things I've heardčuo, and so on.
289
782000
2000
gdje sam bio, ljude koje sam vidio, stvari koje sam čuo i tako dalje“.
13:29
And in the futurebudućnost, when it seesvidi something similarsličan to that again,
290
784000
4000
I kada u budućnosti naiđe na nešto slično
13:33
so in a similarsličan environmentokolina, or the exacttočno sameisti environmentokolina,
291
788000
3000
u sličnom okruženju ili posve istom okruženju,
13:36
it'llto će playigrati it back. It'llTo ćete startpočetak playingigranje it back.
292
791000
2000
prisjetit će se starog doživljaja. Počet će ga ponovno doživljavati.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
„Oh, već sam bio ovdje. I kada si prošli put bio ovdje
13:40
this happeneddogodilo nextSljedeći. It allowsomogućuje you to predictpredvidjeti the futurebudućnost.
294
795000
3000
sljedeće se dogodilo ovo“. Omogućuje vam predviđanje budućnosti.
13:43
It allowsomogućuje you to, literallydoslovce it feedsfeedovi back the signalssignali into your brainmozak;
295
798000
4000
Doslovno vraća signale u mozak
13:47
they'lloni će let you see what's going to happendogoditi se nextSljedeći,
296
802000
2000
i omogućuje da vidite ono što će se sljedeće dogoditi,
13:49
will let you hearčuti the wordriječ "sentencekazna" before I said it.
297
804000
3000
omogućit će da čujete riječ „rečenica“ prije nego što vam je kažem.
13:52
And it's this feedinghranjenje back into the oldstar brainmozak
298
807000
3000
Upravo ovo vraćanje podataka u stari mozak
13:55
that'llto će allowdopustiti you to make very more intelligentinteligentan decisionsodluke.
299
810000
3000
je ono što vam omogućuje da donosite vrlo inteligentne odluke.
13:58
This is the mostnajviše importantvažno slideklizanje of my talk, so I'll dwellnastane on it a little bitbit.
300
813000
3000
Ovo je najvažniji dijapozitiv mog govora, pa ću se malo zadržati na njemu.
14:01
And so, all the time you say, oh, I can predictpredvidjeti the things.
301
816000
4000
Cijelo si vrijeme govorite „super, mogu predviđati stvari“.
14:05
And if you're a ratštakor and you go throughkroz a mazezbrka, and then you learnnaučiti the mazezbrka,
302
820000
3000
Da ste štakor i da prolazite kroz labirint, a zatim zapamtite labirint,
14:08
the nextSljedeći time you're in a mazezbrka, you have the sameisti behaviorponašanje,
303
823000
2000
sljedeći put kada ste u labirintu imate isti obrazac ponašanja,
14:10
but all of a suddennaglo, you're smarterpametnije
304
825000
2000
ali ste odjednom pametniji
14:12
because you say, oh, I recognizeprepoznati this mazezbrka, I know whichkoji way to go,
305
827000
3000
jer mislite „pa ja prepoznajem ovaj labirint, znam kuda trebam ići.
14:15
I've been here before, I can envisionpredvidjeti the futurebudućnost. And that's what it's doing.
306
830000
3000
Već sam bio ovdje, mogu predočiti budućnost“. To radi neokorteks.
14:18
In humansljudi -- by the way, this is truepravi for all mammalssisavci;
307
833000
3000
Kod ljudi, usput, i kod svih sisavaca,
14:21
it's truepravi for other mammalssisavci -- and in humansljudi, it got a lot worsegore.
308
836000
2000
postalo je malo gore.
14:23
In humansljudi, we actuallyzapravo developedrazvijen the frontispred partdio of the neocortexneokorteks
309
838000
3000
Ljudi su razvili prednji dio neokorteksa
14:26
calledzvao the anteriorprednji partdio of the neocortexneokorteks. And naturepriroda did a little tricktrik.
310
841000
4000
koji se zove anteriorni dio neokorteksa. Priroda se malo našalila.
14:30
It copiedkopira the posteriorstražnji partdio, the back partdio, whichkoji is sensoryčulni,
311
845000
2000
Kopirala je posteriorni dio, stražnji dio, koji je osjetilni,
14:32
and put it in the frontispred partdio.
312
847000
2000
i stavila ga naprijed.
14:34
And humansljudi uniquelyjedinstveno have the sameisti mechanismmehanizam on the frontispred,
313
849000
2000
Ljudi su jedinstveni jer imaju isti mehanizam sprijeda,
14:36
but we use it for motormotor controlkontrolirati.
314
851000
2000
ali ga koristimo za motoriku.
14:38
So we are now ableu stanju to make very sophisticatedsofisticirana motormotor planningplaniranje, things like that.
315
853000
3000
Zbog toga smo sposobni planirati sofisticirane motorne vještine i takve stvari.
14:41
I don't have time to get into all this, but if you want to understandrazumjeti how a brainmozak worksdjela,
316
856000
3000
Nemam se vremena baviti time, ali ako želite znati kako mozak funkcionira
14:44
you have to understandrazumjeti how the first partdio of the mammaliansisavaca neocortexneokorteks worksdjela,
317
859000
3000
morate razumjeti kako funkcionira prednji dio neokorteksa kod sisavaca,
14:47
how it is we storedućan patternsobrasci and make predictionspredviđanja.
318
862000
2000
način na koji pohranjujemo obrasce i predviđamo događaje.
14:49
So let me give you a fewnekoliko examplesprimjeri of predictionspredviđanja.
319
864000
3000
Evo nekoliko primjera predviđanja.
14:52
I alreadyveć said the wordriječ "sentencekazna." In musicglazba,
320
867000
2000
Već sam objasnio onaj primjer s riječi „rečenica“. U glazbi
14:54
if you've heardčuo a songpjesma before, if you heardčuo JillJill singpjevati those songsPjesme before,
321
869000
3000
ako ste pjesmu čuli prije, ako ste čuli nekoga da te pjesme već izvodi,
14:57
when she singspjeva them, the nextSljedeći noteBilješka popsStari into your headglava alreadyveć --
322
872000
3000
kada ih taj netko pjeva, sljedeća vam nota već padne na pamet --
15:00
you anticipatepredvidjeti it as you're going. If it was an albumalbum of musicglazba,
323
875000
2000
anticipirate ju kako slušate pjesmu. Ako se radi o glazbenom albumu,
15:02
the endkraj of one albumalbum, the nextSljedeći songpjesma popsStari into your headglava.
324
877000
3000
na kraju jednog albuma sljedeća će vam pjesma pasti na pamet.
15:05
And these things happendogoditi se all the time. You're makingizrađivanje these predictionspredviđanja.
325
880000
2000
Takve se stvari neprestano događaju. Vi radite ova predviđanja.
15:07
I have this thing calledzvao the alteredpromijenjen doorvrata thought experimenteksperiment.
326
882000
3000
Razvio sam pokus koji se zove misaoni eksperiment promijenjenih vrata.
15:10
And the alteredpromijenjen doorvrata thought experimenteksperiment sayskaže, you have a doorvrata at home,
327
885000
3000
On glasi, imate vrata kod kuće,
15:13
and when you're here, I'm changingmijenjanje it, I've got a guy
328
888000
3000
a kada ste ovdje ja ću ih promijeniti, imam svog čovjeka
15:16
back at your housekuća right now, movingkreće the doorvrata around,
329
891000
2000
u vašoj kući koji miče vrata uokolo;
15:18
and they're going to take your doorknobkvake and movepotez it over two inchesinča.
330
893000
2000
uzet ću vašu kvaku i pomaknuti ju pet centimetara.
15:20
And when you go home tonightvečeras, you're going to put your handruka out there,
331
895000
2000
Kada se navečer vratite kući i ispružite ruku,
15:22
and you're going to reachdohvatiti for the doorknobkvake and you're going to noticeobavijest
332
897000
2000
posegnut ćete za kvakom i primijetiti
15:24
it's in the wrongpogrešno spotmjesto, and you'llvi ćete go, whoastoj, something happeneddogodilo.
333
899000
3000
da je na krivom mjestu i reći ćete „hej, nešto se dogodilo“.
15:27
It maysvibanj take a seconddrugi to figurelik out what it was, but something happeneddogodilo.
334
902000
2000
Možda će vam trebati sekunda kako biste shvatili što, ali nešto se dogodilo.
15:29
Now I could changepromijeniti your doorknobkvake in other waysnačine.
335
904000
2000
Mogao bih promijeniti vašu kvaku na druge načine.
15:31
I can make it largerveći or smallermanji, I can changepromijeniti its brassmesing to silversrebro,
336
906000
2000
Mogao bih ju povećati ili smanjiti, promijeniti iz mjedene u srebrnu,
15:33
I could make it a leverpoluga. I can changepromijeniti your doorvrata, put colorsboje on;
337
908000
2000
mogao bih ju zamijeniti ručkom. Mogu promijeniti vaša vrata, obojati ih,
15:35
I can put windowsprozori in. I can changepromijeniti a thousandtisuću things about your doorvrata,
338
910000
3000
staviti prozore na njih. Mogu promijeniti tisuću stvari na njima
15:38
and in the two secondssekundi you take to openotvoren your doorvrata,
339
913000
2000
i u dvije sekunde, koliko vam je potrebno za otvaranje vrata,
15:40
you're going to noticeobavijest that something has changedpromijenjen.
340
915000
3000
primijetit ćete da se nešto promijenilo.
15:43
Now, the engineeringinženjering approachpristup to this, the AIAI approachpristup to this,
341
918000
2000
Inženjerski pristup ovome, pristup umjetne inteligencije,
15:45
is to buildizgraditi a doorvrata databasebaza podataka. It has all the doorvrata attributesatributi.
342
920000
3000
je da se napravi baza podataka s vratima, koja će imati sve atribute vrata.
15:48
And as you go up to the doorvrata, you know, let's checkprovjeriti them off one at time.
343
923000
3000
Kako se približavate vratima, atributi se eliminiraju jedan po jedan.
15:51
DoorVrata, doorvrata, doorvrata, you know, colorboja, you know what I'm sayingizreka.
344
926000
2000
Vrata, vrata, vrata, boja, znate o čemu pričam.
15:53
We don't do that. Your brainmozak doesn't do that.
345
928000
2000
Mi to ne radimo. Vaš mozak to ne radi.
15:55
What your brainmozak is doing is makingizrađivanje constantkonstantno predictionspredviđanja all the time
346
930000
2000
Ono što on radi je neprestano predviđa
15:57
about what is going to happendogoditi se in your environmentokolina.
347
932000
2000
što će se sljedeće dogoditi u vašem okruženju.
15:59
As I put my handruka on this tablestol, I expectočekivati to feel it stop.
348
934000
3000
Kada stavim ruku na ovaj stol, očekujem da će ju stol zaustaviti.
16:02
When I walkhodati, everysvaki stepkorak, if I missedpropustili it by an eighthosmi of an inchpalac,
349
937000
3000
Kada hodam, svaki korak, ako ga promašim za samo centimetar,
16:05
I'll know something has changedpromijenjen.
350
940000
2000
znat ću da se nešto promijenilo.
16:07
You're constantlykonstantno makingizrađivanje predictionspredviđanja about your environmentokolina.
351
942000
2000
Neprestano radite predviđanja o svojem okruženju.
16:09
I'll talk about visionvizija here brieflykratko. This is a pictureslika of a womanžena.
352
944000
3000
Kratko ću govoriti o percepciji. Ovo je fotografija žene.
16:12
And when you look at people, your eyesoči are caughtzatečen
353
947000
2000
Kada promatrate ljude vaše oči
16:14
over at two to threetri timesputa a seconddrugi.
354
949000
1000
prelaze preko njih dva do tri puta u sekundi.
16:15
You're not awaresvjestan of this, but your eyesoči are always movingkreće.
355
950000
2000
Vi toga niste svjesni, ali oči vam se neprestano miču.
16:17
And so when you look at someone'snetko facelice,
356
952000
2000
Kada gledate nečije lice
16:19
you'dti bi typicallytipično go from eyeoko to eyeoko to eyeoko to nosenos to mouthusta.
357
954000
2000
obično se krećete od oka do oka do oka do nosa do usta.
16:21
Now, when your eyeoko movespotezi from eyeoko to eyeoko,
358
956000
2000
Kada se vaše oko kreće od oka do oka,
16:23
if there was something elsedrugo there like, a nosenos,
359
958000
2000
ako bi tamo bilo nešto drugo, poput nosa,
16:25
you'dti bi see a nosenos where an eyeoko is supposedtrebala to be,
360
960000
2000
vidjeli biste nos na mjestu predviđenom za oko,
16:27
and you'dti bi go, oh shitsranje, you know --
361
962000
3000
ostali biste iznenađeni --
16:30
(LaughterSmijeh)
362
965000
1000
(Smijeh)
16:31
There's something wrongpogrešno about this personosoba.
363
966000
2000
Nešto nije u redu s ovom osobom.
16:33
And that's because you're makingizrađivanje a predictionproricanje.
364
968000
2000
To je zbog toga što predviđate.
16:35
It's not like you just look over there and say, what am I seeingvidim now?
365
970000
2000
Nije da samo pogledate prema tamo i kažete „što sada gledam“?
16:37
A nosenos, that's okay. No, you have an expectationočekivanja of what you're going to see.
366
972000
3000
Nos, to je u redu. Ne, imate očekivanje onoga što ćete vidjeti.
16:40
(LaughterSmijeh)
367
975000
1000
(Smijeh)
16:41
EverySvaki singlesingl momenttrenutak. And finallykonačno, let's think about how we testtest intelligenceinteligencija.
368
976000
4000
Svaki trenutak. I na kraju, razmislimo o tome kako mjerimo inteligenciju.
16:45
We testtest it by predictionproricanje. What is the nextSljedeći wordriječ in this, you know?
369
980000
3000
Mjerimo ju putem predviđanja. Koja je sljedeća riječ?
16:48
This is to this as this is to this. What is the nextSljedeći numberbroj in this sentencekazna?
370
983000
3000
Ovo je prema ovome kao ovo prema ovome. Koji je sljedeći broj u ovoj rečenici?
16:51
Here'sOvdje je threetri visionsvizije of an objectobjekt.
371
986000
2000
Ovo su tri vida objekta.
16:53
What's the fourthČetvrta one? That's how we testtest it. It's all about predictionproricanje.
372
988000
4000
Što je ovaj četvrti? Tako testiramo inteligenciju. Sve je u predviđanju.
16:57
So what is the reciperecept for brainmozak theoryteorija?
373
992000
3000
Koji je recept za teoriju mozga?
17:00
First of all, we have to have the right frameworkokvir.
374
995000
3000
Prije svega, potreban nam je dobar okvir.
17:03
And the frameworkokvir is a memorymemorija frameworkokvir,
375
998000
2000
To je memorijski okvir,
17:05
not a computationračunanje or behaviorponašanje frameworkokvir. It's a memorymemorija frameworkokvir.
376
1000000
2000
ne računalni ili bihevioralni okvir. Memorijski okvir.
17:07
How do you storedućan and recallpodsjetiti these sequencessekvence or patternsobrasci? It's spatio-temporalprostorno-vremensko patternsobrasci.
377
1002000
4000
Način na koji pohranjujete i na koji se prisjećate ovih scena i obrazaca? Radi se o prostorno-vremenskim obrascima.
17:11
Then, if in that frameworkokvir, you take a bunchmnogo of theoreticiansTeoretičari.
378
1006000
3000
Zatim, u tu teoriju okvira stavite hrpu teoretičara.
17:14
Now biologistsbiolozi generallyobično are not good theoreticiansTeoretičari.
379
1009000
2000
Biolozi uglavnom nisu dobri teoretičari.
17:16
It's not always truepravi, but in generalgeneral, there's not a good historypovijest of theoryteorija in biologybiologija.
380
1011000
4000
To nije uvijek istina, ali općenito govoreći, ne postoji dobra povijest teorije u biologiji.
17:20
So I foundpronađeno the bestnajbolje people to work with are physicistsfizičari,
381
1015000
3000
Otkrio sam kako je najbolje raditi s fizičarima,
17:23
engineersinženjeri and mathematiciansmatematičari, who tendskloni to think algorithmicallyalgorithmically.
382
1018000
3000
inženjerima i matematičarima jer su skloni algoritmičnom razmišljanju.
17:26
Then they have to learnnaučiti the anatomyanatomija, and they'vešto ga do got to learnnaučiti the physiologyfiziologija.
383
1021000
3000
Zatim moraju naučiti anatomiju i fiziologiju.
17:29
You have to make these theoriesteorije very realisticrealno in anatomicalanatomski termsUvjeti.
384
1024000
4000
Ove teorije moraju biti iznimno realistične u anatomskom smislu.
17:33
AnyoneBilo tko who getsdobiva up and tellsgovori you theirnjihov theoryteorija about how the brainmozak worksdjela
385
1028000
4000
Svatko tko vam kaže svoju teoriju o tome kako mozak funkcionira,
17:37
and doesn't tell you exactlytočno how it's workingrad in the brainmozak
386
1032000
2000
ali ne i kako sve točno radi u mozgu
17:39
and how the wiringožičenje worksdjela in the brainmozak, it is not a theoryteorija.
387
1034000
2000
i kako veze funkcioniraju u mozgu, ta osoba zapravo ne priča o teoriji.
17:41
And that's what we're doing at the RedwoodSekvoja NeuroscienceNeuroznanost InstituteInstitut.
388
1036000
3000
Ovime se bavimo u neuroznanstvenom inistitutu Redwood.
17:44
I would love to have more time to tell you we're makingizrađivanje fantasticfantastičan progressnapredak in this thing,
389
1039000
4000
Volio bih imati više vremena kako bih vam ispričao kakav smo izvanredni napredak postigli u ovom polju,
17:48
and I expectočekivati to be back up on this stagefaza,
390
1043000
2000
očekujem da ću se vratiti na ovu pozornicu,
17:50
maybe this will be some other time in the not too distantudaljen futurebudućnost and tell you about it.
391
1045000
2000
možda neki drugi put u ne tako dalekoj budućnosti i tada ću vam ispričati o tome.
17:52
I'm really, really exciteduzbuđen. This is not going to take 50 yearsgodina at all.
392
1047000
3000
Vrlo sam uzbuđen. Ovo neće trajati niti 50 godina.
17:55
So what will brainmozak theoryteorija look like?
393
1050000
2000
Kako će izgledati teorija o mozgu?
17:57
First of all, it's going to be a theoryteorija about memorymemorija.
394
1052000
2000
Prije svega, bit će to teorija o memoriji.
17:59
Not like computerračunalo memorymemorija. It's not at all like computerračunalo memorymemorija.
395
1054000
3000
Ne poput računalne memorije. Ništa nalik na računalnu memoriju,
18:02
It's very, very differentdrugačiji. And it's a memorymemorija of these very
396
1057000
2000
već vrlo vrlo drugačije. Radi se o memoriji ovakvih
18:04
high-dimensionalvisoko-dimenzionalni patternsobrasci, like the things that come from your eyesoči.
397
1059000
3000
visoko-dimenzijonalnih obrazaca, poput onoga što vidite očima.
18:07
It's alsotakođer memorymemorija of sequencessekvence.
398
1062000
2000
Radi se o memoriji slijedova.
18:09
You cannotNe možete learnnaučiti or recallpodsjetiti anything outsideizvan of a sequenceslijed.
399
1064000
2000
Ne možete naučiti nešto niti se prisjetiti nečega izvan slijeda.
18:11
A songpjesma mustmora be heardčuo in sequenceslijed over time,
400
1066000
3000
Pjesma se mora čuti u slijedu tijekom vremena
18:14
and you mustmora playigrati it back in sequenceslijed over time.
401
1069000
3000
i morate ju ponovno pustiti u slijedu tijekom vremena.
18:17
And these sequencessekvence are auto-associativelyauto-asocijativno recalledpodsjetio, so if I see something,
402
1072000
3000
Slijedova se auto-asocijativno prisjećamo; ako nešto vidimo,
18:20
I hearčuti something, it remindspodsjeća me of it, and then it playsigra back automaticallyautomatsko.
403
1075000
3000
nešto čujemo ili nas podsjeti na nešto, ono se automatski povrati.
18:23
It's an automaticAutomatsko playbackreprodukcije. And predictionproricanje of futurebudućnost inputsulazi is the desiredželjeni outputizlaz.
404
1078000
4000
To je automatski „playback“. Predviđanje budućih unosa je željeni iznos.
18:27
And as I said, the theoryteorija mustmora be biologicallybiološki accuratetočan,
405
1082000
3000
Kao što sam rekao, teorija mora biti biološki točna,
18:30
it mustmora be testabletestirati, and you mustmora be ableu stanju to buildizgraditi it.
406
1085000
2000
mora se dati testirati i izgraditi.
18:32
If you don't buildizgraditi it, you don't understandrazumjeti it. So, one more slideklizanje here.
407
1087000
4000
Ako ju ne možemo izgraditi, ne možemo ju niti razumijeti. Još jedan dijapozitiv.
18:36
What is this going to resultproizlaziti in? Are we going to really buildizgraditi intelligentinteligentan machinesstrojevi?
408
1091000
4000
Što će biti rezultat toga? Hoćemo li stvarno stvarati inteligentne strojeve?
18:40
AbsolutelyApsolutno. And it's going to be differentdrugačiji than people think.
409
1095000
4000
Sasvim sigurno. Bit će drugačiji od onoga što ljudi zamišljaju.
18:44
No doubtsumnjati that it's going to happendogoditi se, in my mindum.
410
1099000
3000
Bez sumnje će se to dogoditi.
18:47
First of all, it's going to be builtizgrađen up, we're going to buildizgraditi the stuffstvari out of siliconsilicij.
411
1102000
4000
Bit će izgrađen od silikona.
18:51
The sameisti techniquesTehnike we use for buildingzgrada siliconsilicij computerračunalo memoriessjećanja,
412
1106000
3000
Istu tehniku koju koristimo za silikonske računalne memorije
18:54
we can use for here.
413
1109000
1000
možemo iskoristiti i ovdje.
18:55
But they're very differentdrugačiji typesvrste of memoriessjećanja.
414
1110000
2000
No, to su sasvim drugačiji oblici memorije.
18:57
And we're going to attachpričvrstiti these memoriessjećanja to sensorssenzori,
415
1112000
2000
Te ćemo memorije spojiti sa senzorima,
18:59
and the sensorssenzori will experienceiskustvo real-livepravi živi, real-worldu stvarnom svijetu datapodaci,
416
1114000
3000
a oni će doživljavati stvarne podatke,
19:02
and these things are going to learnnaučiti about theirnjihov environmentokolina.
417
1117000
2000
i tako će učiti o svom okruženju.
19:04
Now it's very unlikelynevjerojatno the first things you're going to see are like robotsroboti.
418
1119000
3000
Malo je vjerojatno da će prvi takvi strojevi nalikovati robotima.
19:07
Not that robotsroboti aren'tnisu usefulkoristan and people can buildizgraditi robotsroboti.
419
1122000
3000
Ne da roboti nisu korisni i ljudi mogu graditi robote.
19:10
But the roboticsRobotika partdio is the hardestnajteži partdio. That's the oldstar brainmozak. That's really hardteško.
420
1125000
4000
Ali robotika je najteži dio. To je stari mozak. To je stvarno teško.
19:14
The newnovi brainmozak is actuallyzapravo kindljubazan of easierlakše than the oldstar brainmozak.
421
1129000
2000
Zapravo, novi je mozak na neki način jednostavniji od starog mozga.
19:16
So the first thing we're going to do are the things that don't requirezahtijevati a lot of roboticsRobotika.
422
1131000
3000
Prvo ćemo napraviti stvari za koje nije potrebno puno robotike.
19:19
So you're not going to see C-C-3POPO.
423
1134000
2000
Nećete vidjeti C-3PO-a.
19:21
You're going to more see things like, you know, intelligentinteligentan carsautomobili
424
1136000
2000
Prije ćete vidjeti nešto poput inteligentnih automobila
19:23
that really understandrazumjeti what trafficpromet is and what drivingvožnja is
425
1138000
3000
koji stvarno razumiju što je promet i što je vožnja
19:26
and have learnednaučeno that certainsiguran typesvrste of carsautomobili with the blinkersnaočnjaci on for halfpola a minuteminuta
426
1141000
3000
i koji će znati da određeni automobili, koji imaju pola minute uključen pokazivač smjera,
19:29
probablyvjerojatno aren'tnisu going to turnskretanje, things like that.
427
1144000
2000
vrlo vjerojatno neće skrenuti, takve stvari.
19:31
(LaughterSmijeh)
428
1146000
1000
(Smijeh)
19:32
We can alsotakođer do intelligentinteligentan securitysigurnosti systemssustavi.
429
1147000
2000
Možemo napraviti inteligentne sustave sigurnosti.
19:34
AnywhereBilo gdje where we're basicallyu osnovi usingkoristeći our brainmozak, but not doing a lot of mechanicsmehanika.
430
1149000
4000
Bavit ćemo se gotovo bilo kojim područjem u kojem koristimo mozak, ali ne i puno mehanike.
19:38
Those are the things that are going to happendogoditi se first.
431
1153000
2000
Takve će se stvari prve dogoditi.
19:40
But ultimatelyna kraju, the world'ssvijetu the limitograničiti here.
432
1155000
2000
Ali, na kraju krajeva, svijet je granica.
19:42
I don't know how this is going to turnskretanje out.
433
1157000
2000
Ne znam kako će to završiti.
19:44
I know a lot of people who inventedizumio the microprocessormikroprocesor
434
1159000
2000
Znam mnogo ljudi koji su izumili mikroprocesor
19:46
and if you talk to them, they knewznao what they were doing was really significantznačajan,
435
1161000
5000
i kada razgovarate s njima znali su da rade nešto vrlo značajno,
19:51
but they didn't really know what was going to happendogoditi se.
436
1166000
3000
ali zapravo nisu znali što će se dogoditi.
19:54
They couldn'tne mogu anticipatepredvidjeti cellćelija phonestelefoni and the InternetInternet and all this kindljubazan of stuffstvari.
437
1169000
5000
Nisu mogli anticipirati mobitele, Internet i sve te stvari.
19:59
They just knewznao like, hey, they were going to buildizgraditi calculatorsračunala
438
1174000
2000
Znali su da će napraviti kalkulatore
20:01
and trafficpromet lightsvjetlo controllerskontroleri. But it's going to be bigvelika.
439
1176000
2000
i kontrole semafora. Bit će to velika stvar.
20:03
In the sameisti way, this is like brainmozak scienceznanost and these memoriessjećanja
440
1178000
3000
Ovo je nalik na znanost o mozgu i ove će memorije
20:06
are going to be a very fundamentalosnovni technologytehnologija, and it's going to leaddovesti
441
1181000
3000
biti vrlo temeljna tehnologija koja će dovesti
20:09
to very unbelievablenevjerojatan changespromjene in the nextSljedeći 100 yearsgodina.
442
1184000
3000
do nevjerojatnih promjena u sljedećih 100 godina.
20:12
And I'm mostnajviše exciteduzbuđen about how we're going to use them in scienceznanost.
443
1187000
4000
Vrlo sam uzbuđen zbog načina na koji će se korisiti u znanosti.
20:16
So I think that's all my time, I'm over it, and I'm going to endkraj my talk
444
1191000
3000
Mislim da je ovo kraj moga vremena, premašio sam ga, ovdje ću završiti
20:19
right there.
445
1194000
1000
sa svojim govorom.
Translated by Zlatko Smetisko
Reviewed by Tilen Pigac - EFZG

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com