ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

Jeff Hawkins o tym, jak nauka o mózgu zmieni komputerologię.

Filmed:
1,674,773 views

Twórca Treo Jeff Hawkins nawołuje do nowego spojrzenia na mózg - nie jak na szybki procesor, ale jak na system pamięci, który składuje i odtwarza doświadczenia, by pomóc nam inteligentnie przewidywać co się stanie za chwilę.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I designprojekt mobilemobilny computerskomputery and I studybadanie brainsmózg.
0
0
3000
Robię dwie rzeczy. Projektuję mobilne komputery i badam mózgi.
00:29
And today'sdzisiaj talk is about brainsmózg and,
1
4000
2000
Dzisiejsza mowa jest na temat mózgów i,
00:31
yayyay, somewheregdzieś I have a brainmózg fanwentylator out there.
2
6000
2000
hurra, mam gdzieś tutaj fana mózgów.
00:33
(LaughterŚmiech)
3
8000
2000
(Śmiech)
00:35
I'm going to, if I can have my first slideślizgać się up here,
4
10000
2000
Jeśli mogę prosić o mój pierwszy slajd,
00:37
and you'llTy będziesz see the titletytuł of my talk and my two affiliationsprzynależność.
5
12000
4000
zobaczycie tytuł mojej prezentacji i moje dwa powiązania.
00:41
So what I'm going to talk about is why we don't have a good brainmózg theoryteoria,
6
16000
4000
Będę więc mówił o tym, czemu nie mamy dobrej teorii na temat mózgu,
00:45
why it is importantważny that we should developrozwijać one and what we can do about it.
7
20000
3000
czemu powinniśmy stworzyć takową i co możemy z tym zrobić.
00:48
And I'll try to do all that in 20 minutesminuty. I have two affiliationsprzynależność.
8
23000
3000
I spróbuję zrobić to wszystko w ciągu 20 minut. Mam dwa powiązania.
00:51
MostWiększość of you know me from my PalmPalmy and HandspringHandspring daysdni,
9
26000
3000
Większość z was zna mnie z czasów moich Palm i Handspring,
00:54
but I alsorównież runbiegać a nonprofitniedochodowy scientificnaukowy researchBadania instituteinstytut
10
29000
3000
ale przewodzę też instytutowi naukowemu typu non-profit,
00:57
callednazywa the RedwoodSekwoja NeuroscienceNeurologii InstituteInstytut in MenloMenlo ParkPark,
11
32000
2000
którego nazwa brzmi "Instytut Neuronauk Redwood w Menlo Park",
00:59
and we studybadanie theoreticalteoretyczny neuroscienceneuronauka,
12
34000
2000
i tam prowadzimy badania nad teorią neuronauk,
01:01
and we studybadanie how the neocortexneocortex worksPrace.
13
36000
2000
i badamy jak działa kora nowa (neokorteks).
01:03
I'm going to talk all about that.
14
38000
2000
Będę mówił właśnie o tym.
01:05
I have one slideślizgać się on my other life, the computerkomputer life, and that's the slideślizgać się here.
15
40000
3000
Mam jeden slajd o moim innym życiu, życiu komputerowym, i to jest ten slajd.
01:08
These are some of the productsprodukty I've workedpracował on over the last 20 yearslat,
16
43000
3000
To są niektóre produkty nad którymi pracowałem przez ponad 20 ostatnich lat,
01:11
startingstartowy back from the very originaloryginalny laptopkomputer przenośny to some of the first tablettabletka computerskomputery
17
46000
4000
zaczynając od pierwszych laptopów, poprzez pierwsze komputery biurkowe
01:15
and so on, and endingkończący się up mostwiększość recentlyostatnio with the TreoTreo,
18
50000
2000
i tak dalej, kończąc ostatnio na Treo,
01:17
and we're continuingciąg dalszy to do this.
19
52000
2000
i kontynuujemy to.
01:19
And I've doneGotowe this because I really believe that mobilemobilny computingprzetwarzanie danych
20
54000
2000
Robiłem to ponieważ szczerze wierzę, że mobilne komputery
01:21
is the futureprzyszłość of personalosobisty computingprzetwarzanie danych, and I'm tryingpróbować to make the worldświat
21
56000
3000
są przyszłością osobistej elektroniki i staram się uczynić świat
01:24
a little bitkawałek better by workingpracujący on these things.
22
59000
3000
odrobinę lepszym poprzez pracę nad nimi.
01:27
But this was, I have to admitprzyznać, all an accidentwypadek.
23
62000
2000
Ale to wszystko, muszę się przyznać, stało się przypadkiem.
01:29
I really didn't want to do any of these productsprodukty
24
64000
2000
Szczerze nie chciałem współtworzyć żadnego z tych produktów
01:31
and very earlywcześnie in my careerkariera I decidedzdecydowany
25
66000
2000
i bardzo wcześnie w swojej karierze postanowiłem
01:33
I was not going to be in the computerkomputer industryprzemysł.
26
68000
3000
że nie będę pracować w branży komputerowej.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
I nim opowiem wam o tym, muszę wam powiedzieć
01:38
this one little pictureobrazek of graffitigraffiti there I pickeddoborowy off the websieć the other day.
28
73000
2000
ten mały obraz graffiti który wziąłem z sieci pewnego dnia.
01:40
I was looking for a pictureobrazek of graffitigraffiti, little texttekst inputwkład languagejęzyk,
29
75000
3000
Szukałem obrazu graffiti, wpisałem odpowiednią komendę
01:43
and I founduznany the websitestronie internetowej dedicateddedykowane to teachersnauczyciele who want to make these,
30
78000
3000
i znalazłem stronę zadedykowaną nauczycielom, którzy chcą robić,
01:46
you know, the scriptskrypt writingpisanie things acrossprzez the topTop of theirich blackboardTablica,
31
81000
3000
wiecie co, te napisy umieszczane na górnej części tablicy szkolnej,
01:49
and they had addedw dodatku graffitigraffiti to it, and I'm sorry about that.
32
84000
3000
i dodali do nich graffiti, przepraszam za to.
01:52
(LaughterŚmiech)
33
87000
2000
(Śmiech)
01:54
So what happenedstało się was, when I was youngmłody and got out of engineeringInżynieria schoolszkoła
34
89000
5000
Więc kiedy byłem młodym absolwentem szkoły technicznej
01:59
at CornellCornell in '79, I decidedzdecydowany -- I wentposzedł to work for IntelProcesor Intel and
35
94000
4000
w Cornell w 1979 roku, postanowiłem, że będę pracował dla Intela.
02:03
I was in the computerkomputer industryprzemysł -- and threetrzy monthsmiesiące into that,
36
98000
3000
Po trzech miesiącach pracy w przemyśle komputerowym
02:06
I fellspadł in love with something elsejeszcze, and I said, "I madezrobiony the wrongźle careerkariera choicewybór here,"
37
101000
4000
zafascynowało mnie coś innego, powiedziałem wtedy: "Wybrałem zły zawód",
02:10
and I fellspadł in love with brainsmózg.
38
105000
3000
zafascynował mnie ludzki mózg.
02:13
This is not a realreal brainmózg. This is a pictureobrazek of one, a linelinia drawingrysunek.
39
108000
3000
To nie jest prawdziwy mózg. To obraz jednego, rysunek kreską.
02:16
But I don't rememberZapamiętaj exactlydokładnie how it happenedstało się,
40
111000
3000
Nie pamiętam dokładnie jak to się stało,
02:19
but I have one recollectionwspomnienie, whichktóry was prettyładny strongsilny in my mindumysł.
41
114000
3000
ale mam jedno wspomnienie, które cały czas tkwi w mojej głowie.
02:22
In SeptemberWrześnia 1979, ScientificNaukowych AmericanAmerykański cameoprawa ołowiana witrażu out
42
117000
3000
We wrześniu 1979 roku, wydanie magazynu Scientific American zostało
02:25
with a singlepojedynczy topictemat issuekwestia about the brainmózg. And it was quitecałkiem good.
43
120000
3000
w całości poświęcone mózgowi. To było całkiem udane wydanie.
02:28
It was one of the bestNajlepiej issuesproblemy ever. And they talkedrozmawialiśmy about the neuronneuron
44
123000
3000
Jedno z najlepszych wyadań tego magazynu. I zawierało artykuły o neuronach,
02:31
and developmentrozwój and diseasechoroba and visionwizja and all the things
45
126000
2000
o rozwoju mózgu, o jego schorzeniach, o wzroku i o wszystkich tych rzeczach,
02:33
you mightmoc want to know about brainsmózg. It was really quitecałkiem impressiveimponujący.
46
128000
3000
o których chciałbyś wiedzieć w kontekście mózgu. To było naprawdę imponujące.
02:36
And one mightmoc have the impressionwrażenie that we really knewwiedziałem a lot about brainsmózg.
47
131000
3000
To wszystko sprawiało wrażenie, że naprawdę dużo wiemy o mózgu.
02:39
But the last articleartykuł in that issuekwestia was writtenpisemny by FrancisFranciszek CrickCrick of DNADNA famesława.
48
134000
4000
Ale ostatni artykuł napisany był przez Francisa Cricka, jednego z odkrywców DNA.
02:43
TodayDzisiaj is, I think, the 50thth anniversaryrocznica of the discoveryodkrycie of DNADNA.
49
138000
3000
Dziś przypada, o ile się nie mylę, 50-ta rocznica odkrycia DNA.
02:46
And he wrotenapisał a storyfabuła basicallygruntownie sayingpowiedzenie,
50
141000
2000
Napisał artykuł, w którym stwierdził, że
02:48
well, this is all well and good, but you know what,
51
143000
3000
wszystko to wydaje się takie oczywiste, ale wiecie co,
02:51
we don't know diddleyDiddley squatSquat about brainsmózg
52
146000
2000
tak naprawdę wiemy bardzo mało o mózgu
02:53
and no one has a clueWskazówka how these things work,
53
148000
2000
i nikt nie ma pojęcia jak mózg funkcjonuje,
02:55
so don't believe what anyonektokolwiek tellsmówi you.
54
150000
2000
więc nie wierzcie w to, co mówią inni.
02:57
This is a quotezacytować from that articleartykuł. He said, "What is conspicuouslywidocznym lackingbrakuje,"
55
152000
3000
Oto cytat z tego artykułu. Powiedział "Czego wyraźnie nam brakuje,"
03:00
he's a very properprawidłowe BritishBrytyjskie gentlemanpan so, "What is conspicuouslywidocznym lackingbrakuje
56
155000
4000
jest bardzo poprawnym brytyjskim dżentelmenem, więc "Czego wyraźnie nam brakuje
03:04
is a broadszeroki frameworkstruktura of ideaspomysły in whichktóry to interpretzinterpretować these differentróżne approachesawanse."
57
159000
3000
to szeroka struktura koncepcji, dzięki którym uporządkujemy różne podejścia do mózgu"
03:07
I thought the wordsłowo frameworkstruktura was great.
58
162000
2000
Pomyślałem, że słowo struktura było świetnie dobrane.
03:09
He didn't say we didn't even have a theoryteoria. He saysmówi,
59
164000
2000
Nie powiedział, że nie mamy nawet teorii. Stwierdził, że
03:11
we don't even know how to beginzaczynać to think about it --
60
166000
2000
nie wiemy nawet jak zacząć myśleć o mózgu --
03:13
we don't even have a frameworkstruktura.
61
168000
2000
nie mamy nawet struktury koncepcji.
03:15
We are in the pre-paradigmparadygmat pre daysdni, if you want to use ThomasThomas KuhnKuhn.
62
170000
3000
Obecnie znajdujemy się na etapie pre-paradygmatu jak to ujął Thomas Kuhn.
03:18
And so I fellspadł in love with this, and said look,
63
173000
3000
Zafascynowało mnie to wszystko i pomyślałem, że
03:21
we have all this knowledgewiedza, umiejętności about brainsmózg. How hardciężko can it be?
64
176000
3000
mamy całą tą wiedzę na temat mózgu. Jak trudne to może być?
03:24
And this is something we can work on my lifetimeżycie. I feltczułem I could make a differenceróżnica,
65
179000
3000
To jest coś, czemu mogę poświęcić swoje życie. Czułem, że mogę coś zmienić,
03:27
and so I triedwypróbowany to get out of the computerkomputer businessbiznes, into the brainmózg businessbiznes.
66
182000
4000
więc spróbowałem odejść z branży komputerowej i zająć się badaniem mózgu.
03:31
First, I wentposzedł to MITMIT, the AIAI lablaboratorium was there,
67
186000
2000
Udałem się do MIT, gdzie zajmowano się badaniem sztucznej inteligencji
03:33
and I said, well, I want to buildbudować intelligentinteligentny machinesmaszyny, too,
68
188000
2000
i powiedziałem, że także chcę budować inteligentne maszyny,
03:35
but the way I want to do it is to studybadanie how brainsmózg work first.
69
190000
3000
ale aby to robić chcę najpierw poznać funkcjonowanie ludzkiego mózgu.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
Odpowiedzieli, że nie jest to konieczne.
03:41
We're just going to programprogram computerskomputery; that's all we need to do.
71
196000
2000
Zamierzamy tylko programować komputery, to wszystko co musimy zrobić.
03:43
And I said, no, you really oughtpowinni to studybadanie brainsmózg. They said, oh, you know,
72
198000
3000
Odpowiedziałem, że naprawdę powinni najpierw poznać mózg. Stwierdzili, że
03:46
you're wrongźle. And I said, no, you're wrongźle, and I didn't get in.
73
201000
2000
się mylę. A ja na to, że oni się mylą i ostatecznie nie dostałem pracy.
03:48
(LaughterŚmiech)
74
203000
1000
(Śmiech)
03:50
But I was a little disappointedrozczarowany -- prettyładny youngmłody -- but I wentposzedł back again
75
205000
2000
Ale byłem trochę rozczarowany -- dosyć młody, ale spróbowałem jeszcze raz
03:52
a fewkilka yearslat laterpóźniej and this time was in CaliforniaCalifornia, and I wentposzedł to BerkeleyBerkeley.
76
207000
3000
kilka lat później, tym razem w Kalifornii, udałem się do Berkeley.
03:55
And I said, I'll go in from the biologicalbiologiczny sidebok.
77
210000
4000
Powiedziałem sobie, że spróbuję poznać biologiczną stronę zagadnienia.
03:59
So I got in -- in the PhPH.D. programprogram in biophysicsbiofizyka, and I was, all right,
78
214000
3000
Więc zdecydowałem się na studia doktoranckie z biofizyki,
04:02
I'm studyingstudiować brainsmózg now, and I said, well, I want to studybadanie theoryteoria.
79
217000
3000
więc powiedziałem im, że chcę studiować teorię.
04:05
And they said, oh no, you can't studybadanie theoryteoria about brainsmózg.
80
220000
2000
Odpowiedzieli, że nie mogę studiować teorii na temat mózgu.
04:07
That's not something you do. You can't get fundedfinansowane for that.
81
222000
2000
To nie działa w ten sposób. Nie otrzymasz funduszy na ten cel.
04:09
And as a graduateukończyć studentstudent, you can't do that. So I said, oh my goshBoże.
82
224000
4000
A jako absolwent nie możesz tego robić. Więc pomyślałem że to już koniec.
04:13
I was very depressedprzygnębiony. I said, but I can make a differenceróżnica in this fieldpole.
83
228000
2000
Byłem bardzo załamany. Ale pomyślałem, że mogę dokonać zmian w tej dziedzinie.
04:15
So what I did is I wentposzedł back in the computerkomputer industryprzemysł
84
230000
3000
Więc wróciłem do branży komputerowej
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
i powiedziałem, że muszę tu popracować przez jakiś czas.
04:20
That's when I designedzaprojektowany all those computerkomputer productsprodukty.
86
235000
3000
To właśnie wtedy zaprojektowałem wszystkie te urządzenia.
04:23
(LaughterŚmiech)
87
238000
1000
(Śmiech)
04:24
And I said, I want to do this for fourcztery yearslat, make some moneypieniądze,
88
239000
3000
I pomyślałem, że chcę zająć się tym przez cztery lata, zarobić trochę pieniędzy,
04:27
like I was havingmający a familyrodzina, and I would maturedojrzałe a bitkawałek,
89
242000
4000
tak jakbym miał własną rodzinę i dojrzałbym odrobinę
04:31
and maybe the businessbiznes of neuroscienceneuronauka would maturedojrzałe a bitkawałek.
90
246000
3000
i może przez ten czas biznes neuronauk by dojrzał trochę.
04:34
Well, it tookwziął longerdłużej than fourcztery yearslat. It's been about 16 yearslat.
91
249000
3000
No, ale zajęło mi to dłużej niż cztery lata. To było około 16 lat.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
Ale teraz się tym zajmuję i chcę wam o tym opowiedzieć.
04:39
So why should we have a good brainmózg theoryteoria?
93
254000
3000
Więc dlaczego powinniśmy mieć dobrą teorię mózgu?
04:42
Well, there's lots of reasonspowody people do sciencenauka.
94
257000
3000
Istnieje wiele powodów, dla których ludzie zajmują się nauką.
04:45
One is -- the mostwiększość basicpodstawowy one is -- people like to know things.
95
260000
3000
Pierwszym -- najbardziej oczywistym -- jest to, że ludzie lubią wiedzieć.
04:48
We're curiousciekawy, and we just go out and get knowledgewiedza, umiejętności, you know?
96
263000
2000
Jesteśmy ciekawi świata, więc poznajemy go i zdobywamy wiedzę, prawda?
04:50
Why do we studybadanie antsmrówki? Well, it's interestingciekawy.
97
265000
2000
Dlaczego studiujemy życie mrówek? Dlatego, że to ineteresujące.
04:52
Maybe we'lldobrze learnuczyć się something really usefulprzydatny about it, but it's interestingciekawy and fascinatingfascynujący.
98
267000
3000
Może dowiemy się czegoś pożytecznego, ale to interesujące i fascynujące zajęcie.
04:55
But sometimesczasami, a sciencenauka has some other attributesatrybuty
99
270000
2000
Ale czasem, nauka ma inne cechy,
04:57
whichktóry makesczyni it really, really interestingciekawy.
100
272000
2000
które sprawiają, że jest bardzo, bardzo interesująca.
04:59
SometimesCzasami a sciencenauka will tell something about ourselvesmy sami,
101
274000
3000
Czasami nauka powie nam coś o nas samych,
05:02
it'llbędzie tell us who we are.
102
277000
1000
odpowie na pytanie kim jesteśmy.
05:03
RarelyRzadko, you know: evolutionewolucja did this and CopernicusKopernik did this,
103
278000
3000
Czasem takie odkrycia jak teoria ewolucji czy teoria Kopernika sprawiają,
05:06
where we have a newNowy understandingzrozumienie of who we are.
104
281000
2000
że na nowo odkrywamy kim jesteśmy.
05:08
And after all, we are our brainsmózg. My brainmózg is talkingmówić to your brainmózg.
105
283000
4000
A tak naprawdę jesteśmy mózgami. Mój mózg mówi do twojego mózgu.
05:12
Our bodiesciała are hangingwiszące alongwzdłuż for the ridejazda, but my brainmózg is talkingmówić to your brainmózg.
106
287000
3000
Nasze ciała kroczą obok siebie, ale to mój mózg mówi do twojego mózgu.
05:15
And if we want to understandzrozumieć who we are and how we feel and perceivepostrzegają,
107
290000
3000
I jeśli chcemy zrozumieć kim jesteśmy, jak odczuwamy i postrzegamy,
05:18
we really understandzrozumieć what brainsmózg are.
108
293000
2000
naprawdę powiniśmy zrozumieć czym jest mózg.
05:20
AnotherInnym thing is sometimesczasami sciencenauka
109
295000
2000
Inną zaletą nauki jest czasem to,
05:22
leadswskazówki to really bigduży societalspołeczne benefitskorzyści and technologiestechnologie,
110
297000
2000
że prowadzi do naprawdę wielkich korzyści dla społeczeństwa i technologii,
05:24
or businessesbiznes, or whatevercokolwiek, that come out of it. And this is one, too,
111
299000
2000
albo dla biznesu czy czegokolwiek innego. I to jest także ważne,
05:26
because when we understandzrozumieć how brainsmózg work, we're going to be ablezdolny
112
301000
3000
ponieważ, kiedy zrozumiemy funkcjonowanie mózgu będziemy w stanie
05:29
to buildbudować intelligentinteligentny machinesmaszyny, and I think that's actuallytak właściwie a good thing on the wholecały,
113
304000
3000
budować inteligentne maszyny i myślę, że to jest naprawdę wielką zaletą
05:32
and it's going to have tremendousogromny benefitskorzyści to societyspołeczeństwo,
114
307000
2000
i że będzie to miało bardzo pozytywny wpływ na społeczeństwo
05:34
just like a fundamentalfundamentalny technologytechnologia.
115
309000
2000
tak jak dotychczasowy wpływ technologii.
05:36
So why don't we have a good theoryteoria of brainsmózg?
116
311000
2000
Więc dlaczego nie mamy dobrej teorii mózgu?
05:38
And people have been workingpracujący on it for 100 yearslat.
117
313000
3000
Prace nad taką teorią trwają już od 100 lat.
05:41
Well, let's first take a look at what normalnormalna sciencenauka lookswygląda like.
118
316000
2000
A więc, spójrzmy najpierw na to, jak wygląda normalna nauka.
05:43
This is normalnormalna sciencenauka.
119
318000
2000
To jest normalna nauka.
05:45
NormalNormalne sciencenauka is a nicemiły balancesaldo betweenpomiędzy theoryteoria and experimentalistseksperymentatorów.
120
320000
4000
Normalna nauka jest harmonią pomiędzy teorią, a eksperymentatorami.
05:49
And so the theoristteoretyk guys say, well, I think this is what's going on,
121
324000
2000
A więc, teoretycy mówią, ok, myślę - stanie się tak a nie inaczej,
05:51
and the experimentalisteksperymentator saysmówi, no, you're wrongźle.
122
326000
2000
a na to eksperymentatorzy odpowiadają, nie, mylicie się.
05:53
And it goesidzie back and forthnaprzód, you know?
123
328000
2000
I tak w kółko, wiecie co mam na myśli?
05:55
This worksPrace in physicsfizyka. This worksPrace in geologyGeologia. But if this is normalnormalna sciencenauka,
124
330000
2000
Sprawdza się to w fizyce. Sprawdza w geologii. Ale jeśli to jest normalna nauka,
05:57
what does neuroscienceneuronauka look like? This is what neuroscienceneuronauka lookswygląda like.
125
332000
3000
to jak wygląda neuronauka? Oto jak wygląda neuronauka.
06:00
We have this mountainGóra of datadane, whichktóry is anatomyanatomia, physiologyfizjologia and behaviorzachowanie.
126
335000
5000
Zawiera mnóstwo informacji z anatomii, fizjologii i nauce o zachowaniu.
06:05
You can't imaginewyobrażać sobie how much detailSzczegół we know about brainsmózg.
127
340000
3000
Nie potraficie sobie wyobrazić jak wiele informacji mamy o mózgu.
06:08
There were 28,000 people who wentposzedł to the neuroscienceneuronauka conferencekonferencja this yearrok,
128
343000
4000
Naliczyliśmy 28,000 uczestników na tegorocznej konferencji dotyczącej neuronauki
06:12
and everykażdy one of them is doing researchBadania in brainsmózg.
129
347000
2000
i każdy z tych uczestników zajmuje się badaniami mózgu.
06:14
A lot of datadane. But there's no theoryteoria. There's a little, wimpyWimpy boxpudełko on topTop there.
130
349000
4000
Mnóstwo informacji. Ale nie istnieje jeszcze jedna teoria. Jest tam tylko małe, pole na górze.
06:18
And theoryteoria has not playedgrał a rolerola in any sortsortować of grandwielki way in the neurosciencesNeurosciences.
131
353000
5000
I teoria nie miała żadnego wielkiego wpływu na rozwój neuronauk.
06:23
And it's a realreal shamewstyd. Now why has this come about?
132
358000
3000
To naprawdę wielki wstyd. Więc dlaczego tak się dzieje?
06:26
If you askzapytać neuroscientistsneurolodzy, why is this the statestan of affairromans,
133
361000
2000
Jeśli zapytasz neuronaukowców dlaczego tak właśnie jest?
06:28
they'lloni to zrobią first of all admitprzyznać it. But if you askzapytać them, they'lloni to zrobią say,
134
363000
3000
Przede wszystkiem zgodzą się z tym. Ale, jeśli ich zapytasz to odpowiedzą,
06:31
well, there's variousróżnorodny reasonspowody we don't have a good brainmózg theoryteoria.
135
366000
3000
że istnieje wiele powodów, dla których nie dysponujemy dobrą teorią mózgu.
06:34
Some people say, well, we don't still have enoughdość datadane,
136
369000
2000
Niektórzy powiedzą, że nie dysponujemy jeszcze wystarczającą ilością informacji,
06:36
we need to get more informationInformacja, there's all these things we don't know.
137
371000
3000
że musimy zdobyć ich więcej, zbyt wiele jeszcze nie wiemy.
06:39
Well, I just told you there's so much datadane comingprzyjście out your earsuszy.
138
374000
3000
Ale przecież powiedziałem wam, że mamy tak wiele informacji na temat mózgu.
06:42
We have so much informationInformacja, we don't even know how to beginzaczynać to organizezorganizować it.
139
377000
3000
Mamy tak dużo informacji; nie wiemy jak zacząć organizować te wszystkie dane.
06:45
What good is more going to do?
140
380000
2000
Co dobrego możemy jeszcze zrobić?
06:47
Maybe we'lldobrze be luckySzczęściarz and discoverodkryć some magicmagia thing, but I don't think so.
141
382000
3000
Może będziemy mieli szczęście i odkryjemy magiczną formułę, ale nie sądzę.
06:50
This is actuallytak właściwie a symptomObjaw of the factfakt that we just don't have a theoryteoria.
142
385000
3000
To tak naprawdę symptom tego, że nie posiadamy jeszcze teorii dot. mózgu.
06:53
We don't need more datadane -- we need a good theoryteoria about it.
143
388000
3000
Nie potrzebujemy jeszcze więcej informacji -- potrzebujemy dobrej teorii.
06:56
AnotherInnym one is sometimesczasami people say, well, brainsmózg are so complexzłożony,
144
391000
3000
Czasem ludzie twierdzą, że mózg jest tak skomplikowanym organem,
06:59
it'llbędzie take anotherinne 50 yearslat.
145
394000
2000
że poznanie go zajmie jeszcze 50 lat.
07:01
I even think ChrisChris said something like this yesterdaywczoraj.
146
396000
2000
Myślę, że Chris powiedział nawet coś podobnego wczoraj.
07:03
I'm not sure what you said, ChrisChris, but something like,
147
398000
2000
Nie jestem pewien co powiedziałeś Chris, ale to było coś takiego, że
07:05
well, it's one of the mostwiększość complicatedskomplikowane things in the universewszechświat. That's not trueprawdziwe.
148
400000
3000
mózg jest najbardziej skomplikowaną strukturą we wszechświecie. Nie zgadzam się z tym.
07:08
You're more complicatedskomplikowane than your brainmózg. You've got a brainmózg.
149
403000
2000
Myślę, że jesteś bardziej skomplikowany niż twój mózg. Masz mózg.
07:10
And it's alsorównież, althoughmimo że the brainmózg lookswygląda very complicatedskomplikowane,
150
405000
2000
I pomimo tego, że mózg wydaje się być skomplikowanym organem,
07:12
things look complicatedskomplikowane untilaż do you understandzrozumieć them.
151
407000
3000
to myślę, że rzeczy pozostają skomplikowane, dopóty dopóki ich nie zrozumiemy.
07:15
That's always been the casewalizka. And so all we can say, well,
152
410000
3000
Zawsze tak było. Więc wszystko co możemy powiedzieć, to że
07:18
my neocortexneocortex, whichktóry is the partczęść of the brainmózg I'm interestedzainteresowany in, has 30 billionmiliard cellskomórki.
153
413000
4000
kora nowa, będąca częścią mózgu, którą się interesuję, ma 30 miliardów komórek.
07:22
But, you know what? It's very, very regularregularny.
154
417000
2000
Ale wiecie co? Ta część mózgu jest bardzo, bardzo regularna.
07:24
In factfakt, it lookswygląda like it's the samepodobnie thing repeatedpowtarzający się over and over and over again.
155
419000
3000
Wyglądem przypomina powtarzającą się strukturę.
07:27
It's not as complexzłożony as it lookswygląda. That's not the issuekwestia.
156
422000
3000
Nie jest tak skomplikowana jak się wydaje. To nie jest sedno sprawy.
07:30
Some people say, brainsmózg can't understandzrozumieć brainsmózg.
157
425000
2000
Niektórzy mówią, że mózg nie może zwyczajnie zrozumieć mózgu.
07:32
Very Zen-likeZen jak. WhooWhoo. (LaughterŚmiech)
158
427000
3000
To trochę w stylu zen. Uuuuu. Wiecie o co mi chodzi --
07:35
You know,
159
430000
1000
(Śmiech)
07:36
it soundsDźwięki good, but why? I mean, what's the pointpunkt?
160
431000
3000
Brzmi całkiem dobrze, ale dlaczego? Jaki to ma sens?
07:39
It's just a bunchwiązka of cellskomórki. You understandzrozumieć your liverwątroba.
161
434000
3000
To przecież tylko zlepek komórek. Rozumiesz działanie swojej wątroby.
07:42
It's got a lot of cellskomórki in it too, right?
162
437000
2000
Także składa się z wielu komórek, prawda?
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
Myślę więc, że to nie ma wielkiego znaczenia.
07:46
And finallywreszcie, some people say, well, you know,
164
441000
2000
I na koniec, niektórzy mówią, że
07:48
I don't feel like a bunchwiązka of cellskomórki, you know. I'm consciousprzytomny.
165
443000
4000
nie jestem tylko zlepkiem komórek. Mam przecież świadomość.
07:52
I've got this experiencedoświadczenie, I'm in the worldświat, you know.
166
447000
2000
Doświadczam życia, jestem na świecie.
07:54
I can't be just a bunchwiązka of cellskomórki. Well, you know,
167
449000
2000
Nie mogę być tylko zlepkiem komórek. No tak,
07:56
people used to believe there was a life forcesiła to be livingżycie,
168
451000
3000
ludzie wierzyli kiedyś, że istnieje pewna siła, sprawiająca, że żyjemy
07:59
and we now know that's really not trueprawdziwe at all.
169
454000
2000
i wiemy dziś, że to wcale nie jest prawda.
08:01
And there's really no evidencedowód that saysmówi -- well, other than people
170
456000
3000
I naprawdę nie ma dowodów, które potwierdzają, no może poza ludźmi
08:04
just have disbeliefniedowierzanie that cellskomórki can do what they do.
171
459000
2000
którzy zwyczajnie nie wierzą w to, że komórki potrafią to co potrafią.
08:06
And so, if some people have fallenupadły into the pitPit of metaphysicalmetafizyczny dualismdualizm,
172
461000
3000
I tak jeśli niektórzy ludzie wpadli w pułapkę metafizycznego dualizmu,
08:09
some really smartmądry people, too, but we can rejectodrzucić all that.
173
464000
3000
niektórzy mądrzy ludzie także, to możemy się tym nie przejmować.
08:12
(LaughterŚmiech)
174
467000
2000
(Śmiech)
08:14
No, I'm going to tell you there's something elsejeszcze,
175
469000
3000
Zamierzam wam powiedzieć, że jest coś jeszcze,
08:17
and it's really fundamentalfundamentalny, and this is what it is:
176
472000
2000
i to jest naprawdę istotne, to jest to:
08:19
there's anotherinne reasonpowód why we don't have a good brainmózg theoryteoria,
177
474000
2000
istnieje kolejny powód, dla którego nie dysponujemy dobrą teorią mózgu,
08:21
and it's because we have an intuitiveintuicyjny, strongly-heldzdecydowanie się,
178
476000
3000
i to dlatego, że jest w nas intuicyjne, głęboko zakorzenione,
08:24
but incorrectnieprawidłowe assumptionzałożenie that has preventedzapobiegł us from seeingwidzenie the answerodpowiedź.
179
479000
5000
ale nieprawdziwe założenie, które nie pozwala nam dostrzec prawdy.
08:29
There's something we believe that just, it's obviousoczywisty, but it's wrongźle.
180
484000
3000
Jest coś w co wierzymy, że jest oczywiste, ale zarazem jest złe.
08:32
Now, there's a historyhistoria of this in sciencenauka and before I tell you what it is,
181
487000
4000
Istnieje to w historii nauki i zanim powiem wam, co to jest,
08:36
I'm going to tell you a bitkawałek about the historyhistoria of it in sciencenauka.
182
491000
2000
zamierzam opowiedzieć wam trochę o historii tego w nauce.
08:38
You look at some other scientificnaukowy revolutionsrewolucje,
183
493000
2000
Patrzycie na kilka innych naukowych rewolucji,
08:40
and this casewalizka, I'm talkingmówić about the solarsłoneczny systemsystem, that's CopernicusKopernik,
184
495000
2000
w tym przypadku mówię o systemie słonecznym, mówię o Koperniku,
08:42
Darwin'sDarwina evolutionewolucja, and tectonictektoniczne platespłyty, that's WegenerWegener.
185
497000
3000
teoria ewolucji Darwina oraz płyty tektoniczne, mam na myśli Wegenera.
08:45
They all have a lot in commonpospolity with brainmózg sciencenauka.
186
500000
3000
Wszyscy oni mają wiele wspólnego z nauką o mózgu.
08:48
First of all, they had a lot of unexplainedniewyjaśnione datadane. A lot of it.
187
503000
3000
Przede wszystkim, wszyscy mieli mnóstwo niewyjaśnionych danych. Mnóstwo.
08:51
But it got more manageablew zarządzaniu oncepewnego razu they had a theoryteoria.
188
506000
3000
Ale stały się one bardziej zrozumiałe, kiedy stworzyli teorię.
08:54
The bestNajlepiej mindsumysły were stumpedzakłopotany -- really, really smartmądry people.
189
509000
3000
Najlepsze umysły miały z tym kłopot, naprawdę, bardzo mądrzy ludzie.
08:57
We're not smartermądrzejszy now than they were then.
190
512000
2000
Nie jesteśmy dziś wcale mądrzejsi od nich.
08:59
It just turnsskręca out it's really hardciężko to think of things,
191
514000
2000
Okazuje się, że jest naprawdę trudno myśleć o zjawiskach,
09:01
but oncepewnego razu you've thought of them, it's kinduprzejmy of easyłatwo to understandzrozumieć it.
192
516000
2000
ale poznając je stopniowo jesteśmy w stanie je łatwiej zrozumieć.
09:03
My daughterscórki understoodzrozumiany these threetrzy theoriesteorie
193
518000
2000
Moje córki zrozumiały te trzy naukowe teorie,
09:05
in theirich basicpodstawowy frameworkstruktura by the time they were in kindergartenPrzedszkole.
194
520000
3000
w ramach ogólnych, będąc jeszcze w przedszkolu.
09:08
And now it's not that hardciężko, you know, here'soto jest the applejabłko, here'soto jest the orangePomarańczowy,
195
523000
3000
Teraz nie jest tak trudno, sami wiecie, tutaj jest jabłko, tutaj jest pomarańcza,
09:11
you know, the EarthZiemia goesidzie around, that kinduprzejmy of stuffrzeczy.
196
526000
3000
Ziemia krąży wokół Słońca, tego typu rzeczy.
09:14
FinallyWreszcie, anotherinne thing is the answerodpowiedź was there all alongwzdłuż,
197
529000
2000
Wreszcie, prawdą jest to, że odpowiedzi na te pytania zawsze tam były,
09:16
but we kinduprzejmy of ignoredignorowane it because of this obviousoczywisty thing, and that's the thing.
198
531000
3000
ale ignorowaliśmy je, ponieważ były zbyt oczywiste, i w tym właśnie był problem.
09:19
It was an intuitiveintuicyjny, strong-heldsilne posiadanych beliefwiara that was wrongźle.
199
534000
3000
To te intuicyjne, głęboko zakorzenione przekonanie było złe.
09:22
In the casewalizka of the solarsłoneczny systemsystem, the ideapomysł that the EarthZiemia is spinningspinning
200
537000
3000
W przypadku systemu słonecznego,to pomysł, że Ziemia wiruje
09:25
and the surfacepowierzchnia of the EarthZiemia is going like a thousandtysiąc milesmile an hourgodzina,
201
540000
3000
a powierzchnia planety pędzi z prędkością tysiąca mil na godzinę,
09:28
and the EarthZiemia is going throughprzez the solarsłoneczny systemsystem about a millionmilion milesmile an hourgodzina.
202
543000
3000
i że Ziemia pędzi z prędkością miliona mil na godzinę przez system słoneczny.
09:31
This is lunacyobłęd. We all know the EarthZiemia isn't movingw ruchu.
203
546000
2000
To obłęd. Wszycy wiemy, że Ziemia się nie rusza.
09:33
Do you feel like you're movingw ruchu a thousandtysiąc milesmile an hourgodzina?
204
548000
2000
Czy czujesz, że Ziemia porusza się z prędkością tysiąca mil na godzinę?
09:35
Of coursekurs not. You know, and someonektoś who said,
205
550000
2000
Oczywiście, że nie. Widzicie, a ktoś kto stwierdził,
09:37
well, it was spinningspinning around in spaceprzestrzeń and it's so hugeolbrzymi,
206
552000
2000
że kręci się wokół własnej osi w przestrzeni i jest ogromna,
09:39
they would lockzamek you up, and that's what they did back then.
207
554000
2000
mógł zostać zamknięty w więzieniu, tak się właśnie działo w tamtych czasach.
09:41
(LaughterŚmiech)
208
556000
1000
(Śmiech)
09:42
So it was intuitiveintuicyjny and obviousoczywisty. Now what about evolutionewolucja?
209
557000
3000
Więc to było intuicyjne i oczywiste myślenie. A jak to było z teorią ewolucji?
09:45
Evolution'sEvolution the samepodobnie thing. We taughtnauczony our kidsdzieciaki, well, the BibleBiblii saysmówi,
210
560000
3000
Z teorią ewolucji było podobnie. Uczyliśmy nasze dzieci, Biblia mówi,
09:48
you know, God createdstworzony all these speciesgatunki, catskoty are catskoty, dogspsy are dogspsy,
211
563000
2000
że Bóg stworzył wszystkie gatunki zwierząt, koty są kotami, psy psami,
09:50
people are people, plantsrośliny are plantsrośliny, they don't changezmiana.
212
565000
3000
ludzie są ludźmi, rośliny roślinami, nie zmieniają się.
09:53
NoahNoah put them on the ArkArk in that orderzamówienie, blahbla, blahbla, blahbla. And, you know,
213
568000
4000
Noe zamknął je wszystkie w arce na rozkaz Pana, bla, bla, bla. I wiecie co,
09:57
the factfakt is, if you believe in evolutionewolucja, we all have a commonpospolity ancestorprzodek,
214
572000
4000
faktem jest, że jeśli wierzycie w ewolucje, to wszyscy mamy tego samego przodka,
10:01
and we all have a commonpospolity ancestrypochodzenie with the plantroślina in the lobbylobby.
215
576000
3000
i wszyscy mamy wspólnego przodka wliczając tę roślinkę w korytarzu.
10:04
This is what evolutionewolucja tellsmówi us. And, it's trueprawdziwe. It's kinduprzejmy of unbelievablenie do wiary.
216
579000
3000
Tak mówi nam teoria ewolucji. I to jest prawda. To wydaje się nieprawdopodobne.
10:07
And the samepodobnie thing about tectonictektoniczne platespłyty, you know?
217
582000
3000
To samo dotyczy teorii plyt tektonicznych, wiecie?
10:10
All the mountainsgóry and the continentskontynenty are kinduprzejmy of floatingRuchomy around
218
585000
2000
Wszystkie góry i kontynenty w pewien sposób unoszą się
10:12
on topTop of the EarthZiemia, you know? It's like, it doesn't make any sensesens.
219
587000
4000
na powierzchni Ziemi, prawda? To wydaje się bezsensowne.
10:16
So what is the intuitiveintuicyjny, but incorrectnieprawidłowe assumptionzałożenie,
220
591000
4000
Więc czym jest to intuicyjne ale niepoprawne założenie,
10:20
that's kepttrzymane us from understandingzrozumienie brainsmózg?
221
595000
2000
które powstrzymywało nas od zrozumienia mózgu?
10:22
Now I'm going to tell it to you, and it's going to seemwydać się obviousoczywisty that that is correctpoprawny,
222
597000
2000
Teraz zamierzam wam o tym powiedzieć, i prawdziwość okaże się oczywista,
10:24
and that's the pointpunkt, right? Then I'm going to have to make an argumentargument
223
599000
2000
i o to właśnie chodzi, prawda? Później będę musiał wyjaśnić dlaczego
10:26
why you're incorrectnieprawidłowe about the other assumptionzałożenie.
224
601000
2000
mylicie się opierając na innym założeniu.
10:28
The intuitiveintuicyjny but obviousoczywisty thing is that somehowjakoś intelligenceinteligencja
225
603000
3000
Intuicyjne ale oczywiste założenie mówi, że w jakiś sposób inteligencja
10:31
is definedokreślone by behaviorzachowanie,
226
606000
2000
definiowana jest poprzez zachowanie,
10:33
that we are intelligentinteligentny because of the way that we do things
227
608000
2000
że jesteśmy inteligentni ponieważ robimy coś w taki a nie inny sposób,
10:35
and the way we behavezachować się intelligentlyinteligentnie, and I'm going to tell you that's wrongźle.
228
610000
3000
czyniąc tak postępujemy inteligentnie, ale zamierzam wam powiedzieć, że to błąd.
10:38
What it is is intelligenceinteligencja is definedokreślone by predictionPrognoza.
229
613000
2000
Mamy tutaj do czynienia z inteligencją opartą na umiejętności przewidywania.
10:40
And I'm going to work you throughprzez this in a fewkilka slidesslajdy here,
230
615000
3000
Zamierzam wam to zaprezentować z pomocą kilku slajdów,
10:43
give you an exampleprzykład of what this meansznaczy. Here'sTutaj jest a systemsystem.
231
618000
4000
dać wam przykład co to oznacza. Oto system.
10:47
EngineersInżynierowie like to look at systemssystemy like this. ScientistsNaukowcy like to look at systemssystemy like this.
232
622000
3000
Inżynierowie lubią patrzeć na takie systemy. Naukowcy także je lubią.
10:50
They say, well, we have a thing in a boxpudełko, and we have its inputswejścia and its outputswyjść.
233
625000
3000
Mówią tak, mamy coś w pudełku, które posiada wejścia i wyjścia.
10:53
The AIAI people said, well, the thing in the boxpudełko is a programmableprogramowalny computerkomputer
234
628000
3000
Badacze sztucznej inteligencji uznają, że tym czymś w środku pudełka jest komputer, który można programować
10:56
because that's equivalentrównowartość to a brainmózg, and we'lldobrze feedkarmić it some inputswejścia
235
631000
2000
ponieważ jest odpowiednikiem mózgu człowieka, więc wprowadzimy kilka danych
10:58
and we'lldobrze get it to do something, have some behaviorzachowanie.
236
633000
2000
i sprawimy, że zacznie coś robić, zacznie funkcjonować.
11:00
And AlanAlan TuringTuringa definedokreślone the TuringTuringa testtest, whichktóry is essentiallygłównie sayingpowiedzenie,
237
635000
3000
Alan Turing jest twórcą testu Turinga, który wyjaśnia nam, że
11:03
we'lldobrze know if something'scoś jest intelligentinteligentny if it behaveszachowuje się identicalidentyczny to a humanczłowiek.
238
638000
3000
możemy uznać maszynę za inteligentną tylko wtedy, gdy zachowuje się tak samo jak człowiek.
11:06
A behavioralbehawioralne metricmetryczny of what intelligenceinteligencja is,
239
641000
3000
To miara behawioralna tego czym jest inteligencja,
11:09
and this has stuckutknął in our mindsumysły for a long periodokres of time.
240
644000
3000
i przez wieki zakorzeniła się ona w naszych umysłach.
11:12
RealityRzeczywistość thoughchociaż, I call it realreal intelligenceinteligencja.
241
647000
2000
W rzeczywistości jednak, nazywam to rzeczywistą inteligencją.
11:14
RealPrawdziwe intelligenceinteligencja is builtwybudowany on something elsejeszcze.
242
649000
2000
Rzeczywista inteligencja zbudowana jest na czymś innym.
11:16
We experiencedoświadczenie the worldświat throughprzez a sequencesekwencja of patternswzorce, and we storesklep them,
243
651000
4000
Doświadczamy nasz świat poprzez sekwencję zdarzeń, gromadzimy je,
11:20
and we recallodwołanie them. And when we recallodwołanie them, we matchmecz them up
244
655000
3000
by później je przywołać. I kiedy je przywołujemy, dopasowujemy je
11:23
againstprzeciwko realityrzeczywistość, and we're makingzrobienie predictionsprognozy all the time.
245
658000
4000
do rzeczywistości, dokonując przy tym ciągłego przewidywania zdarzeń.
11:27
It's an eternalwieczne metricmetryczny. There's an eternalwieczne metricmetryczny about us sortsortować of sayingpowiedzenie,
246
662000
3000
To jest taka wieczna miara. Istnieje w nas nieustannie pytająca wieczna miara,
11:30
do we understandzrozumieć the worldświat? Am I makingzrobienie predictionsprognozy? And so on.
247
665000
3000
czy rozumiemy świat? Czy przewiduję co nastąpi? I tak dalej.
11:33
You're all beingistota intelligentinteligentny right now, but you're not doing anything.
248
668000
2000
Wszyscy jesteście już inteligentni, nawet nie robiąc nic w tej chwili.
11:35
Maybe you're scratchingdrapanie yourselfsiebie, or pickingowocobranie your nosenos,
249
670000
2000
Może się drapiesz, a może dłubiesz w nosie,
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
nie wiem co robisz, ale nie robisz niczego w tej chwili,
11:39
but you're beingistota intelligentinteligentny; you're understandingzrozumienie what I'm sayingpowiedzenie.
251
674000
3000
ale jesteś inteligentny, rozumiesz co do ciebie mówię.
11:42
Because you're intelligentinteligentny and you speakmówić EnglishAngielski,
252
677000
2000
Ponieważ jesteś inteligentny i mówisz po angielsku,
11:44
you know what wordsłowo is at the endkoniec of this -- (SilenceMilczenie)
253
679000
1000
wiesz jakie słowo jest na końcu tego -- (cisza)
11:45
sentencezdanie.
254
680000
2000
zdania.
11:47
The wordsłowo cameoprawa ołowiana witrażu into you, and you're makingzrobienie these predictionsprognozy all the time.
255
682000
3000
Słowo dotarło do ciebie, a ty ciągle przewidujesz co nastąpi.
11:50
And then, what I'm sayingpowiedzenie is,
256
685000
2000
Mam na myśli to, że
11:52
is that the eternalwieczne predictionPrognoza is the outputwydajność in the neocortexneocortex.
257
687000
2000
wieczne przewidywanie to wyjście kory nowej.
11:54
And that somehowjakoś, predictionPrognoza leadswskazówki to intelligentinteligentny behaviorzachowanie.
258
689000
3000
I, że w pewien sposób, przewidywanie prowadzi do inteligentnego zachowania.
11:57
And here'soto jest how that happensdzieje się. Let's startpoczątek with a non-intelligentinteligentny brainmózg.
259
692000
3000
A oto jak to się dzieje. Zacznijmy od nie-inteligentnego mózgu.
12:00
Well I'll arguespierać się a non-intelligentinteligentny brainmózg, we got holdutrzymać of an oldstary brainmózg,
260
695000
4000
Zajmiemy się nie-inteligentym mózgiem, pozostawimy pień mózgu,
12:04
and we're going to say it's like a non-mammalNon ssak, like a reptilegad,
261
699000
3000
i można powiedzieć, że nie będzie to mózg ssaka, bardziej gada,
12:07
so I'll say, an alligatoraligator; we have an alligatoraligator.
262
702000
2000
więc powiedzmy, że to będzie aligator.
12:09
And the alligatoraligator has some very sophisticatedwyrafinowany sensesrozsądek.
263
704000
3000
Aligator posiada pewne bardzo wyrafinowane zmysły.
12:12
It's got good eyesoczy and earsuszy and touchdotknąć sensesrozsądek and so on,
264
707000
3000
Posiada dobry wzrok i słuch oraz zmysł dotyku i dalej
12:15
a mouthusta and a nosenos. It has very complexzłożony behaviorzachowanie.
265
710000
4000
pysk i nos. Charakteryzuje się bardzo złożonym zachowaniem.
12:19
It can runbiegać and hideukryć. It has fearslęki and emotionsemocje. It can eatjeść you, you know.
266
714000
4000
Potrafi biegać i chować się. Okazuje strach i emocje. Może cię zjeść.
12:23
It can attackatak. It can do all kindsrodzaje of stuffrzeczy.
267
718000
4000
Potrafi atakować. Potrafi wiele innych rzeczy.
12:27
But we don't considerrozważać the alligatoraligator very intelligentinteligentny, not like in a humanczłowiek sortsortować of way.
268
722000
5000
Ale z ludzkiego punktu widzenia nie uważamy aligatora za bardzo inteligentnego.
12:32
But it has all this complexzłożony behaviorzachowanie alreadyjuż.
269
727000
2000
Ale posiada on przecież złożony system zachowania.
12:34
Now, in evolutionewolucja, what happenedstało się?
270
729000
2000
Więc co się stało w trakcie ewolucji?
12:36
First thing that happenedstało się in evolutionewolucja with mammalsssaki,
271
731000
3000
Ważną zmianą w procesie ewolucji ssaków
12:39
we startedRozpoczęty to developrozwijać a thing callednazywa the neocortexneocortex.
272
734000
2000
było wykształcenie się części nazywanej korą nową.
12:41
And I'm going to representprzedstawiać the neocortexneocortex here,
273
736000
2000
I zamierzam wam zaprezentować jak wygląda kora nowa.
12:43
by this boxpudełko that's stickingklejący on topTop of the oldstary brainmózg.
274
738000
2000
to ten kwadrat na rysuku umieszczony nad pniem mózgu.
12:45
NeocortexKora mózgowa meansznaczy newNowy layerwarstwa. It is a newNowy layerwarstwa on topTop of your brainmózg.
275
740000
3000
Kora nowa oznacza nową warstwę. Nową warstwę okalającą twój mózg.
12:48
If you don't know it, it's the wrinklypomarszczony thing on the topTop of your headgłowa that,
276
743000
3000
Jeśli nie wiesz jak wygląda, to jest to pomarszczona masa w górnej części głowy,
12:51
it's got wrinklypomarszczony because it got shovedpopchnięty in there and doesn't fitdopasowanie.
277
746000
3000
jest pomarszczona ponieważ została tam wetknięta i nie pasuje.
12:54
(LaughterŚmiech)
278
749000
1000
(Śmiech)
12:55
No, really, that's what it is. It's about the sizerozmiar of a tablestół napkinserwetka.
279
750000
2000
Naprawdę, tak właśnie wygląda. Ma wielkość stołowej serwety.
12:57
And it doesn't fitdopasowanie, so it getsdostaje all wrinklypomarszczony. Now look at how I've drawnpociągnięty this here.
280
752000
3000
I nie mieści się w głowie, więc stąd ta pomarszczona struktura. Spójrzcie jak to narysowałem.
13:00
The oldstary brainmózg is still there. You still have that alligatoraligator brainmózg.
281
755000
4000
Pień mózgu ciągle tam jest. Wciąż macie mózg aligatora.
13:04
You do. It's your emotionalemocjonalny brainmózg.
282
759000
2000
Naprawdę. To twoja część mózgu odpowiedzialna za emocje.
13:06
It's all those things, and all those gutjelito reactionsreakcje you have.
283
761000
3000
Wywodzą się z niego wszystkie wasze emocje i instynkt.
13:09
And on topTop of it, we have this memorypamięć systemsystem callednazywa the neocortexneocortex.
284
764000
3000
A na jego zewnętrznej stronie znajduje się system pamięci zwany korą nową.
13:12
And the memorypamięć systemsystem is sittingposiedzenie over the sensorysensoryczny partczęść of the brainmózg.
285
767000
4000
System pamięci mieści się nad częścią mózgu odpowiedzialną za zmysły.
13:16
And so as the sensorysensoryczny inputwkład comespochodzi in and feedskanały from the oldstary brainmózg,
286
771000
3000
Tak więc, kiedy impuls dociera do pnia mózgu,
13:19
it alsorównież goesidzie up into the neocortexneocortex. And the neocortexneocortex is just memorizingZapamiętywanie.
287
774000
4000
dostaje się dalej do kory nowej. A kora nowa zapamiętuje informacje.
13:23
It's sittingposiedzenie there sayingpowiedzenie, ahah, I'm going to memorizezapamiętać all the things that are going on:
288
778000
4000
Czeka tam sobie i mówi, ach, zamierzam zapamiętać wszystkie te informacje,
13:27
where I've been, people I've seenwidziany, things I've heardsłyszał, and so on.
289
782000
2000
miejsca, w których byłem, ludzi, których widziałem,rzeczy, które słyszałem itd.
13:29
And in the futureprzyszłość, when it seeswidzi something similarpodobny to that again,
290
784000
4000
A w przyszłości, kiedy zobaczy coś podobnego,
13:33
so in a similarpodobny environmentśrodowisko, or the exactdokładny samepodobnie environmentśrodowisko,
291
788000
3000
w podobnym lub w identycznym otoczeniu,
13:36
it'llbędzie playgrać it back. It'llBędzie to startpoczątek playinggra it back.
292
791000
2000
odtworzy te wspomnienia. Zacznie je odtwarzać.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
Och, byłem już tu kiedyś. Znam tą sytuację z doświadczenia
13:40
this happenedstało się nextNastępny. It allowspozwala you to predictprzepowiadać, wywróżyć the futureprzyszłość.
294
795000
3000
wiem co wydarzy się dalej. To pozwala ci przewidywać następstwa.
13:43
It allowspozwala you to, literallydosłownie it feedskanały back the signalssygnały into your brainmózg;
295
798000
4000
To pozwala ci, dosłownie następuje sprzężenie zwrotne w twoim mózgu,
13:47
they'lloni to zrobią let you see what's going to happenzdarzyć nextNastępny,
296
802000
2000
wspomnienia pozwolą ci przewidzieć co stanie się dalej,
13:49
will let you hearsłyszeć the wordsłowo "sentencezdanie" before I said it.
297
804000
3000
pozwolą ci usłyszeć słowo, zanim je wypowiem.
13:52
And it's this feedingkarmienie back into the oldstary brainmózg
298
807000
3000
I to sprzężenie zwrotne w twoim mózgu,
13:55
that'llto zrobi allowdopuszczać you to make very more intelligentinteligentny decisionsdecyzje.
299
810000
3000
pozwoli ci podjąć bardziej inteligentne decyzje
13:58
This is the mostwiększość importantważny slideślizgać się of my talk, so I'll dwellmieszkać on it a little bitkawałek.
300
813000
3000
To najważniejszy slajd mojego wykładu, więc zamierzam się na niim skupić.
14:01
And so, all the time you say, oh, I can predictprzepowiadać, wywróżyć the things.
301
816000
4000
A więc, cały czas mówisz, och, potrafię przewidzieć co nastąpi.
14:05
And if you're a ratszczur and you go throughprzez a mazeLabirynt, and then you learnuczyć się the mazeLabirynt,
302
820000
3000
Jeśli byłbyś szczurem, który biegnie przez labirynt odkrywając właściwą drogę,
14:08
the nextNastępny time you're in a mazeLabirynt, you have the samepodobnie behaviorzachowanie,
303
823000
2000
będąc w tym labiryncie ponownie, twoje postępowanie byłoby takie same,
14:10
but all of a suddennagły, you're smartermądrzejszy
304
825000
2000
ale nagle, stałbyś się mądrzejszy
14:12
because you say, oh, I recognizerozpoznać this mazeLabirynt, I know whichktóry way to go,
305
827000
3000
ponieważ pomyślałbyś, och, rozpoznaję ten labirynt, wiem którędy pójść,
14:15
I've been here before, I can envisionWyobraźcie sobie the futureprzyszłość. And that's what it's doing.
306
830000
3000
znam to miejsce, potrafię przewidywać. I to właśnie czynisz.
14:18
In humansludzie -- by the way, this is trueprawdziwe for all mammalsssaki;
307
833000
3000
U ludzi, przy okazji, potrafią to wszystkie ssaki,
14:21
it's trueprawdziwe for other mammalsssaki -- and in humansludzie, it got a lot worsegorzej.
308
836000
2000
inne ssaki także to robią, a u ludzi jest to jeszcze bardziej rozwinięte.
14:23
In humansludzie, we actuallytak właściwie developedrozwinięty the frontz przodu partczęść of the neocortexneocortex
309
838000
3000
U ludzi wykształciła się przednia część kory nowej
14:26
callednazywa the anteriorprzedniej partczęść of the neocortexneocortex. And natureNatura did a little tricksztuczka.
310
841000
4000
nazywana przednią częścią kory nowej (anterior neocortex). Natura dokonała małej sztuczki
14:30
It copiedskopiowane the posteriortylnej partczęść, the back partczęść, whichktóry is sensorysensoryczny,
311
845000
2000
Mianowicie skopiowała tylną część mózgu, kontrolującą zmysły
14:32
and put it in the frontz przodu partczęść.
312
847000
2000
i umieściła ją w przedniej jego części.
14:34
And humansludzie uniquelywyjątkowo have the samepodobnie mechanismmechanizm on the frontz przodu,
313
849000
2000
Ludzie jako jedyni posiadają ten sam mechanizm w przedniej części mózgu,
14:36
but we use it for motorsilnik controlkontrola.
314
851000
2000
ale używamy go do kontroli ośrodka ruchu.
14:38
So we are now ablezdolny to make very sophisticatedwyrafinowany motorsilnik planningplanowanie, things like that.
315
853000
3000
Więc dzięki temu możemy wykonywać bardzo skomplikowane ruchy.
14:41
I don't have time to get into all this, but if you want to understandzrozumieć how a brainmózg worksPrace,
316
856000
3000
Nie mam czasu, aby to wytłumaczyć, ale jeśli chcecie zrozumieć, jak działa mózg,
14:44
you have to understandzrozumieć how the first partczęść of the mammalianu ssaków neocortexneocortex worksPrace,
317
859000
3000
to musicie zrozumieć, jak działa pierwsza część kory nowej u ssaków,
14:47
how it is we storesklep patternswzorce and make predictionsprognozy.
318
862000
2000
w jaki sposób zapamiętujemy sekwencje i potrafimy przewidywać.
14:49
So let me give you a fewkilka examplesprzykłady of predictionsprognozy.
319
864000
3000
Więc pozwólcie mi przedstawić kilka przykładów umiejętności przewidywania.
14:52
I alreadyjuż said the wordsłowo "sentencezdanie." In musicmuzyka,
320
867000
2000
Wspomniałem już o zgadywaniu wyrazu w zdaniu. W muzyce,
14:54
if you've heardsłyszał a songpiosenka before, if you heardsłyszał JillJill singśpiewać those songspiosenki before,
321
869000
3000
jeśli słyszałeś piosenkę wcześniej, jeśli słuchałeś Jill śpiewającą wcześniej te piosenki,
14:57
when she singsśpiewa them, the nextNastępny noteUwaga popswyskakuje mi into your headgłowa alreadyjuż --
322
872000
3000
to kiedy śpiewa je, następna nuta sama pojawia się w twojej głowie --
15:00
you anticipateprzewidywać it as you're going. If it was an albumalbum of musicmuzyka,
323
875000
2000
spodziewasz się, że się pojawią. Jeśli słuchasz całego albumu,
15:02
the endkoniec of one albumalbum, the nextNastępny songpiosenka popswyskakuje mi into your headgłowa.
324
877000
3000
po każdej piosence spodziewasz się następnej piosenki w kolejności.
15:05
And these things happenzdarzyć all the time. You're makingzrobienie these predictionsprognozy.
325
880000
2000
To dzieje się cały czas. Cały czas przewidujesz co nastąpi.
15:07
I have this thing callednazywa the alteredzmieniony doordrzwi thought experimenteksperyment.
326
882000
3000
Czasem przeprowadzam eksperyment zwany zamianą drzwi.
15:10
And the alteredzmieniony doordrzwi thought experimenteksperyment saysmówi, you have a doordrzwi at home,
327
885000
3000
Ten eksperyment myślowy wygląda tak: przypuśćmy, że masz drzwi w domu
15:13
and when you're here, I'm changingwymiana pieniędzy it, I've got a guy
328
888000
3000
i kiedy ty przebywasz tutaj, ja zmieniam ustawienie drzwi, mój pomocnik
15:16
back at your housedom right now, movingw ruchu the doordrzwi around,
329
891000
2000
który jest w twoim domu, przesuwa drzwi,
15:18
and they're going to take your doorknobklamki drzwi and moveruszaj się it over two inchescale.
330
893000
2000
zmienia położenie klamki przesuwając ją o dwa cale.
15:20
And when you go home tonightdzisiejszej nocy, you're going to put your handdłoń out there,
331
895000
2000
Kiedy wrócisz wieczorem do domu, odruchowo wyciągniesz rękę
15:22
and you're going to reachdosięgnąć for the doorknobklamki drzwi and you're going to noticeogłoszenie
332
897000
2000
starając się chwycić klamkę i zauważysz, że
15:24
it's in the wrongźle spotmiejsce, and you'llTy będziesz go, whoawhoa, something happenedstało się.
333
899000
3000
jest w niewłaściwym miejscu, wtedy zdasz sobie sprawę, że coś się stało.
15:27
It maymoże take a seconddruga to figurepostać out what it was, but something happenedstało się.
334
902000
2000
Może to potrwać kilka sekund zanim się zorientujesz, ale wiesz, że coś jest nie tak.
15:29
Now I could changezmiana your doorknobklamki drzwi in other wayssposoby.
335
904000
2000
Mogę zmienić położenie klamki w jeszcze inny sposób.
15:31
I can make it largerwiększy or smallermniejszy, I can changezmiana its brassmosiądz to silversrebro,
336
906000
2000
Mogę ją powiększyć albo zmniejszyć, mosiądz zamienić na srebro,
15:33
I could make it a leverDźwignia. I can changezmiana your doordrzwi, put colorszabarwienie on;
337
908000
2000
mogę ją wymienić na dźwignię. Mogę zmienić twoje drzwi, zmienić ich kolor,
15:35
I can put windowsWindows in. I can changezmiana a thousandtysiąc things about your doordrzwi,
338
910000
3000
mogę wmontować w nie małe okienka. Mogę zmienić tysiące szczegółów,
15:38
and in the two secondstowary drugiej jakości you take to openotwarty your doordrzwi,
339
913000
2000
ale za każdym razem kiedy będziesz je otwierał, wystarczą ci dwie sekundy,
15:40
you're going to noticeogłoszenie that something has changedzmienione.
340
915000
3000
aby zorientować się, że coś się zmieniło.
15:43
Now, the engineeringInżynieria approachpodejście to this, the AIAI approachpodejście to this,
341
918000
2000
Więc zarówno inżynierowie, jak i badacze sztucznej inteligencji byliby skłonni do
15:45
is to buildbudować a doordrzwi databaseBaza danych. It has all the doordrzwi attributesatrybuty.
342
920000
3000
stworzenia bazy danych tych drzwi. Bazy zawierającej wszystkie informacje.
15:48
And as you go up to the doordrzwi, you know, let's checkczek them off one at time.
343
923000
3000
I kiedy podchodziłbyś do tych drzwi, informacje te zostałyby ci przedstawione.
15:51
DoorDrzwi, doordrzwi, doordrzwi, you know, colorkolor, you know what I'm sayingpowiedzenie.
344
926000
2000
Drzwi, drzwi, drzwi, np. ich kolor, wiecie co mam na myśli.
15:53
We don't do that. Your brainmózg doesn't do that.
345
928000
2000
Ale to nie działa w ten sposób. Twój mózg nie działa w ten sposób.
15:55
What your brainmózg is doing is makingzrobienie constantstały predictionsprognozy all the time
346
930000
2000
Mianowicie twój mózg przez cały czas przewiduje
15:57
about what is going to happenzdarzyć in your environmentśrodowisko.
347
932000
2000
co wydarzy się w twoim najbliższym otoczeniu.
15:59
As I put my handdłoń on this tablestół, I expectoczekiwać to feel it stop.
348
934000
3000
Kładąc swoją dłoń na tym stole spodziewam się, że za chwilę dotknie jego powierzchni.
16:02
When I walkspacerować, everykażdy stepkrok, if I missedbrakowało it by an eighthósma of an inchcal,
349
937000
3000
Jeśli stawiając równe kroki pomylę się o mały kawałek
16:05
I'll know something has changedzmienione.
350
940000
2000
to zorientuję się, że coś się zmieniło.
16:07
You're constantlystale makingzrobienie predictionsprognozy about your environmentśrodowisko.
351
942000
2000
Ciągle przewidujesz, co wydarzy się w twoim najbliższym otoczeniu.
16:09
I'll talk about visionwizja here brieflykrótko. This is a pictureobrazek of a womankobieta.
352
944000
3000
Opowiem o tym krótko. Oto obraz przedstwiający kobietę.
16:12
And when you look at people, your eyesoczy are caughtzłapany
353
947000
2000
Kiedy przyglądacie się drugiej osobie, wasze oczy zatrzymuja się
16:14
over at two to threetrzy timesczasy a seconddruga.
354
949000
1000
od dwóch do trzech razy w ciągu sekundy na danym punkcie.
16:15
You're not awareświadomy of this, but your eyesoczy are always movingw ruchu.
355
950000
2000
Nie zdajecie sobie z tego sprawy, ale wasze oczy ciągle się poruszają.
16:17
And so when you look at someone'sktoś facetwarz,
356
952000
2000
I kiedy patrzysz na czyjąś twarz,
16:19
you'dty byś typicallyzwykle go from eyeoko to eyeoko to eyeoko to nosenos to mouthusta.
357
954000
2000
to zwykle przesuwasz wzrok z jednego oka na drugie, dalej na nos i usta.
16:21
Now, when your eyeoko movesporusza się from eyeoko to eyeoko,
358
956000
2000
Kiedy przesuwasz wzrok z jednego oka na drugie
16:23
if there was something elsejeszcze there like, a nosenos,
359
958000
2000
i zamiast oka napotkasz tam nos,
16:25
you'dty byś see a nosenos where an eyeoko is supposeddomniemany to be,
360
960000
2000
to okaże się, że tam gdzie powinno być oko zobaczysz nos,
16:27
and you'dty byś go, oh shitgówno, you know --
361
962000
3000
i pomyślisz, co jest grane --
16:30
(LaughterŚmiech)
362
965000
1000
(Śmiech)
16:31
There's something wrongźle about this personosoba.
363
966000
2000
Coś jest nie tak z tym człowiekiem.
16:33
And that's because you're makingzrobienie a predictionPrognoza.
364
968000
2000
Dzieje się tak dlatego, że przewidujesz.
16:35
It's not like you just look over there and say, what am I seeingwidzenie now?
365
970000
2000
Nie dzieje się tak, że patrząc tam zadajesz sobie pytanie co widzisz?
16:37
A nosenos, that's okay. No, you have an expectationoczekiwanie of what you're going to see.
366
972000
3000
Widzę nos, w porządku. Nie, ty zwyczajnie masz oczekiwanie w stosunku do tego co tam zobaczysz.
16:40
(LaughterŚmiech)
367
975000
1000
(Śmiech)
16:41
EveryKażdy singlepojedynczy momentza chwilę. And finallywreszcie, let's think about how we testtest intelligenceinteligencja.
368
976000
4000
Ciągle przewidujemy. I na koniec, pomyślmy o tym, jak badamy inteligencję.
16:45
We testtest it by predictionPrognoza. What is the nextNastępny wordsłowo in this, you know?
369
980000
3000
Badamy ją poprzez przewidywanie rozwiązań. Jakie jest następne słowo?
16:48
This is to this as this is to this. What is the nextNastępny numbernumer in this sentencezdanie?
370
983000
3000
To pasuje do tego, jako to do tego. Jaki jest kolejny numer w tym zdaniu?
16:51
Here'sTutaj jest threetrzy visionswizje of an objectobiekt.
371
986000
2000
Spójrz na trzy kształty brył.
16:53
What's the fourthczwarty one? That's how we testtest it. It's all about predictionPrognoza.
372
988000
4000
Która bryła będzie czwarta? Tak badamy inteligencję. Przewidujemy rozwiązania.
16:57
So what is the recipePrzepis for brainmózg theoryteoria?
373
992000
3000
Więc jaki jest przepis na teorię mózgu?
17:00
First of all, we have to have the right frameworkstruktura.
374
995000
3000
Po pierwsze, musimy dysponować odpowiednią strukturą.
17:03
And the frameworkstruktura is a memorypamięć frameworkstruktura,
375
998000
2000
Tą strukturą jest struktura pamięci,
17:05
not a computationobliczenie or behaviorzachowanie frameworkstruktura. It's a memorypamięć frameworkstruktura.
376
1000000
2000
nie struktura obliczeniowa czy struktura zachowania. To struktura pamięci.
17:07
How do you storesklep and recallodwołanie these sequencessekwencje or patternswzorce? It's spatio-temporalczasoprzestrzenny patternswzorce.
377
1002000
4000
W jaki sposób zapamiętujesz i przypominasz sobie sekwencje i wzory? To wzorce czasowo-przestrzenne
17:11
Then, if in that frameworkstruktura, you take a bunchwiązka of theoreticiansTeoretycy.
378
1006000
3000
Dysponując taką strukturą angażujesz do pomocy kilku teoretyków.
17:14
Now biologistsbiolodzy generallyogólnie are not good theoreticiansTeoretycy.
379
1009000
2000
Biolodzy z reguły nie są dobrymi teoretykami.
17:16
It's not always trueprawdziwe, but in generalgenerał, there's not a good historyhistoria of theoryteoria in biologybiologia.
380
1011000
4000
Nie zawsze jest to prawdą, ale z reguły w biologii liczy się praktyka.
17:20
So I founduznany the bestNajlepiej people to work with are physicistsfizycy,
381
1015000
3000
Więc doszedłem do wniosku, że najlepiej współpracować z fizykami,
17:23
engineersinżynierowie and mathematiciansmatematycy, who tendzmierzać to think algorithmicallyalgorytmicznie.
382
1018000
3000
inżynierami i matematykami, którzy skłonni są myśleć algorytmicznie.
17:26
Then they have to learnuczyć się the anatomyanatomia, and they'veoni got to learnuczyć się the physiologyfizjologia.
383
1021000
3000
Muszą się jednak oni najpierw nauczyć anatomii oraz fizjologii.
17:29
You have to make these theoriesteorie very realisticrealistyczne in anatomicalanatomiczny termswarunki.
384
1024000
4000
Stworzenie teorii mózgu wymaga użycia odpowiednich terminów anatomicznych.
17:33
AnyoneKtoś who getsdostaje up and tellsmówi you theirich theoryteoria about how the brainmózg worksPrace
385
1028000
4000
Każdy kto przedstawi swoją teorię funkcjonowania mózgu
17:37
and doesn't tell you exactlydokładnie how it's workingpracujący in the brainmózg
386
1032000
2000
i nie będzie w stanie w sposób precyzyjny wytłumaczyć jak mózg pracuje
17:39
and how the wiringSchemat połączeń worksPrace in the brainmózg, it is not a theoryteoria.
387
1034000
2000
i jak działa w nim cała struktura, poniesie klęskę.
17:41
And that's what we're doing at the RedwoodSekwoja NeuroscienceNeurologii InstituteInstytut.
388
1036000
3000
Właśnie tworzeniem takiej precyzyjnej teorii zajmujemy się w Instytucie Neuronauki w Redwood.
17:44
I would love to have more time to tell you we're makingzrobienie fantasticfantastyczny progresspostęp in this thing,
389
1039000
4000
Chciałbym mieć więcej czasu i opowiedzieć wam o postępach w tej dziedzinie,
17:48
and I expectoczekiwać to be back up on this stageetap,
390
1043000
2000
i spodziewam się kiedyś wrócić na tę scenę,
17:50
maybe this will be some other time in the not too distantodległy futureprzyszłość and tell you about it.
391
1045000
2000
być może uda nam się spotkać jeszcze raz w najbliższym czasie i opowiedzieć o tym.
17:52
I'm really, really excitedpodekscytowany. This is not going to take 50 yearslat at all.
392
1047000
3000
To takie ekscytujące. Stworzenie teorii mózgu nie zajmie nam wcale 50 lat.
17:55
So what will brainmózg theoryteoria look like?
393
1050000
2000
Więc jak będzie wyglądać teoria mózgu?
17:57
First of all, it's going to be a theoryteoria about memorypamięć.
394
1052000
2000
Przede wszystkim, będzie to teoria dotycząca pamięci.
17:59
Not like computerkomputer memorypamięć. It's not at all like computerkomputer memorypamięć.
395
1054000
3000
Nie takiej jak pamięć komputera. To zupełnie inny rodzaj pamięci.
18:02
It's very, very differentróżne. And it's a memorypamięć of these very
396
1057000
2000
Bardzo się od niej różni. Zawiera ona te wszystkie
18:04
high-dimensionalwielowymiarowy patternswzorce, like the things that come from your eyesoczy.
397
1059000
3000
zaawansowane informacje, takie jak te, które pochodzą z oka.
18:07
It's alsorównież memorypamięć of sequencessekwencje.
398
1062000
2000
To także pamięć sekwencyjna.
18:09
You cannotnie może learnuczyć się or recallodwołanie anything outsidena zewnątrz of a sequencesekwencja.
399
1064000
2000
Nie możesz uczyć się, czy przypominać coś bez sekwencyjności zapamiętywania.
18:11
A songpiosenka mustmusi be heardsłyszał in sequencesekwencja over time,
400
1066000
3000
Piosenka musi być zapamiętana sekwencyjnie w określonym czasie,
18:14
and you mustmusi playgrać it back in sequencesekwencja over time.
401
1069000
3000
i przywołujesz ją także w sposób sekwencyjny.
18:17
And these sequencessekwencje are auto-associativelyAuto skojarzeniowo recalledprzypomnieć, so if I see something,
402
1072000
3000
Sekwencyjnośc zapamiętywania jest automatycznie odtwarzana, jeśli widzę coś
18:20
I hearsłyszeć something, it remindsprzypomina me of it, and then it playsgra back automaticallyautomatycznie.
403
1075000
3000
lub słyszę, następuje automatyczny proces przypominania zdarzenia.
18:23
It's an automaticAutomatyczne playbackOdtwarzanie. And predictionPrognoza of futureprzyszłość inputswejścia is the desiredżądaną outputwydajność.
404
1078000
4000
To automatyczne odtwarzanie. Przewidywanie zdarzeń staje się możliwe.
18:27
And as I said, the theoryteoria mustmusi be biologicallybiologicznie accuratedokładny,
405
1082000
3000
Wspomniałem, że teoria musi być biologicznie poprawna,
18:30
it mustmusi be testablesprawdzalne, and you mustmusi be ablezdolny to buildbudować it.
406
1085000
2000
musi być sprawdzalna oraz możliwa do stworzenia.
18:32
If you don't buildbudować it, you don't understandzrozumieć it. So, one more slideślizgać się here.
407
1087000
4000
Jeśli jej nie zbudujesz to zwyczajnie jej nie zrozumiesz. Jeszcze jeden slajd.
18:36
What is this going to resultwynik in? Are we going to really buildbudować intelligentinteligentny machinesmaszyny?
408
1091000
4000
Jakie będą tego konsekwencje? Czy naprawdę zbudujemy inteligentne maszyny?
18:40
AbsolutelyAbsolutnie. And it's going to be differentróżne than people think.
409
1095000
4000
Oczywiście, że tak. I będzie to wyglądało inaczej, niż myślą o tym ludzie.
18:44
No doubtwątpić that it's going to happenzdarzyć, in my mindumysł.
410
1099000
3000
Nie mam wątpliwości, że to się stanie.
18:47
First of all, it's going to be builtwybudowany up, we're going to buildbudować the stuffrzeczy out of siliconkrzem.
411
1102000
4000
Przede wszystkim zaczniemy budowę sztucznego umysłu wykorzystując silikon.
18:51
The samepodobnie techniquestechniki we use for buildingbudynek siliconkrzem computerkomputer memorieswspomnienia,
412
1106000
3000
Taką samą technikę wykorzystujemy do budowy pamięci komputerów,
18:54
we can use for here.
413
1109000
1000
możemy to także wykorzystać tutaj.
18:55
But they're very differentróżne typestypy of memorieswspomnienia.
414
1110000
2000
Ale to bardzo odmienne rodzaje pamięci.
18:57
And we're going to attachdołączać these memorieswspomnienia to sensorsczujniki,
415
1112000
2000
Zamierzamy połączyć tę pamięć z sensorami,
18:59
and the sensorsczujniki will experiencedoświadczenie real-liveReal live, real-worldprawdziwy świat datadane,
416
1114000
3000
które zaczną egzystować w świecie realnym dostarczając rzeczywistych danych
19:02
and these things are going to learnuczyć się about theirich environmentśrodowisko.
417
1117000
2000
i będą się uczyć o swoim środowisku.
19:04
Now it's very unlikelymało prawdopodobne the first things you're going to see are like robotsroboty.
418
1119000
3000
Myśle, że to mało prawdopodobne, że ujrzycie najpierw roboty.
19:07
Not that robotsroboty aren'tnie są usefulprzydatny and people can buildbudować robotsroboty.
419
1122000
3000
Nie znaczy to, że roboty nie są przydatne lub, że nie potrafimy ich konstruować.
19:10
But the roboticsRobotyka partczęść is the hardestnajtrudniejszy partczęść. That's the oldstary brainmózg. That's really hardciężko.
420
1125000
4000
Ale stworzenie pewnej części robota jest najtrudniejsze. To tzw. stary mózg. To naprawdę trudne.
19:14
The newNowy brainmózg is actuallytak właściwie kinduprzejmy of easierłatwiejsze than the oldstary brainmózg.
421
1129000
2000
Nowy mózg można skonstruować łatwiej niż stary mózg.
19:16
So the first thing we're going to do are the things that don't requirewymagać a lot of roboticsRobotyka.
422
1131000
3000
Przede wszystkim zamierzamy się zająć tym co nie wymaga dużo robotyki.
19:19
So you're not going to see C-C-3POPO.
423
1134000
2000
Więc nie zobaczycie od razu robota C-3PO.
19:21
You're going to more see things like, you know, intelligentinteligentny carssamochody
424
1136000
2000
Prędzej doczekacie się takich udogodnień jak inteligentne samochody,
19:23
that really understandzrozumieć what trafficruch drogowy is and what drivingnapędowy is
425
1138000
3000
które rozumieją, czym jest korek i czym jest jazda
19:26
and have learnednauczyli that certainpewny typestypy of carssamochody with the blinkersklapki na oczy on for halfpół a minutechwila
426
1141000
3000
i które rozpoznają samochody z włączonym przez pół minuty kierunkowskazem
19:29
probablyprawdopodobnie aren'tnie są going to turnskręcać, things like that.
427
1144000
2000
lecz niekoniecznie wykonujących manewr skręcania.
19:31
(LaughterŚmiech)
428
1146000
1000
(Śmiech)
19:32
We can alsorównież do intelligentinteligentny securitybezpieczeństwo systemssystemy.
429
1147000
2000
Potrafimy także stworzyć inteligentne systemy zabezpieczające.
19:34
AnywhereWszędzie where we're basicallygruntownie usingza pomocą our brainmózg, but not doing a lot of mechanicsmechanika.
430
1149000
4000
Wszędzie tam, gdzie używamy swojego umysłu, jednocześnie nie stosując zaawansowanej mechaniki.
19:38
Those are the things that are going to happenzdarzyć first.
431
1153000
2000
Właśnie takich rzeczy możemy spodziewać się najpierw.
19:40
But ultimatelyostatecznie, the world'srecyrodycyjstwo diecystwo recyrodycyjstwo diecystwo recy sektorcy the limitlimit here.
432
1155000
2000
Ale ostatecznie, to czas pokaże co się stanie.
19:42
I don't know how this is going to turnskręcać out.
433
1157000
2000
Nie wiem co przyniosą te zmiany.
19:44
I know a lot of people who inventedzmyślony the microprocessormikroprocesor
434
1159000
2000
Znam wielu ludzi, którzy byli współtwórcami mikroprocesora
19:46
and if you talk to them, they knewwiedziałem what they were doing was really significantznaczący,
435
1161000
5000
i rozmawiając z nimi dowiesz się, że mieli świadomość, że tworzą coś znaczącego,
19:51
but they didn't really know what was going to happenzdarzyć.
436
1166000
3000
ale nie wiedzieli jakie będą tego konsekwencje.
19:54
They couldn'tnie mógł anticipateprzewidywać cellkomórka phonestelefony and the InternetInternet and all this kinduprzejmy of stuffrzeczy.
437
1169000
5000
Nie potrafili sobie wyobrazić rozwoju telefonii komórkowej i Internetu, i tego typu rzeczy.
19:59
They just knewwiedziałem like, hey, they were going to buildbudować calculatorskalkulatory
438
1174000
2000
Wiedzieli na przykład, jak zbudować kalkulatory
20:01
and trafficruch drogowy lightlekki controllersKontrolery. But it's going to be bigduży.
439
1176000
2000
albo system sygnalizacji świetlnej. Ale to będzie coś wielkiego.
20:03
In the samepodobnie way, this is like brainmózg sciencenauka and these memorieswspomnienia
440
1178000
3000
W ten sam sposób, nauka o mózgu i tych wspomnieniach
20:06
are going to be a very fundamentalfundamentalny technologytechnologia, and it's going to leadprowadzić
441
1181000
3000
stanie się podstawową technologią, która doprowadzi
20:09
to very unbelievablenie do wiary changeszmiany in the nextNastępny 100 yearslat.
442
1184000
3000
do niesamowitych zmian w następnym stuleciu.
20:12
And I'm mostwiększość excitedpodekscytowany about how we're going to use them in sciencenauka.
443
1187000
4000
Najberdziej mnie interesuje jak zostaną te zmiany wykorzystane w nauce.
20:16
So I think that's all my time, I'm over it, and I'm going to endkoniec my talk
444
1191000
3000
Myślę, że to cały mój czas, skończyłem, to koniec mojego wykładu
20:19
right there.
445
1194000
1000
właśnie teraz.

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com