ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com
TEDGlobal 2009

Henry Markram: A brain in a supercomputer

Henry Markram buduje mózg w superkomputerze.

Filmed:
1,469,354 views

Henry Markram przekonuje, że tajemnica umysłu może zostać rozwikłana - już niedługo. Choroby umysłowe, pamięć, postrzeganie: wszystkie wynikają z aktywności neuronów i sygnałów elektrycznych. Henry Markram zamierza znaleźć wszystko to w superkomputerze, który zamodeluje wszystkie 100.000.000.000.000 synaps mózgu.
- Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time. Full bio

Double-click the English transcript below to play the video.

00:18
Our missionmisja is to buildbudować
0
0
3000
Naszą misją jest stworzenie
00:21
a detailedszczegółowe, realisticrealistyczne
1
3000
2000
szczegółowego, realistycznego
00:23
computerkomputer modelModel of the humanczłowiek brainmózg.
2
5000
2000
komputerowego modelu umysłu.
00:25
And we'vemamy doneGotowe, in the pastprzeszłość fourcztery yearslat,
3
7000
3000
Przez ostatnie cztery lata dokonaliśmy
00:28
a proofdowód of conceptpojęcie
4
10000
2000
weryfikacji tej koncepcji
00:30
on a smallmały partczęść of the rodentgryzonie brainmózg,
5
12000
3000
na podstawie małej części mózgu gryzonia.
00:33
and with this proofdowód of conceptpojęcie we are now scalingułuskowienie the projectprojekt up
6
15000
3000
Pozwoliło to nam rozbudować projekt
00:36
to reachdosięgnąć the humanczłowiek brainmózg.
7
18000
3000
i osiągnąć mózg ludzki.
00:39
Why are we doing this?
8
21000
2000
Czemu to robimy?
00:41
There are threetrzy importantważny reasonspowody.
9
23000
2000
Są trzy ważne powody.
00:43
The first is, it's essentialistotny for us to understandzrozumieć the humanczłowiek brainmózg
10
25000
4000
Po pierwsze, zrozumienie mózgu jest konieczne,
00:47
if we do want to get alongwzdłuż in societyspołeczeństwo,
11
29000
2000
jeśli mamy rozwijać się społecznie.
00:49
and I think that it is a keyklawisz stepkrok in evolutionewolucja.
12
31000
4000
Sądzę, że to kluczowy krok w ewolucji.
00:53
The seconddruga reasonpowód is,
13
35000
2000
Drugim powodem jest to,
00:55
we cannotnie może keep doing animalzwierzę experimentationeksperymenty foreverna zawsze,
14
37000
6000
że nie możemy wiecznie eksperymentować na zwierzętach
01:01
and we have to embodyucieleśniać all our datadane and all our knowledgewiedza, umiejętności
15
43000
4000
i musimy wcielić wszystkie nasze dane i całą wiedzę
01:05
into a workingpracujący modelModel.
16
47000
3000
w działający model.
01:08
It's like a Noah'sNoego ArkArk. It's like an archiveArchiwum.
17
50000
4000
To jak Arka Noego. To jak archiwum.
01:12
And the thirdtrzeci reasonpowód is that there are two billionmiliard people on the planetplaneta
18
54000
3000
Trzecim powodem jest to, że dwa miliardy ludzi na tym świecie
01:15
that are affectedafektowany by mentalpsychiczny disordernieład,
19
57000
4000
są dotknięte zaburzeniami psychicznymi,
01:19
and the drugsleki that are used todaydzisiaj
20
61000
2000
a obecnie stosowane leki
01:21
are largelyw dużej mierze empiricalempiryczne.
21
63000
2000
są w dużej mierze empiryczne.
01:23
I think that we can come up with very concretebeton solutionsrozwiązania on
22
65000
3000
Sądzę, że dzięki naszej pracy mogą powstać
01:26
how to treatleczyć disorderszaburzenia.
23
68000
3000
nowe sposoby leczenia takich chorób.
01:29
Now, even at this stageetap,
24
71000
3000
Nawet na tym etapie
01:32
we can use the brainmózg modelModel
25
74000
2000
możemy użyć modelu mózgu
01:34
to explorebadać some fundamentalfundamentalny questionspytania
26
76000
3000
by zbadać pewne fundamentalne zagadnienia
01:37
about how the brainmózg worksPrace.
27
79000
2000
dotyczące jego funkcjonowania.
01:39
And here, at TEDTED, for the first time,
28
81000
2000
I tu, w TED, po raz pierwszy
01:41
I'd like to sharedzielić with you how we're addressingAdresowanie
29
83000
2000
chciałbym opowiedzieć,
01:43
one theoryteoria -- there are manywiele theoriesteorie --
30
85000
3000
jak podchodzimy do jednej z wielu teorii
01:46
one theoryteoria of how the brainmózg worksPrace.
31
88000
4000
funkcjonowania mózgu ludzkiego.
01:50
So, this theoryteoria is that the brainmózg
32
92000
4000
Tak więc, teoria ta mówi, że mózg
01:54
createstworzy, buildsbuduje, a versionwersja of the universewszechświat,
33
96000
6000
tworzy pewną wersję wszechświata.
02:00
and projectsprojektowanie this versionwersja of the universewszechświat,
34
102000
3000
I przedstawia projekcję tej wersji wszechświata,
02:03
like a bubblebańka, all around us.
35
105000
4000
wokół nas, jak bańkę.
02:07
Now, this is of coursekurs a topictemat of philosophicalfilozoficzny debatedebata for centurieswieki.
36
109000
4000
To oczywiście odwieczny temat debat filozoficznych.
02:11
But, for the first time, we can actuallytak właściwie addressadres this,
37
113000
3000
Ale teraz po raz pierwszy, możemy rozpatrzyć ten problem,
02:14
with brainmózg simulationsymulacja,
38
116000
2000
za pomocą symulacji mózgu
02:16
and askzapytać very systematicsystematyczne and rigorousrygorystyczny questionspytania,
39
118000
4000
i zadać bardzo systematyczne i rygorystyczne pytania,
02:20
whetherczy this theoryteoria could possiblymożliwie be trueprawdziwe.
40
122000
4000
o prawdziwość tej teorii.
02:24
The reasonpowód why the moonksiężyc is hugeolbrzymi on the horizonhoryzont
41
126000
3000
Ten księżyc na horyzoncie jest ogromy
02:27
is simplypo prostu because our perceptualpercepcyjny bubblebańka
42
129000
3000
dlatego, że nasza percepcyjna bańka
02:30
does not stretchrozciągać out 380,000 kilometerskilometrów.
43
132000
4000
nie rozciąga się na 380.000 kilometrów.
02:34
It runsdziała out of spaceprzestrzeń.
44
136000
2000
Brakuje jej miejsca.
02:36
And so what we do is we compareporównać the buildingsBudynki
45
138000
4000
Dlatego my porównujemy budynki
02:40
withinw ciągu our perceptualpercepcyjny bubblebańka,
46
142000
2000
w naszej percepcyjnej bańce
02:42
and we make a decisiondecyzja.
47
144000
2000
i podejmujemy decyzję.
02:44
We make a decisiondecyzja it's that bigduży,
48
146000
2000
Stwierdzamy, że jest ogromny,
02:46
even thoughchociaż it's not that bigduży.
49
148000
2000
nawet jeśli nie jest taki duży.
02:48
And what that illustratesprzedstawia
50
150000
2000
Ten mechanizm pokazuje,
02:50
is that decisionsdecyzje are the keyklawisz things
51
152000
2000
że nasza percepcyjna bańka
02:52
that supportwsparcie our perceptualpercepcyjny bubblebańka. It keepstrzyma it aliveżywy.
52
154000
5000
opiera się właśnie na decyzjach. To one utrzymują ją przy życiu.
02:57
WithoutBez decisionsdecyzje you cannotnie może see, you cannotnie może think,
53
159000
2000
Bez decydowania nie można widzieć, myśleć, ani czuć.
02:59
you cannotnie może feel.
54
161000
2000
Bez decydowania nie można widzieć, myśleć, ani czuć.
03:01
And you maymoże think that anestheticsznieczulenia work
55
163000
2000
Sądzicie może, że w trakcie narkozy
03:03
by sendingwysyłanie you into some deepgłęboki sleepsen,
56
165000
3000
pacjent pogrążony jest w głębokim śnie,
03:06
or by blockingBlokowanie your receptorsreceptory so that you don't feel painból,
57
168000
3000
albo że ból znika dzięki blokowaniu receptorów,
03:09
but in factfakt mostwiększość anestheticsznieczulenia don't work that way.
58
171000
3000
ale w rzeczywistości znieczulenie działa zwykle inaczej.
03:12
What they do is they introduceprzedstawiać a noisehałas
59
174000
3000
Znieczulenie wprowadza w mózg zakłócenia,
03:15
into the brainmózg so that the neuronsneurony cannotnie może understandzrozumieć eachkażdy other.
60
177000
3000
dzięki którym neurony nie rozumieją się nawzajem.
03:18
They are confusedzmieszany,
61
180000
2000
Są zdezorientowane, dlatego nie możecie podjąć decyzji.
03:20
and you cannotnie może make a decisiondecyzja.
62
182000
3000
Są zdezorientowane, dlatego nie możecie podjąć decyzji.
03:23
So, while you're tryingpróbować to make up your mindumysł
63
185000
3000
Tak więc, gdy próbujecie osądzić,
03:26
what the doctorlekarz, the surgeonChirurg, is doing
64
188000
2000
co robi z wami chirurg,
03:28
while he's hackinghakerstwo away at your bodyciało, he's long goneodszedł.
65
190000
2000
jego już dawno nie ma.
03:30
He's at home havingmający teaherbata.
66
192000
2000
Jest w domu i pije herbatę.
03:32
(LaughterŚmiech)
67
194000
2000
(Śmiech)
03:34
So, when you walkspacerować up to a doordrzwi and you openotwarty it,
68
196000
3000
Kiedy otwieramy drzwi,
03:37
what you compulsivelykompulsywnie have to do to perceivepostrzegają
69
199000
3000
aby umożliwić percepcję, musimy podjąć tysiące decyzji.
03:40
is to make decisionsdecyzje,
70
202000
2000
aby umożliwić percepcję, musimy podjąć tysiące decyzji.
03:42
thousandstysiące of decisionsdecyzje about the sizerozmiar of the roompokój,
71
204000
3000
Decyzje o wielkości pomieszczenia,
03:45
the wallsściany, the heightwysokość, the objectsobiekty in this roompokój.
72
207000
3000
wysokości ścian, przedmiotów w pokoju.
03:48
99 percentprocent of what you see
73
210000
3000
99 procent tego, co widzicie,
03:51
is not what comespochodzi in throughprzez the eyesoczy.
74
213000
4000
nie pochodzi od oczu.
03:55
It is what you inferrozpoznać about that roompokój.
75
217000
4000
Pochodzi z tego, co wywnioskowaliście o tym pokoju.
03:59
So I can say, with some certaintypewność,
76
221000
4000
Z pewną dozą pewności mogę powiedzieć
04:03
"I think, thereforew związku z tym I am."
77
225000
3000
"Myślę, więc jestem."
04:06
But I cannotnie może say, "You think, thereforew związku z tym you are,"
78
228000
4000
Ale nie mogę powiedzieć: "Myślicie, więc jesteście",
04:10
because "you" are withinw ciągu my perceptualpercepcyjny bubblebańka.
79
232000
5000
bo znajdujecie się w mojej percepcyjnej bańce.
04:15
Now, we can speculatespekulować and philosophizefilozofować this,
80
237000
3000
Możemy teraz spekulować czy filozofować na ten temat
04:18
but we don't actuallytak właściwie have to for the nextNastępny hundredsto yearslat.
81
240000
3000
przez następne sto lat, ale w rzeczywistości wcale nie musimy.
04:21
We can askzapytać a very concretebeton questionpytanie.
82
243000
2000
Możemy zadać bardzo konkretne pytanie.
04:23
"Can the brainmózg buildbudować suchtaki a perceptionpostrzeganie?"
83
245000
4000
"Czy mózg może zbudować taką percepcję?"
04:27
Is it capablezdolny of doing it?
84
249000
2000
Czy potrafi tego dokonać?
04:29
Does it have the substancesubstancja to do it?
85
251000
2000
Czy ma do tego odpowiednie składniki?
04:31
And that's what I'm going to describeopisać to you todaydzisiaj.
86
253000
3000
I to zamierzam opisać wam dzisiaj.
04:34
So, it tookwziął the universewszechświat 11 billionmiliard yearslat to buildbudować the brainmózg.
87
256000
4000
Zbudowanie mózgu zajęło wszechświatowi 11 miliardów lat.
04:38
It had to improveulepszać it a little bitkawałek.
88
260000
2000
Musiał trochę jeszcze go ulepszyć.
04:40
It had to addDodaj to the frontalczołowy partczęść, so that you would have instinctsinstynkty,
89
262000
3000
Dodać płat czołowy, tak byście mogli mieć instynkty,
04:43
because they had to copesprostać on landwylądować.
90
265000
3000
przecież musiano poradzić sobie na lądzie.
04:46
But the realreal bigduży stepkrok was the neocortexneocortex.
91
268000
4000
Ale prawdziwie wielkim krokiem była kora nowa.
04:50
It's a newNowy brainmózg. You neededpotrzebne it.
92
272000
2000
To nowy mózg, którego potrzebowaliście.
04:52
The mammalsssaki neededpotrzebne it
93
274000
2000
Ssaki potrzebowały go,
04:54
because they had to copesprostać with parenthoodrodzicielstwa,
94
276000
4000
ponieważ musiały radzić sobie z rodzicielstwem,
04:58
socialspołeczny interactionsinterakcje,
95
280000
2000
interakcjami społecznymi,
05:00
complexzłożony cognitivepoznawczy functionsFunkcje.
96
282000
3000
złożonymi funkcjami poznawczymi.
05:03
So, you can think of the neocortexneocortex
97
285000
2000
Można powiedzieć, że kora nowa
05:05
actuallytak właściwie as the ultimateostateczny solutionrozwiązanie todaydzisiaj,
98
287000
5000
to ostateczne znane nam rozwiązanie
05:10
of the universewszechświat as we know it.
99
292000
3000
wytworzone przez wszechświat.
05:13
It's the pinnacleszczyt, it's the finalfinał productprodukt
100
295000
2000
To szczyt, produkt końcowy wszechświata.
05:15
that the universewszechświat has producedwytworzony.
101
297000
4000
To szczyt, produkt końcowy wszechświata.
05:19
It was so successfuludany in evolutionewolucja
102
301000
2000
Była ona tak skuteczny w ewolucji,
05:21
that from mousemysz to man it expandedrozszerzony
103
303000
2000
że od myszy do człowieka
05:23
about a thousandfoldthousandfold in termswarunki of the numbersliczby of neuronsneurony,
104
305000
3000
jej liczba neuronów wzrosła tysiąckrotnie,
05:26
to produceprodukować this almostprawie frighteningprzerażający
105
308000
3000
tworząc w końcu ten niemal przerażający narząd.
05:29
organorgan, structureStruktura.
106
311000
3000
tworząc w końcu ten niemal przerażający narząd.
05:32
And it has not stoppedzatrzymany its evolutionaryewolucyjny pathścieżka.
107
314000
3000
A jej ewolucja wcale się tu nie zatrzymała.
05:35
In factfakt, the neocortexneocortex in the humanczłowiek brainmózg
108
317000
2000
Kora nowa mózgu człowieka
05:37
is evolvingewoluować at an enormousogromny speedprędkość.
109
319000
3000
rozwija się z ogromną prędkością.
05:40
If you zoomPowiększenie into the surfacepowierzchnia of the neocortexneocortex,
110
322000
2000
Zagłębiwszy się w powierzchni kory nowej,
05:42
you discoverodkryć that it's madezrobiony up of little modulesmoduły,
111
324000
3000
widzimy, że składa się ona z małych modułów,
05:45
G5 processorsprocesory, like in a computerkomputer.
112
327000
2000
procesorów G5, jak w komputerze.
05:47
But there are about a millionmilion of them.
113
329000
3000
Ale tu jest ich około miliona.
05:50
They were so successfuludany in evolutionewolucja
114
332000
2000
Dawały taką przewagę ewolucyjną,
05:52
that what we did was to duplicateduplikować them
115
334000
2000
że mnożyliśmy je, póki nie zabrakło na nie miejsca
05:54
over and over and addDodaj more and more of them to the brainmózg
116
336000
2000
że mnożyliśmy je, póki nie zabrakło miejsca w czaszce.
05:56
untilaż do we ranpobiegł out of spaceprzestrzeń in the skullczaszka.
117
338000
3000
że mnożyliśmy je, póki nie zabrakło miejsca w czaszce.
05:59
And the brainmózg startedRozpoczęty to foldzagięcie in on itselfsamo,
118
341000
2000
Wtedy mózg zaczął się składać w sobie.
06:01
and that's why the neocortexneocortex is so highlywysoko convolutedzawiłe.
119
343000
3000
Dlatego kora nowa jest tak pofałdowana.
06:04
We're just packingpakowania in columnskolumny,
120
346000
2000
Pakowaliśmy ją w kolumny,
06:06
so that we'dpoślubić have more neocorticalkory nowej columnskolumny
121
348000
3000
bo do wykonywania złożonych zadań
06:09
to performwykonać more complexzłożony functionsFunkcje.
122
351000
3000
potrzebna była duża liczba kolumn neuronalnych.
06:12
So you can think of the neocortexneocortex actuallytak właściwie as
123
354000
2000
Korę nową można sobie wyobrazić jako wielkie pianino
06:14
a massivemasywny grandwielki pianofortepian,
124
356000
2000
Korę nową można sobie wyobrazić jako wielkie pianino
06:16
a million-keymilion klucz grandwielki pianofortepian.
125
358000
3000
z milionem klawiszy.
06:19
EachKażdy of these neocorticalkory nowej columnskolumny
126
361000
2000
Każda z kolumn neuronalnych gra określoną nutę.
06:21
would produceprodukować a noteUwaga.
127
363000
2000
Każda z kolumn neuronalnych gra określoną nutę.
06:23
You stimulatestymulować it; it producesprodukuje a symphonySymfonia.
128
365000
3000
Gdy ją pobudzimy, zagra symfonię.
06:26
But it's not just a symphonySymfonia of perceptionpostrzeganie.
129
368000
3000
To nie tylko symfonia percepcji.
06:29
It's a symphonySymfonia of your universewszechświat, your realityrzeczywistość.
130
371000
3000
To symfonia waszego świata, waszej rzeczywistości.
06:32
Now, of coursekurs it takes yearslat to learnuczyć się how
131
374000
3000
Oczywiście nauka gry na pianinie z milionem klawiszy trwa lata.
06:35
to mastermistrz a grandwielki pianofortepian with a millionmilion keysklucze.
132
377000
3000
Oczywiście nauka gry na pianinie z milionem klawiszy trwa lata.
06:38
That's why you have to sendwysłać your kidsdzieciaki to good schoolsszkoły,
133
380000
2000
To dlatego wysyłamy dzieci do dobrych szkół,
06:40
hopefullyufnie eventuallyostatecznie to OxfordOxford.
134
382000
2000
może w końcu do Oxfordu.
06:42
But it's not only educationEdukacja.
135
384000
3000
Ale nie chodzi tylko o edukację.
06:45
It's alsorównież geneticsgenetyka.
136
387000
2000
Chodzi też o geny.
06:47
You maymoże be bornurodzony luckySzczęściarz,
137
389000
2000
Możecie urodzić się szczęściarzami,
06:49
where you know how to mastermistrz your neocorticalkory nowej columnkolumna,
138
391000
4000
albo potrafić opanować swoje kolumny neuronalne
06:53
and you can playgrać a fantasticfantastyczny symphonySymfonia.
139
395000
2000
i grać fantastyczne symfonie.
06:55
In factfakt, there is a newNowy theoryteoria of autismautyzm
140
397000
3000
Nowa teoria autyzmu, teoria "intensywnego świata" ("intense world"),
06:58
callednazywa the "intenseintensywny worldświat" theoryteoria,
141
400000
2000
Nowa teoria autyzmu, teoria "intensywnego świata" ("intense world"),
07:00
whichktóry suggestswskazuje that the neocorticalkory nowej columnskolumny are super-columnsSuper-kolumny.
142
402000
4000
która sugeruje, że kolumny neuronalne to super-kolumny.
07:04
They are highlywysoko reactivereaktywne, and they are super-plasticSuper-plastik,
143
406000
4000
Są one bardzo reaktywne i super-plastyczne,
07:08
and so the autistsAutists are probablyprawdopodobnie capablezdolny of
144
410000
3000
więc osoby autystyczne są prawdopodobnie w stanie
07:11
buildingbudynek and learninguczenie się a symphonySymfonia
145
413000
2000
stworzyć i zrozumieć symfonię
07:13
whichktóry is unthinkablenie do pomyślenia for us.
146
415000
2000
dla nas nie do pojęcia.
07:15
But you can alsorównież understandzrozumieć
147
417000
2000
Ale rozumiecie,
07:17
that if you have a diseasechoroba
148
419000
2000
że jeśli jedna z tych kolumn jest chora,
07:19
withinw ciągu one of these columnskolumny,
149
421000
2000
że jeśli jedna z tych kolumn jest chora,
07:21
the noteUwaga is going to be off.
150
423000
2000
będzie grać fałszywie.
07:23
The perceptionpostrzeganie, the symphonySymfonia that you createStwórz
151
425000
2000
Percepcja, czyli symfonia, którą tworzycie, będzie uszkodzona,
07:25
is going to be corrupteduszkodzony,
152
427000
2000
Percepcja, czyli symfonia, którą tworzycie, będzie uszkodzona,
07:27
and you will have symptomsobjawy of diseasechoroba.
153
429000
3000
pojawią się objawy choroby.
07:30
So, the HolyŚwięty GrailGraal for neuroscienceneuronauka
154
432000
4000
Tak więc prawdziwym Świętym Graalem neurobiologii
07:34
is really to understandzrozumieć the designprojekt of the neocoriticalneocoritical columnkolumna --
155
436000
4000
jest zrozumienie konstrukcji kolumn neuronalnych kory nowej.
07:38
and it's not just for neuroscienceneuronauka;
156
440000
2000
Nie chodzi tu tylko o neurobiologię:
07:40
it's perhapsmoże to understandzrozumieć perceptionpostrzeganie, to understandzrozumieć realityrzeczywistość,
157
442000
3000
może to umożliwić zrozumienie percepcji, rzeczywistości,
07:43
and perhapsmoże to even alsorównież understandzrozumieć physicalfizyczny realityrzeczywistość.
158
445000
4000
a może nawet rzeczywistości fizycznej.
07:47
So, what we did was, for the pastprzeszłość 15 yearslat,
159
449000
3000
Tak więc przez ostatnie 15 lat
07:50
was to dissectwnikliwie out the neocortexneocortex, systematicallysystematycznie.
160
452000
4000
systematycznie rozkładaliśmy korę nową na czynniki pierwsze.
07:54
It's a bitkawałek like going and catalogingKatalogowanie a piecekawałek of the rainforestLas deszczowy.
161
456000
4000
To trochę jak katalogowanie odcinka lasu tropikalnego.
07:58
How manywiele treesdrzewa does it have?
162
460000
2000
Ile zawiera drzew?
08:00
What shapeskształty are the treesdrzewa?
163
462000
2000
Jakiego są one kształtu?
08:02
How manywiele of eachkażdy typerodzaj of treedrzewo do you have? Where are they positionedumieszczony?
164
464000
3000
Ile jest drzew każdego gatunku? Jak są one rozmieszczone?
08:05
But it's a bitkawałek more than catalogingKatalogowanie because you actuallytak właściwie have to
165
467000
2000
Ale to więcej niż katalogowanie,
08:07
describeopisać and discoverodkryć all the ruleszasady of communicationkomunikacja,
166
469000
4000
gdyż trzeba opisać i odkryć wszystkie zasady komunikacji,
08:11
the ruleszasady of connectivityłączność,
167
473000
2000
zasady łączności,
08:13
because the neuronsneurony don't just like to connectpołączyć with any neuronneuron.
168
475000
3000
ponieważ neurony nie łączą się z każdym neuronem.
08:16
They choosewybierać very carefullyostrożnie who they connectpołączyć with.
169
478000
3000
Bardzo starannie wybierają, z kim się połączą.
08:19
It's alsorównież more than catalogingKatalogowanie
170
481000
3000
To więcej niż katalogowanie także dlatego,
08:22
because you actuallytak właściwie have to buildbudować three-dimensionaltrójwymiarowy
171
484000
2000
że trzeba zbudować ich trójwymiarowy cyfrowy model.
08:24
digitalcyfrowy modelsmodele of them.
172
486000
2000
że trzeba zbudować ich trójwymiarowy cyfrowy model.
08:26
And we did that for tenskilkadziesiąt of thousandstysiące of neuronsneurony,
173
488000
2000
I zrobiliśmy to, dla dziesiątek tysięcy neuronów.
08:28
builtwybudowany digitalcyfrowy modelsmodele of all the differentróżne typestypy
174
490000
3000
Zbudowaliśmy cyfrowy model różnych rodzajów
08:31
of neuronsneurony we cameoprawa ołowiana witrażu acrossprzez.
175
493000
2000
neuronów, z którymi się spotkaliśmy.
08:33
And oncepewnego razu you have that, you can actuallytak właściwie
176
495000
2000
Dysponując takim modelem. można zacząć budowę kolumny neuronalnej.
08:35
beginzaczynać to buildbudować the neocorticalkory nowej columnkolumna.
177
497000
4000
Dysponując takim modelem. można zacząć budowę kolumny neuronalnej.
08:39
And here we're coilingzwijanie them up.
178
501000
3000
Tutaj rysuje się kolumna.
08:42
But as you do this, what you see
179
504000
3000
Ale tworząc kolumnę widzimy,
08:45
is that the branchesoddziały intersectkrzyżować
180
507000
2000
że rozgałęzienia neuronów przecinają się w milionach miejsc,
08:47
actuallytak właściwie in millionsmiliony of locationslokalizacje,
181
509000
3000
że rozgałęzienia neuronów przecinają się w milionach miejsc,
08:50
and at eachkażdy of these intersectionsskrzyżowania
182
512000
3000
a na każdym z tych przecięć
08:53
they can formformularz a synapsesynapsy.
183
515000
2000
mogą uformować się synapsy.
08:55
And a synapsesynapsy is a chemicalchemiczny locationLokalizacja
184
517000
2000
A synapsa to miejsce, w którym neurony komunikują się chemicznie.
08:57
where they communicatekomunikować się with eachkażdy other.
185
519000
3000
A synapsa to miejsce, w którym neurony komunikują się chemicznie.
09:00
And these synapsessynapsy togetherRazem
186
522000
2000
Synapsy razem tworzą sieć,
09:02
formformularz the networksieć
187
524000
2000
Synapsy razem tworzą sieć,
09:04
or the circuitobwód of the brainmózg.
188
526000
3000
czyli "obwody " mózgowe.
09:07
Now, the circuitobwód, you could alsorównież think of as
189
529000
4000
Można powiedzieć, że obwody te stanowią materię mózgu.
09:11
the fabrictkanina of the brainmózg.
190
533000
2000
Można powiedzieć, że obwody te stanowią materię mózgu.
09:13
And when you think of the fabrictkanina of the brainmózg,
191
535000
3000
A rozmyślając o materii, czy strukturze mózgu
09:16
the structureStruktura, how is it builtwybudowany? What is the patternwzór of the carpetwykładzina podłogowa?
192
538000
4000
i jego budowie, o wzorze tego dywanu,
09:20
You realizerealizować that this posespozy
193
542000
2000
uświadamiamy sobie, że te kwestie
09:22
a fundamentalfundamentalny challengewyzwanie to any theoryteoria of the brainmózg,
194
544000
4000
to podstawowe wyzwanie dla każdej teorii mózgu,
09:26
and especiallyszczególnie to a theoryteoria that saysmówi
195
548000
2000
a zwłaszcza takiej, która mówi,
09:28
that there is some realityrzeczywistość that emergeswyłania się
196
550000
2000
że z tego konkretnego dywanu o określonym wzorze
09:30
out of this carpetwykładzina podłogowa, out of this particularszczególny carpetwykładzina podłogowa
197
552000
3000
że z tego konkretnego dywanu o określonym wzorze
09:33
with a particularszczególny patternwzór.
198
555000
2000
wyłania się jakaś rzeczywistość.
09:35
The reasonpowód is because the mostwiększość importantważny designprojekt secretsekret of the brainmózg
199
557000
3000
To dlatego, że najważniejszym sekretem architektury mózgu
09:38
is diversityróżnorodność.
200
560000
2000
jest różnorodność.
09:40
EveryKażdy neuronneuron is differentróżne.
201
562000
2000
Każdy neuron jest inny.
09:42
It's the samepodobnie in the forestlas. EveryKażdy pinesosna treedrzewo is differentróżne.
202
564000
2000
Tak jak w lesie. Każda sosna jest inna.
09:44
You maymoże have manywiele differentróżne typestypy of treesdrzewa,
203
566000
2000
Jest wiele gatunków drzew,
09:46
but everykażdy pinesosna treedrzewo is differentróżne. And in the brainmózg it's the samepodobnie.
204
568000
3000
ale każda sosna jest inna. I w mózgu jest tak samo.
09:49
So there is no neuronneuron in my brainmózg that is the samepodobnie as anotherinne,
205
571000
3000
Tak więc w moim mózgu nie ma dwóch identycznych neuronów,
09:52
and there is no neuronneuron in my brainmózg that is the samepodobnie as in yoursTwój.
206
574000
3000
a żaden z nich nie jest identyczny z jakimkolwiek z waszych.
09:55
And your neuronsneurony are not going to be orientedzorientowane na and positionedumieszczony
207
577000
3000
Wasze neurony nie będą zorientowane i umiejscowione
09:58
in exactlydokładnie the samepodobnie way.
208
580000
2000
dokładnie tak samo.
10:00
And you maymoże have more or lessmniej neuronsneurony.
209
582000
2000
Możecie też mieć ich więcej lub mniej.
10:02
So it's very unlikelymało prawdopodobne
210
584000
2000
Więc jest mało prawdopodobne,
10:04
that you got the samepodobnie fabrictkanina, the samepodobnie circuitryzespół obwodów elektrycznych.
211
586000
4000
że macie tę samą strukturę, te same obwody.
10:08
So, how could we possiblymożliwie createStwórz a realityrzeczywistość
212
590000
2000
Jak więc możemy stworzyć rzeczywistość
10:10
that we can even understandzrozumieć eachkażdy other?
213
592000
3000
którą nawet rozumiemy nawzajem?
10:13
Well, we don't have to speculatespekulować.
214
595000
2000
Cóż, nie musimy spekulować.
10:15
We can look at all 10 millionmilion synapsessynapsy now.
215
597000
3000
Teraz możemy obserwować wszystkie 10 milionów synaps.
10:18
We can look at the fabrictkanina. And we can changezmiana neuronsneurony.
216
600000
3000
Możemy spojrzeć na materię i zmienić neurony.
10:21
We can use differentróżne neuronsneurony with differentróżne variationswariacje.
217
603000
2000
Korzystać z różnych neuronów i ich wariacji.
10:23
We can positionpozycja them in differentróżne placesmiejsca,
218
605000
2000
Ustawiać je w różnych pozycjach,
10:25
orientOrient them in differentróżne placesmiejsca.
219
607000
2000
zmieniać ich orientację.
10:27
We can use lessmniej or more of them.
220
609000
2000
Możemy użyć ich mniej lub więcej.
10:29
And when we do that
221
611000
2000
I odkryliśmy, że wtedy zmieniają się obwody.
10:31
what we discoveredodkryty is that the circuitryzespół obwodów elektrycznych does changezmiana.
222
613000
3000
I odkryliśmy, że wtedy zmieniają się obwody.
10:34
But the patternwzór of how the circuitryzespół obwodów elektrycznych is designedzaprojektowany does not.
223
616000
7000
jednak wzór ich konstrukcji pozostaje taki sam.
10:41
So, the fabrictkanina of the brainmózg,
224
623000
2000
Jeśli chodzi o strukturę tych obwodów,
10:43
even thoughchociaż your brainmózg maymoże be smallermniejszy, biggerwiększy,
225
625000
2000
nie ważne, jak wielki jest mózg,
10:45
it maymoże have differentróżne typestypy of neuronsneurony,
226
627000
3000
jakie zawiera typy neuronów,
10:48
differentróżne morphologiesmorfologii of neuronsneurony,
227
630000
2000
jaka jest ich morfologia,
10:50
we actuallytak właściwie do sharedzielić
228
632000
3000
struktura obwodów mózgowych zawsze jest u nas taka sama.
10:53
the samepodobnie fabrictkanina.
229
635000
2000
struktura obwodów mózgowych zawsze jest u nas taka sama.
10:55
And we think this is species-specificcharakterystyczne dla danego gatunku,
230
637000
2000
I sądzimy, że jest ona specyficzna dla gatunku,
10:57
whichktóry meansznaczy that that could explainwyjaśniać
231
639000
2000
co może wyjaśnić, dlaczego nie potrafimy
10:59
why we can't communicatekomunikować się acrossprzez speciesgatunki.
232
641000
2000
komunikować się między gatunkami.
11:01
So, let's switchprzełącznik it on. But to do it, what you have to do
233
643000
3000
A więc włączmy to. Ale najpierw trzeba to ożywić.
11:04
is you have to make this come aliveżywy.
234
646000
2000
A więc włączmy to. Ale najpierw trzeba to ożywić.
11:06
We make it come aliveżywy
235
648000
2000
Ożywiamy tę strukturę
11:08
with equationsrównania, a lot of mathematicsmatematyka.
236
650000
2000
przy pomocy równań; jest dużo matematyki.
11:10
And, in factfakt, the equationsrównania that make neuronsneurony into electricalelektryczny generatorsGeneratory
237
652000
4000
Równania, które zmieniają neurony w generatory elektryczne,
11:14
were discoveredodkryty by two CambridgeCambridge NobelLaureat Nagrody Nobla LaureatesLaureaci.
238
656000
3000
odkryli dwaj laureaci Nagrody Nobla z Cambridge.
11:17
So, we have the mathematicsmatematyka to make neuronsneurony come aliveżywy.
239
659000
3000
Mamy więc matematykę, która ożywi neurony.
11:20
We alsorównież have the mathematicsmatematyka to describeopisać
240
662000
2000
Mamy też matematykę, która opisuje,
11:22
how neuronsneurony collectzebrać informationInformacja,
241
664000
3000
jak neurony pobierają informacje,
11:25
and how they createStwórz a little lightningBłyskawica boltśruba
242
667000
3000
i jak tworzą małe błyskawice
11:28
to communicatekomunikować się with eachkażdy other.
243
670000
2000
do komunikacji między sobą.
11:30
And when they get to the synapsesynapsy,
244
672000
2000
A gdy te dotrą one do synapsy,
11:32
what they do is they effectivelyfaktycznie,
245
674000
2000
dosłownie porażają ją prądem.
11:34
literallydosłownie, shockzaszokować the synapsesynapsy.
246
676000
3000
dosłownie porażają ją prądem.
11:37
It's like electricalelektryczny shockzaszokować
247
679000
2000
To porażenie prądem
11:39
that releasesprasowe the chemicalschemikalia from these synapsessynapsy.
248
681000
3000
uwalnia z synaps substancje chemiczne.
11:42
And we'vemamy got the mathematicsmatematyka to describeopisać this processproces.
249
684000
3000
I mamy matematykę, która opisuje ten proces,
11:45
So we can describeopisać the communicationkomunikacja betweenpomiędzy the neuronsneurony.
250
687000
4000
dlatego możemy opisać komunikację między neuronami.
11:49
There literallydosłownie are only a handfulgarść
251
691000
3000
Do symulacji działania kory nowej
11:52
of equationsrównania that you need to simulatesymulować
252
694000
2000
potrzeba dosłownie kilku równań.
11:54
the activityczynność of the neocortexneocortex.
253
696000
2000
potrzeba dosłownie kilku równań.
11:56
But what you do need is a very bigduży computerkomputer.
254
698000
3000
Ale niezbędny jest potężny komputer.
11:59
And in factfakt you need one laptopkomputer przenośny
255
701000
2000
Do obliczeń dla jednego neuronu potrzeba jednego laptopa.
12:01
to do all the calculationsobliczenia just for one neuronneuron.
256
703000
3000
Do obliczeń dla jednego neuronu potrzeba jednego laptopa.
12:04
So you need 10,000 laptopslaptopy.
257
706000
2000
Czyli musimy mieć 10.000 laptopów.
12:06
So where do you go? You go to IBMIBM,
258
708000
2000
Więc idziecie do IBM po superkomputer, bo oni potrafią
12:08
and you get a supercomputersuperkomputer, because they know how to take
259
710000
2000
Więc idziecie do IBM po superkomputer, bo oni potrafią
12:10
10,000 laptopslaptopy and put it into the sizerozmiar of a refrigeratorlodówka.
260
712000
4000
zebrać moc 10.000 laptopów w coś wielkości lodówki.
12:14
So now we have this BlueNiebieski GeneGen supercomputersuperkomputer.
261
716000
3000
Więc teraz mamy superkomputer Blue Gene.
12:17
We can loadobciążenie up all the neuronsneurony,
262
719000
2000
Możemy załadować wszystkie neurony,
12:19
eachkażdy one on to its processoredytor,
263
721000
2000
każdy na swój procesor,
12:21
and fireogień it up, and see what happensdzieje się.
264
723000
4000
odpalić to i zobaczyć, co się stanie.
12:25
Take the magicmagia carpetwykładzina podłogowa for a ridejazda.
265
727000
3000
Wskoczyć na latający dywan.
12:28
Here we activateaktywować it. And this givesdaje the first glimpsedojrzeć
266
730000
3000
Tutaj go uaktywniliśmy. Oto pierwszy obraz tego,
12:31
of what is happeningwydarzenie in your brainmózg
267
733000
2000
co się dzieje w waszym mózgu
12:33
when there is a stimulationstymulacja.
268
735000
2000
podczas stymulacji.
12:35
It's the first viewwidok.
269
737000
2000
To pierwsze spojrzenie.
12:37
Now, when you look at that the first time, you think,
270
739000
2000
Obserwując to po raz pierwszy, myślicie,
12:39
"My god. How is realityrzeczywistość comingprzyjście out of that?"
271
741000
5000
"Boże, jak z tego wyłania się rzeczywistość?"
12:44
But, in factfakt, you can startpoczątek,
272
746000
3000
Ale tak naprawdę, możemy już zacząć,
12:47
even thoughchociaż we haven'tnie mam trainedprzeszkolony this neocorticalkory nowej columnkolumna
273
749000
4000
choć nie wyszkoliliśmy jeszcze tej kolumny
12:51
to createStwórz a specifickonkretny realityrzeczywistość.
274
753000
2000
w tworzeniu konkretnej rzeczywistości.
12:53
But we can askzapytać, "Where is the roseRóża?"
275
755000
4000
Ale możemy zapytać: "Gdzie jest ta róża?"
12:57
We can askzapytać, "Where is it insidewewnątrz,
276
759000
2000
"Gdzie ona jest w środku,
12:59
if we stimulatestymulować it with a pictureobrazek?"
277
761000
3000
jeśli stymulujemy kolumnę jej zdjęciem?"
13:02
Where is it insidewewnątrz the neocortexneocortex?
278
764000
2000
Gdzie ona jest w korze nowej?
13:04
UltimatelyOstatecznie it's got to be there if we stimulatedstymulowane it with it.
279
766000
4000
Ostatecznie to musi tam być, jeśli nią korę.
13:08
So, the way that we can look at that
280
770000
2000
Odpowiadając na to pytanie,
13:10
is to ignoreignorować the neuronsneurony, ignoreignorować the synapsessynapsy,
281
772000
3000
możemy zignorować neurony oraz synapsy
13:13
and look just at the rawsurowy electricalelektryczny activityczynność.
282
775000
2000
i obserwować surową aktywność elektryczną.
13:15
Because that is what it's creatingtworzenie.
283
777000
2000
Gdyż to właśnie tworzy kolumna.
13:17
It's creatingtworzenie electricalelektryczny patternswzorce.
284
779000
2000
Tworzony jest elektryczny wzór.
13:19
So when we did this,
285
781000
2000
Więc kiedy to zrobiliśmy,
13:21
we indeedw rzeczy samej, for the first time,
286
783000
2000
to rzeczywiście, po raz pierwszy
13:23
saw these ghost-likeGhost jak structuresStruktury:
287
785000
3000
zobaczyliśmy te widmowe struktury:
13:26
electricalelektryczny objectsobiekty appearingpojawiające się
288
788000
3000
elektryczne obiekty pojawiające się
13:29
withinw ciągu the neocorticalkory nowej columnkolumna.
289
791000
3000
wewnątrz kolumny kory nowej.
13:32
And it's these electricalelektryczny objectsobiekty
290
794000
3000
I to te elektryczne obiekty
13:35
that are holdingtrzymać all the informationInformacja about
291
797000
3000
przechowują wszelkie informacje
13:38
whatevercokolwiek stimulatedstymulowane it.
292
800000
3000
o czymkolwiek, co je stymuluje.
13:41
And then when we zoomedpowiększony into this,
293
803000
2000
A podążywszy głębiej,
13:43
it's like a veritableistne universewszechświat.
294
805000
4000
widzimy coś, co przypomina prawdziwy wszechświat.
13:47
So the nextNastępny stepkrok
295
809000
2000
Następnym krokiem byłoby
13:49
is just to take these brainmózg coordinateswspółrzędne
296
811000
4000
przeniesienie tych współrzędnych mózgowych
13:53
and to projectprojekt them into perceptualpercepcyjny spaceprzestrzeń.
297
815000
4000
przestrzeń przestrzeń percepcji.
13:57
And if you do that,
298
819000
2000
To umożliwiłoby nam wejście
13:59
you will be ablezdolny to stepkrok insidewewnątrz
299
821000
2000
To umożliwiłoby nam wejście
14:01
the realityrzeczywistość that is createdstworzony
300
823000
2000
w rzeczywistość tworzoną przez ten komputer,
14:03
by this machinemaszyna,
301
825000
2000
w rzeczywistość tworzoną przez ten komputer,
14:05
by this piecekawałek of the brainmózg.
302
827000
3000
przez ten kawałek mózgu.
14:08
So, in summaryKrótki opis,
303
830000
2000
Tak więc, podsumowując,
14:10
I think that the universewszechświat maymoże have --
304
832000
2000
myślę, że można powiedzieć,
14:12
it's possiblemożliwy --
305
834000
2000
iż wszechświat doprowadził do ewolucji
14:14
evolvedewoluował a brainmózg to see itselfsamo,
306
836000
3000
mózgu, który ma zobaczyć siebie,
14:17
whichktóry maymoże be a first stepkrok in becomingtwarzowy awareświadomy of itselfsamo.
307
839000
5000
co kiedyś może sprawić, że stanie się siebie świadomy.
14:22
There is a lot more to do to testtest these theoriesteorie,
308
844000
2000
Zbadanie tej teorii, jak i wszystkich innych, wymaga jeszcze wiele pracy.
14:24
and to testtest any other theoriesteorie.
309
846000
3000
Zbadanie tej teorii, jak i wszystkich innych, wymaga jeszcze wiele pracy.
14:27
But I hopenadzieja that you are at leastnajmniej partlyczęściowo convincedprzekonany
310
849000
3000
Ale mam nadzieję, że przynajmniej częściowo przekonałem was,
14:30
that it is not impossibleniemożliwy to buildbudować a brainmózg.
311
852000
3000
że zbudowanie mózgu nie jest niewykonalne.
14:33
We can do it withinw ciągu 10 yearslat,
312
855000
2000
Możemy to zrobić w ciągu 10 lat,
14:35
and if we do succeedosiągnąć sukces,
313
857000
2000
i jeśli się nam powiedzie,
14:37
we will sendwysłać to TEDTED, in 10 yearslat,
314
859000
2000
wyślemy do TED, za 10 lat,
14:39
a hologramHologram to talk to you. Thank you.
315
861000
3000
hologram, który z wami porozmawia. Dziękuję.
14:42
(ApplauseAplauz)
316
864000
6000
(Brawa)
Translated by Rafał Malinowski
Reviewed by Krystian Aparta

▲Back to top

ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com