ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com
TEDGlobal 2009

Henry Markram: A brain in a supercomputer

Henry Markram agyat épít egy szupercomputerrel

Filmed:
1,469,354 views

Henry Markram arról beszél, hogy az elme rejtelmei feltárulnak -- hamarosan. Mentális zavarok, memória, észlelés: mind idegsejtekből és elektromos jelekből állnak; Makram pedig azt tervezi, hogy feltérképezi ezeket egy szupercomputer segítségével, ami lemodellezi az agy mind a 100,000,000,000,000 szinapszisát.
- Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time. Full bio

Double-click the English transcript below to play the video.

00:18
Our missionmisszió is to buildépít
0
0
3000
Küldetésünk az, hogy létrehozzuk
00:21
a detailedrészletes, realisticreális
1
3000
2000
az emberi agy részletes és hiteles
00:23
computerszámítógép modelmodell of the humanemberi brainagy.
2
5000
2000
számítógépes modelljét.
00:25
And we'vevoltunk doneKész, in the pastmúlt fournégy yearsévek,
3
7000
3000
Az elmúlt 4 évben
00:28
a proofbizonyíték of conceptkoncepció
4
10000
2000
bizonyítottuk az elméletet
00:30
on a smallkicsi partrész of the rodentrágcsáló brainagy,
5
12000
3000
a rágcsálóagy egy részén
00:33
and with this proofbizonyíték of conceptkoncepció we are now scalingskálázás the projectprogram up
6
15000
3000
és ebből a bizonyításból kiindulva most növeljük a léptéket
00:36
to reachelér the humanemberi brainagy.
7
18000
3000
eljutva így az emberi agyig.
00:39
Why are we doing this?
8
21000
2000
Mért csináljuk mindezt?
00:41
There are threehárom importantfontos reasonsokok.
9
23000
2000
Ennek három fontos oka van.
00:43
The first is, it's essentialalapvető for us to understandmegért the humanemberi brainagy
10
25000
4000
Először is nagyon fontos megértenünk az emberi agyat,
00:47
if we do want to get alongmentén in societytársadalom,
11
29000
2000
ha boldogulni akarunk a társadalomban,
00:49
and I think that it is a keykulcs steplépés in evolutionevolúció.
12
31000
4000
és szerintem ez evolúciós szempontból is kulcsfontosságú lépés.
00:53
The secondmásodik reasonok is,
13
35000
2000
A második ok az,
00:55
we cannotnem tud keep doing animalállat experimentationkísérletezés foreverörökké,
14
37000
6000
hogy nem végezhetünk örökké állatkísérleteket
01:01
and we have to embodytestesítik all our dataadat and all our knowledgetudás
15
43000
4000
és testet kell öltsenek az adataink, a tudásunk
01:05
into a workingdolgozó modelmodell.
16
47000
3000
egy működőképes modell formájában.
01:08
It's like a Noah'sNoé ArkBárka. It's like an archiveArchívum.
17
50000
4000
Olyan ez, mint Noé bárkája. Mint egy levéltár.
01:12
And the thirdharmadik reasonok is that there are two billionmilliárd, ezermillió people on the planetbolygó
18
54000
3000
A harmadik ok pedig az, hogy a földön két milliárd ember
01:15
that are affectedérintett by mentalszellemi disorderrendellenesség,
19
57000
4000
valamilyen mentális zavarral él,
01:19
and the drugsgyógyszerek that are used todayMa
20
61000
2000
és a mai gyógyszerek
01:21
are largelynagymértékben empiricalempirikus.
21
63000
2000
nagy része tapasztalaton alapszik.
01:23
I think that we can come up with very concreteKonkrét solutionsmegoldások on
22
65000
3000
Azt gondolom, hogy elő tudunk állni konkrét megoldásokkal arra nézve,
01:26
how to treatcsemege disordersrendellenességek.
23
68000
3000
hogy hogyan kezeljük ezeket a zavarokat.
01:29
Now, even at this stageszínpad,
24
71000
3000
Már a mostani stádiumban
01:32
we can use the brainagy modelmodell
25
74000
2000
fel tudjuk használni az agy modellt
01:34
to exploreFedezd fel some fundamentalalapvető questionskérdések
26
76000
3000
néhány alapvető kérdés kutatására
01:37
about how the brainagy worksművek.
27
79000
2000
az agyműködést illetően.
01:39
And here, at TEDTED, for the first time,
28
81000
2000
És itt, a TED-en szeretném először
01:41
I'd like to shareOssza meg with you how we're addressingcímzés
29
83000
2000
megosztani a közönséggel, hogy hogyan közelítjük meg
01:43
one theoryelmélet -- there are manysok theorieselméletek --
30
85000
3000
az elméletek egyikét -- sok elmélet van ugyanis --
01:46
one theoryelmélet of how the brainagy worksművek.
31
88000
4000
az agy működéséről szóló egyik elméletet.
01:50
So, this theoryelmélet is that the brainagy
32
92000
4000
E szerint az elmélet szerint, az agy
01:54
createsteremt, buildsépít, a versionváltozat of the universevilágegyetem,
33
96000
6000
alkotja meg, építi fel az univerzum egy változatát.
02:00
and projectsprojektek this versionváltozat of the universevilágegyetem,
34
102000
3000
És az univerzum ezen változatát vetíti ki
02:03
like a bubblebuborék, all around us.
35
105000
4000
mint egy buborékot, körénk.
02:07
Now, this is of coursetanfolyam a topictéma of philosophicalfilozófiai debatevita for centuriesszázadok.
36
109000
4000
Persze ez évszázados filozófiai viták tárgyát képzi.
02:11
But, for the first time, we can actuallytulajdonképpen addresscím this,
37
113000
3000
De most először megközelíthetjük ezt
02:14
with brainagy simulationtettetés,
38
116000
2000
agyszimulációval,
02:16
and askkérdez very systematicrendszeres and rigorousszigorú questionskérdések,
39
118000
4000
illetve módszeresen, pontos kérdésekkel felderíthetjük,
02:20
whetherakár this theoryelmélet could possiblyesetleg be trueigaz.
40
122000
4000
vajon tényleg igaz lehet-e ez az elmélet?
02:24
The reasonok why the moonhold is hugehatalmas on the horizonhorizont
41
126000
3000
Annak az oka, hogy a hold óriási a horizonton,
02:27
is simplyegyszerűen because our perceptualészlelési bubblebuborék
42
129000
3000
az, hogy az észlelő-buborékunk
02:30
does not stretchkitágít out 380,000 kilometerskilométerre.
43
132000
4000
nem ér el 380,000 km messzire.
02:34
It runsfut out of spacehely.
44
136000
2000
Nincs elég helye.
02:36
And so what we do is we comparehasonlítsa össze the buildingsépületek
45
138000
4000
Így inkább az épületekhez viszonyítunk
02:40
withinbelül our perceptualészlelési bubblebuborék,
46
142000
2000
az észlelő-buborékunkból nézve
02:42
and we make a decisiondöntés.
47
144000
2000
és hozunk egy döntést.
02:44
We make a decisiondöntés it's that bignagy,
48
146000
2000
Úgy döntünk, hogy akkora,
02:46
even thoughbár it's not that bignagy.
49
148000
2000
akkor is ha valójában nem akkora
02:48
And what that illustratesazt mutatja
50
150000
2000
és ez azt mutatja,
02:50
is that decisionsdöntések are the keykulcs things
51
152000
2000
hogy a döntések kulcsfontosságúak ahhoz,
02:52
that supporttámogatás our perceptualészlelési bubblebuborék. It keepstartja it aliveélő.
52
154000
5000
hogy az észlelő-buborékunkat támogassák. Ez tartja életben.
02:57
WithoutNélkül decisionsdöntések you cannotnem tud see, you cannotnem tud think,
53
159000
2000
Döntések nélkül nem látunk, nem tudunk gondolkodni,
02:59
you cannotnem tud feel.
54
161000
2000
nem vagyunk képesek érezni.
03:01
And you maylehet think that anestheticsérzéstelenítők work
55
163000
2000
És lehet hogy Önök azt gondolják, hogy az anesztézia úgy működik,
03:03
by sendingelküldés you into some deepmély sleepalvás,
56
165000
3000
hogy valamiféle mély álomba küld bennünket,
03:06
or by blockingblokkoló your receptorsreceptorok so that you don't feel painfájdalom,
57
168000
3000
vagy azáltal, hogy nem engedi a receptoroknak a fájdalom érzékelését,
03:09
but in facttény mosta legtöbb anestheticsérzéstelenítők don't work that way.
58
171000
3000
de valójában a legtöbb altatás nem így működik.
03:12
What they do is they introducebevezet a noisezaj
59
174000
3000
Valójában altatáskor zörejt idéznek elő az agyban,
03:15
into the brainagy so that the neuronsneuronok cannotnem tud understandmegért eachminden egyes other.
60
177000
3000
hogy a neuronok ne értsék meg egymást!
03:18
They are confusedzavaros,
61
180000
2000
Megzavarodnak,
03:20
and you cannotnem tud make a decisiondöntés.
62
182000
3000
és képtelenek vagyunk döntést hozni.
03:23
So, while you're tryingmegpróbálja to make up your mindelme
63
185000
3000
Tehát mire mi végre kitaláljuk,
03:26
what the doctororvos, the surgeonsebész, is doing
64
188000
2000
hogy mégis mit csinál az orvos vagy a sebész,
03:28
while he's hackinghacker away at your bodytest, he's long goneelmúlt.
65
190000
2000
aki épp a testünket darabolja, addigra ő már rég hazament!
03:30
He's at home havingamelynek teatea.
66
192000
2000
És otthon teázgat.
03:32
(LaughterNevetés)
67
194000
2000
(nevetés)
03:34
So, when you walkséta up to a doorajtó and you opennyisd ki it,
68
196000
3000
Tehát amikor egy ajtóhoz lépünk és kinyitjuk
03:37
what you compulsivelykényszeresen nézik have to do to perceiveérzékeli
69
199000
3000
ami az észleléshez elengedhetetlen lesz,
03:40
is to make decisionsdöntések,
70
202000
2000
az a döntéshozatal,
03:42
thousandsTöbb ezer of decisionsdöntések about the sizeméret of the roomszoba,
71
204000
3000
több ezer döntés a szoba méretét,
03:45
the wallsfalak, the heightmagasság, the objectstárgyak in this roomszoba.
72
207000
3000
a falat, a magasságot, a szobában lévő tárgyakat illetően.
03:48
99 percentszázalék of what you see
73
210000
3000
99 százaléka annak, amit látunk
03:51
is not what comesjön in throughkeresztül the eyesszemek.
74
213000
4000
nem a szemünkön át ér el hozzánk.
03:55
It is what you inferkövetkeztetni about that roomszoba.
75
217000
4000
Hanem amit arról a szobáról kikövetkeztetünk!
03:59
So I can say, with some certaintybizonyosság,
76
221000
4000
Tehát mondhatom azt, némi bizonyossággal,
04:03
"I think, thereforeebből adódóan I am."
77
225000
3000
hogy "gondolkodom, tehát vagyok".
04:06
But I cannotnem tud say, "You think, thereforeebből adódóan you are,"
78
228000
4000
De azt nem mondhatom, hogy "Te gondolkozol, tehát vagy",
04:10
because "you" are withinbelül my perceptualészlelési bubblebuborék.
79
232000
5000
mert "te" csak az én észlelő-buborékomban létezel!
04:15
Now, we can speculatespekulál and philosophizeelmélkedik this,
80
237000
3000
Töprenghetünk és filozofálgathatunk ezen,
04:18
but we don't actuallytulajdonképpen have to for the nextkövetkező hundredszáz yearsévek.
81
240000
3000
de nem muszáj ezt tennünk az elkövetkező 100 évben.
04:21
We can askkérdez a very concreteKonkrét questionkérdés.
82
243000
2000
Mert feltehetünk egy nagyon is konkrét kérdést.
04:23
"Can the brainagy buildépít suchilyen a perceptionészlelés?"
83
245000
4000
"Tud-e az agy ilyen észlelést létrehozni?"
04:27
Is it capableképes of doing it?
84
249000
2000
Képes-e rá?
04:29
Does it have the substanceanyag to do it?
85
251000
2000
Van-e olyan anyag, amiből ezt létrehozza?
04:31
And that's what I'm going to describeleírni to you todayMa.
86
253000
3000
Éppen ezt fogom ma elmagyarázni Önöknek.
04:34
So, it tookvett the universevilágegyetem 11 billionmilliárd, ezermillió yearsévek to buildépít the brainagy.
87
256000
4000
Tehát a világegyetemnek 11 milliárd évébe került megépíteni az agyat.
04:38
It had to improvejavul it a little bitbit.
88
260000
2000
Kicsit javítania kellett rajta.
04:40
It had to addhozzáad to the frontalelülső partrész, so that you would have instinctsösztönök,
89
262000
3000
Hozzá kellett toldani a elülső részhez, hogy legyenek ösztöneink,
04:43
because they had to copemegbirkózik on landföld.
90
265000
3000
mert a szárazföldön kellett boldoguljunk.
04:46
But the realigazi bignagy steplépés was the neocortexagykéregben.
91
268000
4000
De az igazán nagy lépés a neokortex, az agykéreg volt.
04:50
It's a newúj brainagy. You neededszükséges it.
92
272000
2000
Ez egy új agy. Szükség volt rá.
04:52
The mammalsemlősök neededszükséges it
93
274000
2000
Az emlősöknek szükségük lett rá,
04:54
because they had to copemegbirkózik with parenthoodszülői,
94
276000
4000
mert meg kellett birkózni az utódneveléssel,
04:58
socialtársadalmi interactionskölcsönhatások,
95
280000
2000
a társas interakcióval,
05:00
complexösszetett cognitivemegismerő functionsfunkciók.
96
282000
3000
és az összetett kognitív funkciókkal.
05:03
So, you can think of the neocortexagykéregben
97
285000
2000
Vagyis gondolhatunk úgy a neokortexre,
05:05
actuallytulajdonképpen as the ultimatevégső solutionmegoldás todayMa,
98
287000
5000
mint a világegyetem legnagyobb vívmányára
05:10
of the universevilágegyetem as we know it.
99
292000
3000
amiről tudunk.
05:13
It's the pinnacleorom, it's the finalvégső producttermék
100
295000
2000
Ez egy csúcspont, egy végső termék
05:15
that the universevilágegyetem has producedelőállított.
101
297000
4000
amit az univerzum létrehozott.
05:19
It was so successfulsikeres in evolutionevolúció
102
301000
2000
Annyira sikeres volt az evolúció során,
05:21
that from mouseegér to man it expandedkiterjesztett
103
303000
2000
hogy az egértől az emberig terjeszkedve
05:23
about a thousandfoldezerszer in termsfeltételek of the numbersszám of neuronsneuronok,
104
305000
3000
ezerszeresére nőtt a idegsejtek száma,
05:26
to producegyárt this almostmajdnem frighteningijesztő
105
308000
3000
ezzel létrehozva ezt a szinte félelmetes
05:29
organszerv, structureszerkezet.
106
311000
3000
szervet, rendszert.
05:32
And it has not stoppedmegállt its evolutionaryevolúciós pathpálya.
107
314000
3000
És ez még nem az evolúciós út vége!
05:35
In facttény, the neocortexagykéregben in the humanemberi brainagy
108
317000
2000
Valójában a neokortex az emberi agyban
05:37
is evolvingfejlődik at an enormoushatalmas speedsebesség.
109
319000
3000
a mai napig hatalmas sebességgel fejlődik.
05:40
If you zoomzoomolás into the surfacefelület of the neocortexagykéregben,
110
322000
2000
Ha közelebbről vizsgáljuk a neokortex felületét
05:42
you discoverfelfedez that it's madekészült up of little modulesmodulok,
111
324000
3000
látni, hogy kisebb modulokból áll,
05:45
G5 processorsprocesszorok, like in a computerszámítógép.
112
327000
2000
G5 processzorokból, mint a számítógép.
05:47
But there are about a millionmillió of them.
113
329000
3000
Csak itt több millió van belőlük.
05:50
They were so successfulsikeres in evolutionevolúció
114
332000
2000
Ezek olyan sikeresek voltak az evolúció során,
05:52
that what we did was to duplicatemásolat them
115
334000
2000
hogy sokszorosítottuk őket
05:54
over and over and addhozzáad more and more of them to the brainagy
116
336000
2000
és egyre többet toldottunk az agyunkhoz belőlük,
05:56
untilamíg we ranfutott out of spacehely in the skullkoponya.
117
338000
3000
míg már nem volt több hely a koponyánkban.
05:59
And the brainagy startedindult to foldszeres in on itselfmaga,
118
341000
2000
És akkor az agy elkezdte összehajtogatni magát,
06:01
and that's why the neocortexagykéregben is so highlymagasan convolutedcsavart.
119
343000
3000
ettől olyan tekervényes a neokortex.
06:04
We're just packingcsomagolás in columnsoszlopok,
120
346000
2000
Oszlopokat zsúfolunk be,
06:06
so that we'dHázasodik have more neocorticalneocortical columnsoszlopok
121
348000
3000
hogy még több agykérgi oszlopunk legyen
06:09
to performteljesít more complexösszetett functionsfunkciók.
122
351000
3000
amik összetettebb feladatokra képesek.
06:12
So you can think of the neocortexagykéregben actuallytulajdonképpen as
123
354000
2000
Úgy is nézhetjük az új agykérget,
06:14
a massivetömeges grandnagy pianozongora,
124
356000
2000
mint egy versenyzongorát,
06:16
a million-keymillió-kulcs grandnagy pianozongora.
125
358000
3000
egy több millió billentyűs zongorát.
06:19
EachMinden of these neocorticalneocortical columnsoszlopok
126
361000
2000
Minden egyes agykérgi oszlop
06:21
would producegyárt a notejegyzet.
127
363000
2000
más hangot ad.
06:23
You stimulateösztönzése it; it producestermel a symphonyszimfónia.
128
365000
3000
Ha ingereljük, létrehoz egy szimfóniát.
06:26
But it's not just a symphonyszimfónia of perceptionészlelés.
129
368000
3000
Ám ez nem csak az észlelés szimfóniája!
06:29
It's a symphonyszimfónia of your universevilágegyetem, your realityvalóság.
130
371000
3000
Ez a saját univerzumunk, valóságunk szimfóniája!
06:32
Now, of coursetanfolyam it takes yearsévek to learntanul how
131
374000
3000
Persze évekbe telik megtanulni mesterien
06:35
to masterfő- a grandnagy pianozongora with a millionmillió keyskulcsok.
132
377000
3000
játszani a több millió billentyűn.
06:38
That's why you have to sendelküld your kidsgyerekek to good schoolsiskolákban,
133
380000
2000
Ezért kell a gyerekeket jó iskolákba küldenünk,
06:40
hopefullyremélhetőleg eventuallyvégül is to OxfordOxford.
134
382000
2000
remélhetőleg végül eljutnak Oxford-ba.
06:42
But it's not only educationoktatás.
135
384000
3000
De mindez nem csak nevelés kérdése.
06:45
It's alsois geneticsgenetika.
136
387000
2000
Genetika is.
06:47
You maylehet be bornszületett luckyszerencsés,
137
389000
2000
Van, aki szerencsésnek születik,
06:49
where you know how to masterfő- your neocorticalneocortical columnoszlop,
138
391000
4000
vagy irányítani tudja az oszlopokat az agykérgében,
06:53
and you can playjáték a fantasticfantasztikus symphonyszimfónia.
139
395000
2000
és nagyszerű szimfóniát hoz létre.
06:55
In facttény, there is a newúj theoryelmélet of autismautizmus
140
397000
3000
Van egy új elmélet az autizmusra
06:58
calledhívott the "intenseerős worldvilág" theoryelmélet,
141
400000
2000
amit "intenzív világ" elméletnek neveznek,
07:00
whichmelyik suggestsjavasolja that the neocorticalneocortical columnsoszlopok are super-columnsszuper-oszlopok.
142
402000
4000
és ami szerint az agykérgi oszlopok szuper-oszlopok.
07:04
They are highlymagasan reactivereaktív, and they are super-plasticszuper-műanyag,
143
406000
4000
Nagyon reaktívak és képlékenyek
07:08
and so the autistsautists are probablyvalószínűleg capableképes of
144
410000
3000
vagyis az autisták valószínűleg képesek
07:11
buildingépület and learningtanulás a symphonyszimfónia
145
413000
2000
egy olyan szimfóniát létrehozni és megtanulni,
07:13
whichmelyik is unthinkableelképzelhetetlen for us.
146
415000
2000
ami számunkra elképzelhetetlen.
07:15
But you can alsois understandmegért
147
417000
2000
De így az is érthetővé válik,
07:17
that if you have a diseasebetegség
148
419000
2000
hogy ha betegség alakul ki
07:19
withinbelül one of these columnsoszlopok,
149
421000
2000
az egyik oszlopban,
07:21
the notejegyzet is going to be off.
150
423000
2000
akkor az hang nem lesz tiszta.
07:23
The perceptionészlelés, the symphonyszimfónia that you createteremt
151
425000
2000
Az észlelés, a szimfónia, ami így jön létre,
07:25
is going to be corruptedsérült,
152
427000
2000
meg fog sérülni,
07:27
and you will have symptomstünetek of diseasebetegség.
153
429000
3000
és létrejönnek a betegség tünetei.
07:30
So, the HolySzent GrailGrál for neuroscienceidegtudomány
154
432000
4000
Vagyis az ideggyógyászat Szent Grálja
07:34
is really to understandmegért the designtervezés of the neocoriticalneocoritical columnoszlop --
155
436000
4000
az agykérgi oszlopok modelljének a feltárása --
07:38
and it's not just for neuroscienceidegtudomány;
156
440000
2000
és ez nem csak az ideggyógyászat számára lesz jó;
07:40
it's perhapstalán to understandmegért perceptionészlelés, to understandmegért realityvalóság,
157
442000
3000
hanem talán hogy megértsük az érzékelést, a valóságot
07:43
and perhapstalán to even alsois understandmegért physicalfizikai realityvalóság.
158
445000
4000
és talán, hogy megértsük magát a fizikai valóságot is.
07:47
So, what we did was, for the pastmúlt 15 yearsévek,
159
449000
3000
Az elmúlt 15 évben
07:50
was to dissectfelboncol out the neocortexagykéregben, systematicallyrendszeresen.
160
452000
4000
módszeresen kielemeztük az agykérget.
07:54
It's a bitbit like going and catalogingkatalogizálás a piecedarab of the rainforestesőerdő.
161
456000
4000
Mintha az esőerdő egy részét katalogizáltuk volna.
07:58
How manysok treesfák does it have?
162
460000
2000
Hány fa van benne?
08:00
What shapesalakzatok are the treesfák?
163
462000
2000
Milyen formájúak a fák?
08:02
How manysok of eachminden egyes typetípus of treefa do you have? Where are they positionedelhelyezni?
164
464000
3000
Melyik fajtából hány található ott? Hogyan helyezkednek el?
08:05
But it's a bitbit more than catalogingkatalogizálás because you actuallytulajdonképpen have to
165
467000
2000
De ez több, mint rendszerezés, mert le kell írni
08:07
describeleírni and discoverfelfedez all the rulesszabályok of communicationközlés,
166
469000
4000
és fel kell tárni a kommunikáció szabályait
08:11
the rulesszabályok of connectivitykapcsolat,
167
473000
2000
a kapcsolódás szabályait,
08:13
because the neuronsneuronok don't just like to connectkapcsolódni with any neuronidegsejt.
168
475000
3000
mert a neuronok nem szeretnek ám bármilyen neuronhoz kapcsolódni!
08:16
They chooseválaszt very carefullygondosan who they connectkapcsolódni with.
169
478000
3000
Nagy gonddal választják ki azt, akivel összekapcsolódnak.
08:19
It's alsois more than catalogingkatalogizálás
170
481000
3000
Azért is több ez, mint rendszerezés,
08:22
because you actuallytulajdonképpen have to buildépít three-dimensionalháromdimenziós
171
484000
2000
mert egy három dimenziós
08:24
digitaldigitális modelsmodellek of them.
172
486000
2000
digitális modellt kell belőle építenünk.
08:26
And we did that for tenstíz of thousandsTöbb ezer of neuronsneuronok,
173
488000
2000
És ezt meg is tettük több tízezer neuronnal,
08:28
builtépült digitaldigitális modelsmodellek of all the differentkülönböző typestípusok
174
490000
3000
digitálisan modelleztük a különböző
08:31
of neuronsneuronok we camejött acrossát.
175
493000
2000
idegeket, amikkel találkoztunk.
08:33
And onceegyszer you have that, you can actuallytulajdonképpen
176
495000
2000
És amint ez meglett, elkezdhettük
08:35
beginkezdődik to buildépít the neocorticalneocortical columnoszlop.
177
497000
4000
építeni az agykérgi oszlopot.
08:39
And here we're coilingtekercselés them up.
178
501000
3000
És itt összetekerjük.
08:42
But as you do this, what you see
179
504000
3000
De miközben ezt tesszük, azt vesszük észre,
08:45
is that the brancheságak intersectátvág
180
507000
2000
hogy az ágak keresztezik egymást
08:47
actuallytulajdonképpen in millionsTöbb millió of locationshelyek,
181
509000
3000
valójában több millió helyen,
08:50
and at eachminden egyes of these intersectionscsomópontok
182
512000
3000
és minden egyes kereszteződésnél
08:53
they can formforma a synapseszinapszis.
183
515000
2000
szinapszisokat hozhatnak létre.
08:55
And a synapseszinapszis is a chemicalkémiai locationelhelyezkedés
184
517000
2000
A szinapszis egy kémia hely,
08:57
where they communicatekommunikálni with eachminden egyes other.
185
519000
3000
ahol egymással kommunikálnak.
09:00
And these synapsesszinapszisok togetheregyütt
186
522000
2000
És a szinapszisok összessége
09:02
formforma the networkhálózat
187
524000
2000
hálózatot alkot
09:04
or the circuitáramkör of the brainagy.
188
526000
3000
vagyis az agy áramkörét.
09:07
Now, the circuitáramkör, you could alsois think of as
189
529000
4000
Namost erre az áramkörre gondolhatunk úgy is,
09:11
the fabricszövet of the brainagy.
190
533000
2000
mint az agy anyagára.
09:13
And when you think of the fabricszövet of the brainagy,
191
535000
3000
És ha az agy anyagára gondolunk,
09:16
the structureszerkezet, how is it builtépült? What is the patternminta of the carpetszőnyeg?
192
538000
4000
a szerkezetére, hogy hogyan épül fel, hogy mi a szőnyeg mintázata,
09:20
You realizemegvalósítani that this posespózok
193
542000
2000
rádöbbenünk, hogy ez
09:22
a fundamentalalapvető challengekihívás to any theoryelmélet of the brainagy,
194
544000
4000
alapvető kihívás elé állít minden agy-elméletet,
09:26
and especiallykülönösen to a theoryelmélet that saysmondja
195
548000
2000
főleg, ha az elmélet azt mondja ki,
09:28
that there is some realityvalóság that emergeskiemelkedik
196
550000
2000
hogy valamiféle valóság kerekedik ki
09:30
out of this carpetszőnyeg, out of this particularkülönös carpetszőnyeg
197
552000
3000
a szőnyegből, ebből a bizonyos szőnyegből,
09:33
with a particularkülönös patternminta.
198
555000
2000
aminek ez a bizonyos mintázata van.
09:35
The reasonok is because the mosta legtöbb importantfontos designtervezés secrettitok of the brainagy
199
557000
3000
Ennek oka pedig az, hogy az agy szerveződésének legfőbb titka
09:38
is diversitysokféleség.
200
560000
2000
a változatosság.
09:40
EveryMinden neuronidegsejt is differentkülönböző.
201
562000
2000
Minden egyes neuron más.
09:42
It's the sameazonos in the foresterdő. EveryMinden pinefenyő treefa is differentkülönböző.
202
564000
2000
Mint egy erdőben. Minden fenyő más benne.
09:44
You maylehet have manysok differentkülönböző typestípusok of treesfák,
203
566000
2000
Sokféle fa lehet benne,
09:46
but everyminden pinefenyő treefa is differentkülönböző. And in the brainagy it's the sameazonos.
204
568000
3000
de minden fenyő is más. És az agy is ugyanilyen.
09:49
So there is no neuronidegsejt in my brainagy that is the sameazonos as anotheregy másik,
205
571000
3000
Vagyis nincs az agyamban két egyforma neuron,
09:52
and there is no neuronidegsejt in my brainagy that is the sameazonos as in yoursa tiéd.
206
574000
3000
és nincs olyan agyi neuronom, ami megegyezne a tiéddel.
09:55
And your neuronsneuronok are not going to be orientedorientált and positionedelhelyezni
207
577000
3000
És a te neuronjaid nem fognak teljesen ugyanúgy
09:58
in exactlypontosan the sameazonos way.
208
580000
2000
elhelyezkedni, és irányulni.
10:00
And you maylehet have more or lessKevésbé neuronsneuronok.
209
582000
2000
És lehet, hogy több, vagy kevesebb neuronnal rendelkezel.
10:02
So it's very unlikelyvalószínűtlen
210
584000
2000
Vagyis igen valószínűtlen,
10:04
that you got the sameazonos fabricszövet, the sameazonos circuitryáramkör.
211
586000
4000
hogy ugyanaz lenne a te anyagod vagy áramköröd.
10:08
So, how could we possiblyesetleg createteremt a realityvalóság
212
590000
2000
Tehát hogy vagyunk képesek olyan valóságot teremteni,
10:10
that we can even understandmegért eachminden egyes other?
213
592000
3000
amiben egyáltalán értjük egymást?
10:13
Well, we don't have to speculatespekulál.
214
595000
2000
Nos, nem kell sokat töprengenünk ezen.
10:15
We can look at all 10 millionmillió synapsesszinapszisok now.
215
597000
3000
Most már megvizsgálhatjuk mind a 10 millió szinapszist.
10:18
We can look at the fabricszövet. And we can changeváltozás neuronsneuronok.
216
600000
3000
Megnézhetjük az anyagot. És megváltoztathatunk neuronokat.
10:21
We can use differentkülönböző neuronsneuronok with differentkülönböző variationsvariációk.
217
603000
2000
Használhatunk különböző neuronokat, különböző variációkban.
10:23
We can positionpozíció them in differentkülönböző placeshelyek,
218
605000
2000
Elhelyezhetjük őket máshova,
10:25
orientOrient them in differentkülönböző placeshelyek.
219
607000
2000
irányíthatjuk őket másfelé.
10:27
We can use lessKevésbé or more of them.
220
609000
2000
Növelhetjük vagy csökkentjük a számukat.
10:29
And when we do that
221
611000
2000
És amikor ezt megtettük,
10:31
what we discoveredfelfedezett is that the circuitryáramkör does changeváltozás.
222
613000
3000
felfedeztük, hogy az áramkör megváltozott.
10:34
But the patternminta of how the circuitryáramkör is designedtervezett does not.
223
616000
7000
De a minta, ami alapján az áramkör készül, nem változott.
10:41
So, the fabricszövet of the brainagy,
224
623000
2000
Vagyis az agy alapanyaga,
10:43
even thoughbár your brainagy maylehet be smallerkisebb, biggernagyobb,
225
625000
2000
akár kisebb, akár nagyobb az agyunk térfogata,
10:45
it maylehet have differentkülönböző typestípusok of neuronsneuronok,
226
627000
3000
vagy más fajta idegsejtekből épül fel,
10:48
differentkülönböző morphologiesmorfológiájú of neuronsneuronok,
227
630000
2000
más alakú neuronokból,
10:50
we actuallytulajdonképpen do shareOssza meg
228
632000
3000
végső soron mindannyian
10:53
the sameazonos fabricszövet.
229
635000
2000
ugyanabból az anyagból vagyunk.
10:55
And we think this is species-specificfajspecifikus,
230
637000
2000
Szerintünk ez fajspecifikus,
10:57
whichmelyik meanseszközök that that could explainmegmagyarázni
231
639000
2000
ami megmagyarázná, hogy
10:59
why we can't communicatekommunikálni acrossát speciesfaj.
232
641000
2000
mért nem tudnak a fajok egymással kommunikálni.
11:01
So, let's switchkapcsoló it on. But to do it, what you have to do
233
643000
3000
Akkor kapcsoljuk be. De ahhoz, hogy ezt megtehessük,
11:04
is you have to make this come aliveélő.
234
646000
2000
életre kell kelteni.
11:06
We make it come aliveélő
235
648000
2000
Életre kelteni pedig
11:08
with equationsegyenletek, a lot of mathematicsmatematika.
236
650000
2000
egyenletekkel és matematikával lehet.
11:10
And, in facttény, the equationsegyenletek that make neuronsneuronok into electricalelektromos generatorsgenerátorok
237
652000
4000
Az egyenleteket, amik a neuronokat elektromos generátorrá alakítják,
11:14
were discoveredfelfedezett by two CambridgeCambridge NobelNobel LaureatesDíjazottak.
238
656000
3000
két cambridge-i Nobel díjas fedezte fel.
11:17
So, we have the mathematicsmatematika to make neuronsneuronok come aliveélő.
239
659000
3000
Vagyis megvan a matek, ami megeleveníti a neuronokat.
11:20
We alsois have the mathematicsmatematika to describeleírni
240
662000
2000
Vannak egyenleteink is, amik leírják,
11:22
how neuronsneuronok collectgyűjt informationinformáció,
241
664000
3000
hogy hogyan gyűjt információt a neuron,
11:25
and how they createteremt a little lightningvillám boltcsavar
242
667000
3000
és hogy hogyan keletkezik az a kis villám,
11:28
to communicatekommunikálni with eachminden egyes other.
243
670000
2000
aminek segítségével egymással kommunikálnak.
11:30
And when they get to the synapseszinapszis,
244
672000
2000
És amikor a szinapszishoz érnek
11:32
what they do is they effectivelyhatékonyan,
245
674000
2000
gyakorlatilag annyit tesznek,
11:34
literallyszó szerint, shocksokk the synapseszinapszis.
246
676000
3000
hogy szó szerint, sokkolják a szinapszist.
11:37
It's like electricalelektromos shocksokk
247
679000
2000
Ez olyan, mint egy elektromos sokk,
11:39
that releaseskiadások the chemicalsvegyszerek from these synapsesszinapszisok.
248
681000
3000
amitől kémiai anyagokat bocsát ki a szinapszis.
11:42
And we'vevoltunk got the mathematicsmatematika to describeleírni this processfolyamat.
249
684000
3000
És matematikailag le tudjuk írni a folyamatot.
11:45
So we can describeleírni the communicationközlés betweenközött the neuronsneuronok.
250
687000
4000
Vagyis le tudjuk írni a neuronok közti kommunikációt.
11:49
There literallyszó szerint are only a handfulmaroknyi
251
691000
3000
Szó szerint csak egy maréknyi
11:52
of equationsegyenletek that you need to simulateszimulálni
252
694000
2000
egyenletre van szükség, hogy szimulálni tudjuk
11:54
the activitytevékenység of the neocortexagykéregben.
253
696000
2000
a neokortex tevékenységét.
11:56
But what you do need is a very bignagy computerszámítógép.
254
698000
3000
Amire szükség van, az egy nagyon nagy számítógép.
11:59
And in facttény you need one laptophordozható számítógép
255
701000
2000
Pontosabban egy laptop-ra van szükség
12:01
to do all the calculationsszámítások just for one neuronidegsejt.
256
703000
3000
neurononként, ami elvégzi a számításokat.
12:04
So you need 10,000 laptopslaptopok.
257
706000
2000
Vagyis 10 000 laptopra van szükség.
12:06
So where do you go? You go to IBMIBM,
258
708000
2000
Hova forduljunk? Az IBM-hez,
12:08
and you get a supercomputerszuperszámítógép, because they know how to take
259
710000
2000
és ők adnak egy szupercomputert, mert ők tudják, hogy lehet berakni
12:10
10,000 laptopslaptopok and put it into the sizeméret of a refrigeratorhűtőszekrény.
260
712000
4000
10 000 laptopot egy hűtőládányi térfogatba.
12:14
So now we have this BlueKék GeneGén supercomputerszuperszámítógép.
261
716000
3000
Itt van tehát ez a Blue Gene szupercomputerünk.
12:17
We can loadBetöltés up all the neuronsneuronok,
262
719000
2000
Betöltjük az összes neuront,
12:19
eachminden egyes one on to its processorfeldolgozó,
263
721000
2000
mindet a saját processzorához,
12:21
and fireTűz it up, and see what happensmegtörténik.
264
723000
4000
beindítjuk és lássuk mi történik.
12:25
Take the magicvarázslat carpetszőnyeg for a ridelovagol.
265
727000
3000
Repülünk egy kört a varázsszőnyeggel!
12:28
Here we activateaktiválása it. And this givesad the first glimpsemegpillant
266
730000
3000
Itt aktiváljuk. És ez az első bepillantás abba,
12:31
of what is happeningesemény in your brainagy
267
733000
2000
ami az agyban történik,
12:33
when there is a stimulationstimuláció.
268
735000
2000
amikor inger éri.
12:35
It's the first viewKilátás.
269
737000
2000
Ez az első nézet.
12:37
Now, when you look at that the first time, you think,
270
739000
2000
Elsőre talán azt gondolják, hogy
12:39
"My god. How is realityvalóság comingeljövetel out of that?"
271
741000
5000
"Úristen, ebből hogyan áll elő a valóság?"
12:44
But, in facttény, you can startRajt,
272
746000
3000
De valójában be lehet indítani,
12:47
even thoughbár we haven'tnincs trainedkiképzett this neocorticalneocortical columnoszlop
273
749000
4000
annak ellenére, hogy nem tanítottuk ezt az oszlopot arra,
12:51
to createteremt a specifickülönleges realityvalóság.
274
753000
2000
hogy valamiféle jellegzetes valóságot teremtsen.
12:53
But we can askkérdez, "Where is the roserózsa?"
275
755000
4000
De feltehetjük a kérdést, hogy "Hol a rózsa?"
12:57
We can askkérdez, "Where is it insidebelül,
276
759000
2000
Vagy "Hol látszik az belül,
12:59
if we stimulateösztönzése it with a picturekép?"
277
761000
3000
ha képpel ingereljük?"
13:02
Where is it insidebelül the neocortexagykéregben?
278
764000
2000
Hol található a neokortexen belül?
13:04
UltimatelyVégső soron it's got to be there if we stimulatedstimulált it with it.
279
766000
4000
Mert végülis ott kell lennie, ha ezzel ingereltük.
13:08
So, the way that we can look at that
280
770000
2000
Vagyis nézhetjük úgy,
13:10
is to ignorefigyelmen kívül hagyni the neuronsneuronok, ignorefigyelmen kívül hagyni the synapsesszinapszisok,
281
772000
3000
hogy figyelmen kívül hagyjuk a neuronokat, és a szinapszisokat,
13:13
and look just at the rawnyers electricalelektromos activitytevékenység.
282
775000
2000
és csak a nyers elektromos tevékenységgel foglalkozunk.
13:15
Because that is what it's creatinglétrehozása.
283
777000
2000
Ugyanis az az, amit létrehoz.
13:17
It's creatinglétrehozása electricalelektromos patternsminták.
284
779000
2000
Elektromos mintákat hoz létre.
13:19
So when we did this,
285
781000
2000
Úgyhogy amikor ezt megcsináltuk,
13:21
we indeedvalóban, for the first time,
286
783000
2000
akkor tényleg, az életben először
13:23
saw these ghost-likeszellem-szerű structuresszerkezetek:
287
785000
3000
megláttuk ezeket a szellemszerű szerkezeteket:
13:26
electricalelektromos objectstárgyak appearingmegjelenő
288
788000
3000
elektromos tárgyak jelentek meg
13:29
withinbelül the neocorticalneocortical columnoszlop.
289
791000
3000
az agykérgi oszlopban.
13:32
And it's these electricalelektromos objectstárgyak
290
794000
3000
És ezek az elektromos tárgyak
13:35
that are holdingholding all the informationinformáció about
291
797000
3000
tartalmazzák az információt az ingerről
13:38
whatevertök mindegy stimulatedstimulált it.
292
800000
3000
ami létrehozta őket.
13:41
And then when we zoomednagyított into this,
293
803000
2000
És amikor ráközelítettünk erre,
13:43
it's like a veritablevalóságos universevilágegyetem.
294
805000
4000
ez egy valóságos univerzumnak bizonyult.
13:47
So the nextkövetkező steplépés
295
809000
2000
Vagyis a következő lépés,
13:49
is just to take these brainagy coordinateskoordináták
296
811000
4000
fogni ezeket az agyi koordinátákat,
13:53
and to projectprogram them into perceptualészlelési spacehely.
297
815000
4000
és kivetíteni az észlelhető térbe.
13:57
And if you do that,
298
819000
2000
Ha ezt megtesszük,
13:59
you will be ableképes to steplépés insidebelül
299
821000
2000
képesek leszünk belépni
14:01
the realityvalóság that is createdkészítette
300
823000
2000
egy valóságba, aminek az alkotója
14:03
by this machinegép,
301
825000
2000
ez a gép,
14:05
by this piecedarab of the brainagy.
302
827000
3000
ez a darabka agy.
14:08
So, in summaryÖsszefoglaló,
303
830000
2000
Összegezve,
14:10
I think that the universevilágegyetem maylehet have --
304
832000
2000
azt gondolom, hogy a világegyetem, --
14:12
it's possiblelehetséges --
305
834000
2000
könnyen lehet, -- hogy azért hozta létre
14:14
evolvedfejlődött a brainagy to see itselfmaga,
306
836000
3000
az agyat, hogy lássa önmagát,
14:17
whichmelyik maylehet be a first steplépés in becomingegyre awaretudatában van of itselfmaga.
307
839000
5000
ami lehet hogy az első lépés az öntudatosság felé.
14:22
There is a lot more to do to testteszt these theorieselméletek,
308
844000
2000
Még bőven akad mit vizsgálni az elméleten
14:24
and to testteszt any other theorieselméletek.
309
846000
3000
és más elméleteken is.
14:27
But I hoperemény that you are at leastlegkevésbé partlyrészben convincedmeggyőződéses
310
849000
3000
De remélem, legalább részben meggyőztem Önöket arról,
14:30
that it is not impossiblelehetetlen to buildépít a brainagy.
311
852000
3000
hogy nem lehetetlen agyat építeni.
14:33
We can do it withinbelül 10 yearsévek,
312
855000
2000
10 év alatt elkészülünk
14:35
and if we do succeedsikerül,
313
857000
2000
és ha sikerül,
14:37
we will sendelküld to TEDTED, in 10 yearsévek,
314
859000
2000
10 év múlva küldünk a TED konferenciára
14:39
a hologramhologram to talk to you. Thank you.
315
861000
3000
egy beszélő hologrammot. Köszönöm.
14:42
(ApplauseTaps)
316
864000
6000
(taps)
Translated by Karina Palosi
Reviewed by Orsolya Szemere

▲Back to top

ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com