ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com
TEDGlobal 2009

Henry Markram: A brain in a supercomputer

Henry Markram baut ein Gehirn in einem Super-Computer

Filmed:
1,469,354 views

Henrsy Markram sagt, dass die Geheimnisse des Gehirns bald gelöst sein können. Geisteskrankheiten, Erinnerung, Wahrnehmung: sie bestehen aus Neuronen und elektrischen Signalen, und er plant sie mit einem Super-Computer, der das Gehirn mit 100,000,000,000,000 Synapsen modeliert, zu finden.
- Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time. Full bio

Double-click the English transcript below to play the video.

00:18
Our missionMission is to buildbauen
0
0
3000
Unsere Mission ist es,
00:21
a detailedAusführliche, realisticrealistische
1
3000
2000
ein detailiertes und realistisches
00:23
computerComputer modelModell- of the humanMensch brainGehirn.
2
5000
2000
Computermodell des menschlichen Hirns zu bauen.
00:25
And we'vewir haben doneerledigt, in the pastVergangenheit fourvier yearsJahre,
3
7000
3000
Und in den letzten vier Jahren
00:28
a proofBeweis of conceptKonzept
4
10000
2000
haben wir die Durchführbarkeit
00:30
on a smallklein partTeil of the rodentNagetier brainGehirn,
5
12000
3000
in einem kleinen Teil des Hirnes bei Nagetieren nachgewiesen,
00:33
and with this proofBeweis of conceptKonzept we are now scalingSkalierung the projectProjekt up
6
15000
3000
und mit diesem Machbarkeitsnachweis wollen wir das Projekt
00:36
to reacherreichen the humanMensch brainGehirn.
7
18000
3000
auf das menschliche Gehirn ausweiten.
00:39
Why are we doing this?
8
21000
2000
Warum wir das machen?
00:41
There are threedrei importantwichtig reasonsGründe dafür.
9
23000
2000
Es gibt drei wichtige Gründe.
00:43
The first is, it's essentialwesentlich for us to understandverstehen the humanMensch brainGehirn
10
25000
4000
Zum Ersten, es ist unerlässlich das menschliche Gehirn zu verstehen,
00:47
if we do want to get alongeine lange in societyGesellschaft,
11
29000
2000
wenn wir als Gesellschaft zurechtkommen wollen,
00:49
and I think that it is a keySchlüssel stepSchritt in evolutionEvolution.
12
31000
4000
und ich denke das ist ein wichtiger Schritt in Evolution.
00:53
The secondzweite reasonGrund is,
13
35000
2000
Zum Zweiten,
00:55
we cannotnicht können keep doing animalTier experimentationExperimente foreverfür immer,
14
37000
6000
wir können Tierversuche nicht ewig durchführen,
01:01
and we have to embodyverkörpern all our dataDaten and all our knowledgeWissen
15
43000
4000
und wir müssen all unsere Daten und all unser Wissen
01:05
into a workingArbeiten modelModell-.
16
47000
3000
in ein funktionierendes Modell einbauen.
01:08
It's like a Noah'sNoahs ArkArk. It's like an archiveArchiv.
17
50000
4000
Es ist wie Noah's Arche. Es ist wie ein Archiv.
01:12
And the thirddritte reasonGrund is that there are two billionMilliarde people on the planetPlanet
18
54000
3000
Der dritte Grund ist, dass es zwei Billionen Leute auf diesem Planeten gibt,
01:15
that are affectedbetroffen by mentalgeistig disorderStörung,
19
57000
4000
die an einer psychischen Störung leiden,
01:19
and the drugsDrogen that are used todayheute
20
61000
2000
und die Medikamente die heutzutage verwendet werden,
01:21
are largelyweitgehend empiricalempirischen.
21
63000
2000
basieren grösstenteils auf Erhebungen.
01:23
I think that we can come up with very concreteBeton solutionsLösungen on
22
65000
3000
Ich denke, wir können ganz konkrete Lösungen schaffen,
01:26
how to treatbehandeln disordersStörungen.
23
68000
3000
wie Störungen zu behandeln sind.
01:29
Now, even at this stageStufe,
24
71000
3000
Nun, sogar in diesem Stadium,
01:32
we can use the brainGehirn modelModell-
25
74000
2000
lässt sich das Hirn Modell dazu verwenden
01:34
to exploreerforschen some fundamentalgrundlegend questionsFragen
26
76000
3000
fundamentale Fragen zu beantworten,
01:37
about how the brainGehirn worksWerke.
27
79000
2000
wie das Gehirn funktioniert.
01:39
And here, at TEDTED, for the first time,
28
81000
2000
Und hier, bei TED, zum ersten Mal
01:41
I'd like to shareAktie with you how we're addressingAdressierung
29
83000
2000
möchte ich euch mitteilen wie wir eine Theorie
01:43
one theoryTheorie -- there are manyviele theoriesTheorien --
30
85000
3000
-- es gibt viele Theorien -- addressieren,
01:46
one theoryTheorie of how the brainGehirn worksWerke.
31
88000
4000
eine Theorie, wie das Gehirn funktioniert.
01:50
So, this theoryTheorie is that the brainGehirn
32
92000
4000
Nun, diese Theorie besagt, dass das Gehirn
01:54
createserstellt, buildsbaut, a versionVersion of the universeUniversum,
33
96000
6000
eine Version des Universum kreiert, erbaut.
02:00
and projectsProjekte this versionVersion of the universeUniversum,
34
102000
3000
Und diese Version des Universums projiziert es,
02:03
like a bubbleBlase, all around us.
35
105000
4000
wie eine Seifenblase, um uns herum.
02:07
Now, this is of courseKurs a topicThema of philosophicalphilosophisch debateDebatte for centuriesJahrhunderte.
36
109000
4000
Natürlich ist das eine philosophische Debatte für Jahrhunderte.
02:11
But, for the first time, we can actuallytatsächlich addressAdresse this,
37
113000
3000
Aber zum ersten Mal können wir dies
02:14
with brainGehirn simulationSimulation,
38
116000
2000
mit Gehirnsimulation wirklich addressieren,
02:16
and askFragen very systematicsystematische and rigorousrigoros questionsFragen,
39
118000
4000
und sehr systematische und rigorose Fragen stellen,
02:20
whetherob this theoryTheorie could possiblymöglicherweise be truewahr.
40
122000
4000
ob diese Theorie möglicherweise wahr sein könnte.
02:24
The reasonGrund why the moonMond is hugeenorm on the horizonHorizont
41
126000
3000
Der Grund, warum der Mond so gross am Horizont erscheint,
02:27
is simplyeinfach because our perceptualWahrnehmungs bubbleBlase
42
129000
3000
ist schlichtwegs dass unsere Wahrnehmungs Seifenblase
02:30
does not stretchstrecken out 380,000 kilometersKilometer.
43
132000
4000
sich nicht auf 380,000 Kilometer ausweitet.
02:34
It runsläuft out of spacePlatz.
44
136000
2000
Ihr geht der Platz aus.
02:36
And so what we do is we comparevergleichen the buildingsGebäude
45
138000
4000
Was wir also machen, ist die Strukturen in unserer
02:40
withininnerhalb our perceptualWahrnehmungs bubbleBlase,
46
142000
2000
Wahrnehmungs Seifenblase zu vergleichen,
02:42
and we make a decisionEntscheidung.
47
144000
2000
und wir treffen eine Entscheidung.
02:44
We make a decisionEntscheidung it's that biggroß,
48
146000
2000
Wir entscheiden, dass er gross ist,
02:46
even thoughobwohl it's not that biggroß.
49
148000
2000
obwohl er nicht so gross ist,
02:48
And what that illustrateszeigt
50
150000
2000
und was das illustriert, ist, dass unsere Entscheidungen
02:50
is that decisionsEntscheidungen are the keySchlüssel things
51
152000
2000
das Fundament sind, die unsere Wahrnehmungs Seifenblase
02:52
that supportUnterstützung our perceptualWahrnehmungs bubbleBlase. It keepshält it aliveam Leben.
52
154000
5000
unterstützen. Sie halten sie am Leben.
02:57
WithoutOhne decisionsEntscheidungen you cannotnicht können see, you cannotnicht können think,
53
159000
2000
Ohne Entscheidungen kannst du nicht sehen, kannst du nicht denken,
02:59
you cannotnicht können feel.
54
161000
2000
kannst du nicht fühlen.
03:01
And you maykann think that anestheticsAnästhetika work
55
163000
2000
Und du magst denken, dass Betäubungsmittel dadurch funktionieren,
03:03
by sendingSenden you into some deeptief sleepSchlaf,
56
165000
3000
dass du in Tiefschlaf versetzt wirst,
03:06
or by blockingblockieren your receptorsRezeptoren so that you don't feel painSchmerz,
57
168000
3000
oder dass deine Rezeptoren geblockt werden, damit du keinen Schmerz fühlst,
03:09
but in factTatsache mostdie meisten anestheticsAnästhetika don't work that way.
58
171000
3000
aber tatsächlich funktionieren die meisten Betäubungsmittel nicht so.
03:12
What they do is they introducevorstellen a noiseLärm
59
174000
3000
Was sie machen ist, ein Störsignal in das Hirn
03:15
into the brainGehirn so that the neuronsNeuronen cannotnicht können understandverstehen eachjede einzelne other.
60
177000
3000
zu senden, so dass Neuronen einander nicht mehr verstehen können.
03:18
They are confusedverwirrt,
61
180000
2000
Sie sind verwirrt,
03:20
and you cannotnicht können make a decisionEntscheidung.
62
182000
3000
und du kannst keine Entscheidung treffen.
03:23
So, while you're tryingversuchen to make up your mindVerstand
63
185000
3000
Während du versuchst zu begreifen,
03:26
what the doctorArzt, the surgeonChirurg, is doing
64
188000
2000
was der Doktor, Chirurg macht,
03:28
while he's hackingHacking away at your bodyKörper, he's long goneWeg.
65
190000
2000
während er sich an deinem Körper zu schaffen macht, ist er bereits weg.
03:30
He's at home havingmit teaTee.
66
192000
2000
Er ist zuhause und trinkt Tee.
03:32
(LaughterLachen)
67
194000
2000
(Gelächter)
03:34
So, when you walkgehen up to a doorTür and you openöffnen it,
68
196000
3000
Also, wenn du auf eine Türe zugehst, und sie öffnest,
03:37
what you compulsivelyzwanghaft have to do to perceivewahrnehmen
69
199000
3000
musst du zwingendermassen, um wahrzunehmen zu können,
03:40
is to make decisionsEntscheidungen,
70
202000
2000
Entscheidungen treffen,
03:42
thousandsTausende of decisionsEntscheidungen about the sizeGröße of the roomZimmer,
71
204000
3000
tausende Entscheidungen über die Grösse des Raumes,
03:45
the wallsWände, the heightHöhe, the objectsObjekte in this roomZimmer.
72
207000
3000
die Wand, die Höhe, die Objekte in dem Raum.
03:48
99 percentProzent of what you see
73
210000
3000
99 Prozent von dem was du siehst
03:51
is not what comeskommt in throughdurch the eyesAugen.
74
213000
4000
kommt nicht durch das Auge.
03:55
It is what you inferSchließen about that roomZimmer.
75
217000
4000
Es basiert auf deiner Schlussfolgerung vom Raum.
03:59
So I can say, with some certaintySicherheit,
76
221000
4000
Also kann ich mit gewisser Sicherheit sagen, dass
04:03
"I think, thereforedeswegen I am."
77
225000
3000
"Ich denke, also bin ich."
04:06
But I cannotnicht können say, "You think, thereforedeswegen you are,"
78
228000
4000
Aber ich kann nicht sagen, "Du bist, also bist du,"
04:10
because "you" are withininnerhalb my perceptualWahrnehmungs bubbleBlase.
79
232000
5000
weil "du" existierst innerhalb meiner Wahrnehmungs Seifenblase.
04:15
Now, we can speculatespekulieren and philosophizephilosophieren this,
80
237000
3000
Nun, wir können darüber spekulieren und philosophieren,
04:18
but we don't actuallytatsächlich have to for the nextNächster hundredhundert yearsJahre.
81
240000
3000
aber das müssen wir für die nächsten hundert Jahre eigentlich nicht.
04:21
We can askFragen a very concreteBeton questionFrage.
82
243000
2000
Wir können eine sehr konkrete Frage stellen.
04:23
"Can the brainGehirn buildbauen sucheine solche a perceptionWahrnehmung?"
83
245000
4000
"Kann das Gehirn eine solche Wahrnehmung kreieren?"
04:27
Is it capablefähig of doing it?
84
249000
2000
"Ist es imstande das zu tun?"
04:29
Does it have the substanceSubstanz to do it?
85
251000
2000
"Hat es die Fähigkeit das zu tun?"
04:31
And that's what I'm going to describebeschreiben to you todayheute.
86
253000
3000
Und das ist was ich euch heute beschreiben werde.
04:34
So, it tookdauerte the universeUniversum 11 billionMilliarde yearsJahre to buildbauen the brainGehirn.
87
256000
4000
Das Universum brauchte 11 Billionen Jahre um das Gehirn zu erschaffen.
04:38
It had to improveverbessern it a little bitBit.
88
260000
2000
Es musste sich etwas verbessern.
04:40
It had to addhinzufügen to the frontalfrontal partTeil, so that you would have instinctsInstinkte,
89
262000
3000
Es musste den vorderen Teil hinzufügen, damit man Instinkte hat,
04:43
because they had to copebewältigen on landLand.
90
265000
3000
weil man auf dem Land zurechtkommen mussten.
04:46
But the realecht biggroß stepSchritt was the neocortexNeocortex.
91
268000
4000
Der wirklich grosse Schritt war der Neocortex.
04:50
It's a newneu brainGehirn. You needederforderlich it.
92
272000
2000
Es war ein neues Gehirn. Man hat es gebraucht.
04:52
The mammalsSäugetiere needederforderlich it
93
274000
2000
Säugetiere brauchten es,
04:54
because they had to copebewältigen with parenthoodElternschaft,
94
276000
4000
weil sie Elternschaft bewältigen mussten,
04:58
socialSozial interactionsWechselwirkungen,
95
280000
2000
soziale Interaktionen,
05:00
complexKomplex cognitivekognitiv functionsFunktionen.
96
282000
3000
komplexe kognitive Funktionen.
05:03
So, you can think of the neocortexNeocortex
97
285000
2000
Entsprechend kann man sich den Neocortex
05:05
actuallytatsächlich as the ultimateLetztendlich solutionLösung todayheute,
98
287000
5000
als die ultimative Lösung
05:10
of the universeUniversum as we know it.
99
292000
3000
des uns bekannten Universums vorstellen.
05:13
It's the pinnacleHöhepunkt, it's the finalFinale productProdukt
100
295000
2000
Es ist der Höhepunkt, das Endprodukt,
05:15
that the universeUniversum has producedhergestellt.
101
297000
4000
dass das Universum produziert hat.
05:19
It was so successfulerfolgreich in evolutionEvolution
102
301000
2000
Es war so erfolgreich in Evolution,
05:21
that from mouseMaus to man it expandederweitert
103
303000
2000
dass es sich von der Maus zum Mensch
05:23
about a thousandfoldtausendfach in termsBegriffe of the numbersNummern of neuronsNeuronen,
104
305000
3000
um ein Tausendfaches ausweitete, was die Nummern von Neuronen angeht,
05:26
to produceproduzieren this almostfast frighteningerschreckend
105
308000
3000
und dieses fast furchterregende
05:29
organOrgan, structureStruktur.
106
311000
3000
Organ, diese Struktur entwickelte.
05:32
And it has not stoppedgestoppt its evolutionaryevolutionär pathPfad.
107
314000
3000
Und die Entwicklung stoppt damit nicht.
05:35
In factTatsache, the neocortexNeocortex in the humanMensch brainGehirn
108
317000
2000
Tatsächlich entwickelt sich der Neocortex im menschlichen Hirn
05:37
is evolvingsich entwickelnd at an enormousenorm speedGeschwindigkeit.
109
319000
3000
mit enormer Geschwindigkeit.
05:40
If you zoomZoomen into the surfaceOberfläche of the neocortexNeocortex,
110
322000
2000
Wenn man die Oberfläche des Neocortex näher beobachtet,
05:42
you discoverentdecken that it's madegemacht up of little modulesModule,
111
324000
3000
entdreckt man, dass es aus lauter kleinen Komponenten besteht.
05:45
G5 processorsProzessoren, like in a computerComputer.
112
327000
2000
G5 Prozessoren, wie in einem Computer.
05:47
But there are about a millionMillion of them.
113
329000
3000
Aber hier befinden sich ungefähr eine Million davon.
05:50
They were so successfulerfolgreich in evolutionEvolution
114
332000
2000
Sie waren so erfolgreich in ihrer Entwicklung,
05:52
that what we did was to duplicateDuplikat them
115
334000
2000
dass wir sie dupliziert haben,
05:54
over and over and addhinzufügen more and more of them to the brainGehirn
116
336000
2000
immer und immer wieder, und sie dem Gehirn hinzugefügt haben
05:56
untilbis we ranlief out of spacePlatz in the skullSchädel.
117
338000
3000
bis wir keinen Platz mehr im Schädel hatten.
05:59
And the brainGehirn startedhat angefangen to foldfalten in on itselfselbst,
118
341000
2000
Das Gehirn fing an sich zu falten,
06:01
and that's why the neocortexNeocortex is so highlyhöchst convolutedverworren.
119
343000
3000
weshalb der Neocortex so verschachtelt ist.
06:04
We're just packingVerpackung in columnsSpalten,
120
346000
2000
Wir packen sie nur in Säulen,
06:06
so that we'dheiraten have more neocorticalneokortikale columnsSpalten
121
348000
3000
so dass wir mehr neokortikalen Säulen besitzen,
06:09
to performausführen more complexKomplex functionsFunktionen.
122
351000
3000
um komplexere Funktionen durchzuführen.
06:12
So you can think of the neocortexNeocortex actuallytatsächlich as
123
354000
2000
Entsprechend kann man sich den Neocortex
06:14
a massivemassiv grandgroßartig pianoKlavier,
124
356000
2000
als einen grossen Flügel,
06:16
a million-keyMillionen-Tasten grandgroßartig pianoKlavier.
125
358000
3000
ein Millionen-tastigen Flügel vorstellen.
06:19
EachJedes of these neocorticalneokortikale columnsSpalten
126
361000
2000
Jede dieser neokortikalen Säulen
06:21
would produceproduzieren a noteHinweis.
127
363000
2000
würde eine Note produzieren.
06:23
You stimulatestimulieren it; it producesproduziert a symphonySymphonie.
128
365000
3000
Man stimuliert es; es kreiert eine Symphonie.
06:26
But it's not just a symphonySymphonie of perceptionWahrnehmung.
129
368000
3000
Aber es ist nicht nur eine Symphonie der Wahrnehmung.
06:29
It's a symphonySymphonie of your universeUniversum, your realityWirklichkeit.
130
371000
3000
Es ist die Symphonie eines Universums, deiner Realität.
06:32
Now, of courseKurs it takes yearsJahre to learnlernen how
131
374000
3000
Nun, natürlich dauert es Jahre zu lernen, wie
06:35
to masterMeister a grandgroßartig pianoKlavier with a millionMillion keysSchlüssel.
132
377000
3000
man einen Flügel mit Millionen Tasten meistert.
06:38
That's why you have to sendsenden your kidsKinder to good schoolsSchulen,
133
380000
2000
Das ist der Grund warum man seine Kinder an gute Schulen schickt,
06:40
hopefullyhoffentlich eventuallyschließlich to OxfordOxford.
134
382000
2000
hoffentlich schlussendlich nach Oxford.
06:42
But it's not only educationBildung.
135
384000
3000
Aber es kommt nicht nur auf die Bildung darauf an.
06:45
It's alsoebenfalls geneticsGenetik.
136
387000
2000
Auch auf die Genetik.
06:47
You maykann be borngeboren luckyglücklich,
137
389000
2000
Man mag mit Glück geboren sein,
06:49
where you know how to masterMeister your neocorticalneokortikale columnSäule,
138
391000
4000
oder wissen, wie man seine neokortikale Säule meistern kann,
06:53
and you can playspielen a fantasticfantastisch symphonySymphonie.
139
395000
2000
und kann eine fantastische Symphonie spielen.
06:55
In factTatsache, there is a newneu theoryTheorie of autismAutismus
140
397000
3000
Tatsächlich gibt es eine neue Theorie über Autismus,
06:58
callednamens the "intenseintensiv worldWelt" theoryTheorie,
141
400000
2000
auch die "Intense World" Theorie genannt,
07:00
whichwelche suggestsschlägt vor that the neocorticalneokortikale columnsSpalten are super-columnsSuper-Spalten.
142
402000
4000
welche suggeriert, dass die neokortikalen Säulen, Super-Säulen sind.
07:04
They are highlyhöchst reactivereaktive, and they are super-plasticSuper-Kunststoff,
143
406000
4000
Sie sind höchst reaktiv und äusserst formbar,
07:08
and so the autistsAutisten are probablywahrscheinlich capablefähig of
144
410000
3000
und so haben Autisten möglicherweise die Fähigkeit
07:11
buildingGebäude and learningLernen a symphonySymphonie
145
413000
2000
Symphonien zu erbauen und zu lernen,
07:13
whichwelche is unthinkableundenkbar for us.
146
415000
2000
welche für uns undenkbar sind.
07:15
But you can alsoebenfalls understandverstehen
147
417000
2000
Aber man kann auch verstehen,
07:17
that if you have a diseaseKrankheit
148
419000
2000
dass wenn sich eine Krankheit
07:19
withininnerhalb one of these columnsSpalten,
149
421000
2000
innerhalb dieser Säulen befindet,
07:21
the noteHinweis is going to be off.
150
423000
2000
die Noten falsch sein werden.
07:23
The perceptionWahrnehmung, the symphonySymphonie that you createerstellen
151
425000
2000
Die Wahrnehmung, die Symphonie die man kreiert,
07:25
is going to be corruptedbeschädigt,
152
427000
2000
wird verfälscht,
07:27
and you will have symptomsSymptome of diseaseKrankheit.
153
429000
3000
und man weist Symptome einer Krankheit auf.
07:30
So, the HolyHeiligen GrailGral for neuroscienceNeurowissenschaften
154
432000
4000
Deshalb ist der Heilige Gral der Neurowissenschaft,
07:34
is really to understandverstehen the designEntwurf of the neocoriticalneocoritical columnSäule --
155
436000
4000
das Design der neokortikalen Säulen wirklich zu verstehen --
07:38
and it's not just for neuroscienceNeurowissenschaften;
156
440000
2000
und dies nicht nur für die Neurowissenschaft;
07:40
it's perhapsvielleicht to understandverstehen perceptionWahrnehmung, to understandverstehen realityWirklichkeit,
157
442000
3000
vielleicht ermöglicht es Wahrnehmung und die Realität zu verstehen,
07:43
and perhapsvielleicht to even alsoebenfalls understandverstehen physicalphysisch realityWirklichkeit.
158
445000
4000
und vielleicht sogar eine physikalische Realität.
07:47
So, what we did was, for the pastVergangenheit 15 yearsJahre,
159
449000
3000
So, was wir für die letzten 15 Jahre gemacht haben,
07:50
was to dissectsezieren out the neocortexNeocortex, systematicallysystematisch.
160
452000
4000
war es, den Neocortex systematisch zerlegen.
07:54
It's a bitBit like going and catalogingKatalogisierung a pieceStück of the rainforestRegenwald.
161
456000
4000
Es ist ähnlich wie ein Stück des Regenwaldes zu katalogisieren.
07:58
How manyviele treesBäume does it have?
162
460000
2000
Wieviele Bäume gibt es?
08:00
What shapesFormen are the treesBäume?
163
462000
2000
Welche Form haben die Bäume?
08:02
How manyviele of eachjede einzelne typeArt of treeBaum do you have? Where are they positionedpositioniert?
164
464000
3000
Wieviele pro Typus Baum gibt es? Wo sind sie positioniert?
08:05
But it's a bitBit more than catalogingKatalogisierung because you actuallytatsächlich have to
165
467000
2000
Es ist ein bisschen mehr als Katalogisieren, da man eigentlich
08:07
describebeschreiben and discoverentdecken all the rulesRegeln of communicationKommunikation,
166
469000
4000
alle Regeln der Kommunikation beschreiben und entdecken muss,
08:11
the rulesRegeln of connectivityKonnektivität,
167
473000
2000
die Regeln der Konnektivität,
08:13
because the neuronsNeuronen don't just like to connectverbinden with any neuronNeuron.
168
475000
3000
weil die Neuronen nicht nur mit irgendeinem Neuron verknüpfen wollen.
08:16
They choosewählen very carefullyvorsichtig who they connectverbinden with.
169
478000
3000
Sie wählen sehr sorgfältig aus, mit wem sie sich verknüpfen.
08:19
It's alsoebenfalls more than catalogingKatalogisierung
170
481000
3000
Es ist auch mehr als Katalogisieren,
08:22
because you actuallytatsächlich have to buildbauen three-dimensionaldreidimensional
171
484000
2000
weil man ein drei-dimensionales
08:24
digitaldigital modelsModelle of them.
172
486000
2000
digitales Modell von ihnen bauen muss.
08:26
And we did that for tenszehn of thousandsTausende of neuronsNeuronen,
173
488000
2000
Und das machten wir für Tausende von Neuronen,
08:28
builtgebaut digitaldigital modelsModelle of all the differentanders typesTypen
174
490000
3000
bauten digitale Modelle für alle verschiedenen Typen von Neuronen
08:31
of neuronsNeuronen we camekam acrossüber.
175
493000
2000
welche wir antrafen.
08:33
And onceEinmal you have that, you can actuallytatsächlich
176
495000
2000
Und sobald man das hat, kann man
08:35
beginStart to buildbauen the neocorticalneokortikale columnSäule.
177
497000
4000
beginnen eine neokortikale Kolumne zu kreieren.
08:39
And here we're coilingAufwickeln them up.
178
501000
3000
Und hier wickeln wir sie auf.
08:42
But as you do this, what you see
179
504000
3000
Aber während man das macht, sieht man,
08:45
is that the branchesFilialen intersectschneiden
180
507000
2000
dass die Äste sich
08:47
actuallytatsächlich in millionsMillionen of locationsStandorte,
181
509000
3000
in Millionen von Orten überschneiden,
08:50
and at eachjede einzelne of these intersectionsKreuzungen
182
512000
3000
und an jeder dieser Überschneidung
08:53
they can formbilden a synapseSynapse.
183
515000
2000
können sie eine Synapse formen.
08:55
And a synapseSynapse is a chemicalchemisch locationLage
184
517000
2000
Und eine Synapse ist ein chemischer Ort
08:57
where they communicatekommunizieren with eachjede einzelne other.
185
519000
3000
an welchem sie miteinander kommunizieren.
09:00
And these synapsesSynapsen togetherzusammen
186
522000
2000
Und diese Synapsen miteinander
09:02
formbilden the networkNetzwerk
187
524000
2000
vom Netzwerk
09:04
or the circuitSchaltung of the brainGehirn.
188
526000
3000
oder Schaltkreis des Hirns.
09:07
Now, the circuitSchaltung, you could alsoebenfalls think of as
189
529000
4000
Nun, diesen Schaltkreis kann man sich auch als
09:11
the fabricStoff of the brainGehirn.
190
533000
2000
als Gewebe des Hirns vorstellen.
09:13
And when you think of the fabricStoff of the brainGehirn,
191
535000
3000
Und wenn man sich das Gewebe des Hirns vorstellt,
09:16
the structureStruktur, how is it builtgebaut? What is the patternMuster of the carpetTeppich?
192
538000
4000
die Struktur, wie ist es gebaut? Was ist das Muster des "Teppichs"?
09:20
You realizerealisieren that this posesPosen
193
542000
2000
Man realisiert, dass dies
09:22
a fundamentalgrundlegend challengeHerausforderung to any theoryTheorie of the brainGehirn,
194
544000
4000
eine fundamentale Herausforderung an jede Theorie des Hirns ist,
09:26
and especiallyinsbesondere to a theoryTheorie that sayssagt
195
548000
2000
und insbesondere an eine Theorie die besagt,
09:28
that there is some realityWirklichkeit that emergesentsteht
196
550000
2000
dass eine Art Realität
09:30
out of this carpetTeppich, out of this particularinsbesondere carpetTeppich
197
552000
3000
aus diesem "Teppich" hervorgeht, aus diesem bestimmten "Teppich"
09:33
with a particularinsbesondere patternMuster.
198
555000
2000
mit einem bestimmten Muster.
09:35
The reasonGrund is because the mostdie meisten importantwichtig designEntwurf secretGeheimnis of the brainGehirn
199
557000
3000
Der Grund ist, weil das wichtigste Design Geheimnis des Hirns
09:38
is diversityVielfalt.
200
560000
2000
Vielfältigkeit ist.
09:40
EveryJedes neuronNeuron is differentanders.
201
562000
2000
Jedes Neuron ist verschieden.
09:42
It's the samegleich in the forestWald. EveryJedes pineKiefer treeBaum is differentanders.
202
564000
2000
Es ist das gleiche wie in einem Wald. Jede Kiefer ist anders.
09:44
You maykann have manyviele differentanders typesTypen of treesBäume,
203
566000
2000
Man hat vielleicht viele verschiedene Arten von Bäumen,
09:46
but everyjeden pineKiefer treeBaum is differentanders. And in the brainGehirn it's the samegleich.
204
568000
3000
aber jede Kiefer ist anders. Und im Gehirn ist es das gleiche.
09:49
So there is no neuronNeuron in my brainGehirn that is the samegleich as anotherein anderer,
205
571000
3000
Also ist kein Neuron in meinem Gehirn gleich wie ein weiteres,
09:52
and there is no neuronNeuron in my brainGehirn that is the samegleich as in yoursdeine.
206
574000
3000
und es es gibt kein Neuron in meinem Hirn, dass gleich ist wie in eurem.
09:55
And your neuronsNeuronen are not going to be orientedorientierte and positionedpositioniert
207
577000
3000
Und eure Neuronen sind nicht in exakt gleicher Weise
09:58
in exactlygenau the samegleich way.
208
580000
2000
auf genau gleiche Art und Weise orientiert und positioniert.
10:00
And you maykann have more or lessWeniger neuronsNeuronen.
209
582000
2000
Und ihr habt möglicherweise mehr oder weniger Neuronen.
10:02
So it's very unlikelyunwahrscheinlich
210
584000
2000
Entsprechend ist sehr unwahrscheinlich,
10:04
that you got the samegleich fabricStoff, the samegleich circuitrySchaltung.
211
586000
4000
dass ihr das gleiche Gewebe habt, die gleichen Schaltkreise.
10:08
So, how could we possiblymöglicherweise createerstellen a realityWirklichkeit
212
590000
2000
Nun, wie könnten wir möglicherweise eine Realität kreieren,
10:10
that we can even understandverstehen eachjede einzelne other?
213
592000
3000
so dass wir einander verstehen können?
10:13
Well, we don't have to speculatespekulieren.
214
595000
2000
Wir müssen nicht spekulieren.
10:15
We can look at all 10 millionMillion synapsesSynapsen now.
215
597000
3000
Wir können nun 10 Millionen Synapsen betrachten.
10:18
We can look at the fabricStoff. And we can changeVeränderung neuronsNeuronen.
216
600000
3000
Wir können das Gewebe betrachten. Und wir können Neuronen verändern.
10:21
We can use differentanders neuronsNeuronen with differentanders variationsVariationen.
217
603000
2000
Wir können verschiedene Neuronen mit verschiedenen Variationen verwenden.
10:23
We can positionPosition them in differentanders placessetzt,
218
605000
2000
Wir können sie in verschiedenen Orten platzieren,
10:25
orientOrient them in differentanders placessetzt.
219
607000
2000
in verschiedenen Orten orientieren.
10:27
We can use lessWeniger or more of them.
220
609000
2000
Wir können mehr von ihnen verwenden, oder weniger.
10:29
And when we do that
221
611000
2000
Und wenn wir das machen,
10:31
what we discoveredentdeckt is that the circuitrySchaltung does changeVeränderung.
222
613000
3000
was wir entdeckt haben, ist, dass der Schaltkreis sich verändert.
10:34
But the patternMuster of how the circuitrySchaltung is designedentworfen does not.
223
616000
7000
Aber das Muster wie die Schaltkreise gestaltet sind, nicht.
10:41
So, the fabricStoff of the brainGehirn,
224
623000
2000
Also, das Gewebe des Hirns,
10:43
even thoughobwohl your brainGehirn maykann be smallerkleiner, biggergrößer,
225
625000
2000
auch wenn eure Gehirne ein bisschen kleiner, grösser sind,
10:45
it maykann have differentanders typesTypen of neuronsNeuronen,
226
627000
3000
vielleicht haben sie andere Arten von Neuronen,
10:48
differentanders morphologiesMorphologien of neuronsNeuronen,
227
630000
2000
andere Morphologien von Neuronen,
10:50
we actuallytatsächlich do shareAktie
228
632000
3000
tatsächlich teilen wir
10:53
the samegleich fabricStoff.
229
635000
2000
das gleiche Gewebe.
10:55
And we think this is species-specificartspezifische,
230
637000
2000
Und wir denken dass dies Spezien-spezifisch ist,
10:57
whichwelche meansmeint that that could explainerklären
231
639000
2000
was heisst, dass wir auch erklären könnten,
10:59
why we can't communicatekommunizieren acrossüber speciesSpezies.
232
641000
2000
warum wir nicht über Spezies hinweg kommunizieren können.
11:01
So, let's switchSchalter it on. But to do it, what you have to do
233
643000
3000
Nun, schalten wir es ein. Aber um das zu tun, was man machen muss,
11:04
is you have to make this come aliveam Leben.
234
646000
2000
ist es, dies zum Leben zu erwecken.
11:06
We make it come aliveam Leben
235
648000
2000
Wir erwecken es zum Leben
11:08
with equationsGleichungen, a lot of mathematicsMathematik.
236
650000
2000
mit Gleichungen und viel Mathematik.
11:10
And, in factTatsache, the equationsGleichungen that make neuronsNeuronen into electricalelektrisch generatorsGeneratoren
237
652000
4000
Und diese Gleichungen, die Neuronen in elektrische Generatoren verwandeln,
11:14
were discoveredentdeckt by two CambridgeCambridge NobelNobel LaureatesPreisträger.
238
656000
3000
wurden von zwei Cambridge Nobel Preisträgern entdeckt.
11:17
So, we have the mathematicsMathematik to make neuronsNeuronen come aliveam Leben.
239
659000
3000
Nun, wir haben die Mathematik um die Neuronen zum Leben zu erwecken.
11:20
We alsoebenfalls have the mathematicsMathematik to describebeschreiben
240
662000
2000
Wir haben auch die Mathematik um zu beschreiben,
11:22
how neuronsNeuronen collectsammeln informationInformation,
241
664000
3000
wie Neuronen Informationen sammeln,
11:25
and how they createerstellen a little lightningBlitz boltBolzen
242
667000
3000
und wie sie kleine Blitze generieren,
11:28
to communicatekommunizieren with eachjede einzelne other.
243
670000
2000
um miteinander zu kommunizieren.
11:30
And when they get to the synapseSynapse,
244
672000
2000
Und wenn sie zur Synapse gelangen,
11:32
what they do is they effectivelyeffektiv,
245
674000
2000
was sie sehr effektiv machen, ist es,
11:34
literallybuchstäblich, shockSchock the synapseSynapse.
246
676000
3000
im wahrsten Sinne des Wortes, die Synapse zu schocken.
11:37
It's like electricalelektrisch shockSchock
247
679000
2000
Es ist wie ein elektrischer Schock,
11:39
that releasesVeröffentlichungen the chemicalsChemikalien from these synapsesSynapsen.
248
681000
3000
welcher Chemikalien von der Synapse freigibt.
11:42
And we'vewir haben got the mathematicsMathematik to describebeschreiben this processverarbeiten.
249
684000
3000
Und wir haben die Mathematik um diesen Prozess zu beschreiben.
11:45
So we can describebeschreiben the communicationKommunikation betweenzwischen the neuronsNeuronen.
250
687000
4000
Und so können wir die Kommunikation zwischen den Neuronen beschreiben.
11:49
There literallybuchstäblich are only a handfulHandvoll
251
691000
3000
Es gibt buchstäblich nur eine Handvoll
11:52
of equationsGleichungen that you need to simulatesimulieren
252
694000
2000
Gleichungen die benötigt werden,
11:54
the activityAktivität of the neocortexNeocortex.
253
696000
2000
um die Aktivität des Neocortex zu simulieren.
11:56
But what you do need is a very biggroß computerComputer.
254
698000
3000
Aber was man braucht, ist ein sehr grosser Computer.
11:59
And in factTatsache you need one laptopLaptop
255
701000
2000
In der Tat braucht man einen Laptop,
12:01
to do all the calculationsBerechnungen just for one neuronNeuron.
256
703000
3000
der alle Berechnungen für nur ein Neuron durchführt.
12:04
So you need 10,000 laptopsLaptops.
257
706000
2000
Entsprechend braucht man 10,000 Laptops.
12:06
So where do you go? You go to IBMIBM,
258
708000
2000
Wohin geht man dann? Man geht zu IBM,
12:08
and you get a supercomputerSupercomputer, because they know how to take
259
710000
2000
und man bekommt einen Super-Computer, weil sie wissen wie man
12:10
10,000 laptopsLaptops and put it into the sizeGröße of a refrigeratorKühlschrank.
260
712000
4000
10,000 Laptops in die Grösse eines Kühlschranks verwandeln kann.
12:14
So now we have this BlueBlau GeneGen supercomputerSupercomputer.
261
716000
3000
Nun haben wir diesen "Blue Gene" Super-Computer.
12:17
We can loadBelastung up all the neuronsNeuronen,
262
719000
2000
Wir können all diese Neuronen hochladen,
12:19
eachjede einzelne one on to its processorProzessor,
263
721000
2000
jedes Einzelne in seinen eigenen Prozessor,
12:21
and fireFeuer it up, and see what happensdas passiert.
264
723000
4000
es aktivieren, und beobachten, was passiert.
12:25
Take the magicMagie carpetTeppich for a rideReiten.
265
727000
3000
Eine Runde mit dem "magischen Teppich" drehen.
12:28
Here we activateAktivieren it. And this givesgibt the first glimpseBlick
266
730000
3000
Hier aktivieren wir es. Und das gibt uns einen flüchtigen Eindruck davon,
12:31
of what is happeningHappening in your brainGehirn
267
733000
2000
was in eurem Hirn vor sich geht
12:33
when there is a stimulationStimulation.
268
735000
2000
wenn eine Stimulation erfolgt.
12:35
It's the first viewAussicht.
269
737000
2000
Das ist die erste Betrachtung.
12:37
Now, when you look at that the first time, you think,
270
739000
2000
Nun, wenn man das das erste Mal sieht, fragt man sich,
12:39
"My god. How is realityWirklichkeit comingKommen out of that?"
271
741000
5000
"Oh mein Gott. Wie kann aus dem Realität hervorkommen?"
12:44
But, in factTatsache, you can startAnfang,
272
746000
3000
Aber, tatsächlich, kann man anfangen,
12:47
even thoughobwohl we haven'thabe nicht trainedausgebildet this neocorticalneokortikale columnSäule
273
749000
4000
obwohl wir diese neokortikale Kolumne nicht trainiert haben,
12:51
to createerstellen a specificspezifisch realityWirklichkeit.
274
753000
2000
eine spezifische Realität zu kreieren.
12:53
But we can askFragen, "Where is the roseRose?"
275
755000
4000
Aber wir können fragen, "Wo ist die Rose?"
12:57
We can askFragen, "Where is it insideinnen,
276
759000
2000
Wir können fragen, "Wo befindet sie sich,
12:59
if we stimulatestimulieren it with a pictureBild?"
277
761000
3000
wenn wir ihn mit einem Bild stimulieren?"
13:02
Where is it insideinnen the neocortexNeocortex?
278
764000
2000
Wo ist sie innerhalb des Neocortex?
13:04
UltimatelyLetztlich it's got to be there if we stimulatedstimuliert it with it.
279
766000
4000
Schlussendlich muss sie dort sein, wenn wir ihn damit stimuliert haben.
13:08
So, the way that we can look at that
280
770000
2000
Die Art und Weise wie wir das betrachten können,
13:10
is to ignoreignorieren the neuronsNeuronen, ignoreignorieren the synapsesSynapsen,
281
772000
3000
ist es, die Neuronen zu ignorieren, die Synapsen zu ignorieren,
13:13
and look just at the rawroh electricalelektrisch activityAktivität.
282
775000
2000
und nur die raue elektrische Aktivität zu betrachten.
13:15
Because that is what it's creatingErstellen.
283
777000
2000
Weil das ist, was wir kreieren.
13:17
It's creatingErstellen electricalelektrisch patternsMuster.
284
779000
2000
Es ist das Kreieren elektrischer Muster.
13:19
So when we did this,
285
781000
2000
Wenn wir dies machen,
13:21
we indeedtatsächlich, for the first time,
286
783000
2000
haben wir in der Tat, zum ersten Mal
13:23
saw these ghost-likeGeist-wie structuresStrukturen:
287
785000
3000
diese Geist-ähnlichen Strukturen gesehen:
13:26
electricalelektrisch objectsObjekte appearingerscheint
288
788000
3000
elektrische Objekte, welche innerhalb
13:29
withininnerhalb the neocorticalneokortikale columnSäule.
289
791000
3000
der neokortikalen Kolumne erscheinen.
13:32
And it's these electricalelektrisch objectsObjekte
290
794000
3000
Und es sind diese elektrischen Objekte,
13:35
that are holdingHalten all the informationInformation about
291
797000
3000
die all die Informationen über die
13:38
whateverwas auch immer stimulatedstimuliert it.
292
800000
3000
entsprechenden Stimuli beinhalten.
13:41
And then when we zoomedvergrößert into this,
293
803000
2000
Und wenn wir näher reinzommen,
13:43
it's like a veritablewahres universeUniversum.
294
805000
4000
ist es wie ein wahrhaftes Universum.
13:47
So the nextNächster stepSchritt
295
809000
2000
Der nächste Schritt ist es,
13:49
is just to take these brainGehirn coordinatesKoordinaten
296
811000
4000
diese Hirn Koordinaten zu nehmen,
13:53
and to projectProjekt them into perceptualWahrnehmungs spacePlatz.
297
815000
4000
und sie in wahrnehmbaren Raum zu projizieren.
13:57
And if you do that,
298
819000
2000
Und wenn man das macht,
13:59
you will be ablefähig to stepSchritt insideinnen
299
821000
2000
wird es möglich sein,
14:01
the realityWirklichkeit that is createderstellt
300
823000
2000
in eine Realität zu schreiten,
14:03
by this machineMaschine,
301
825000
2000
die von dieser Maschine,
14:05
by this pieceStück of the brainGehirn.
302
827000
3000
diesem Stück Hirn kreiert wurde.
14:08
So, in summaryZusammenfassung,
303
830000
2000
So, zusammenfassend,
14:10
I think that the universeUniversum maykann have --
304
832000
2000
Ich denke, dass dieses Universum möglicherweise --
14:12
it's possiblemöglich --
305
834000
2000
es ist möglich --
14:14
evolvedentwickelt a brainGehirn to see itselfselbst,
306
836000
3000
ein Gehirn entwickelt hat, um sich selber zu betrachten,
14:17
whichwelche maykann be a first stepSchritt in becomingWerden awarebewusst of itselfselbst.
307
839000
5000
was vielleicht ein erster Schritt ist, um sich selber wahrzunehmen.
14:22
There is a lot more to do to testTest these theoriesTheorien,
308
844000
2000
Es gibt noch viel zu tun, um diese Theorien zu testen,
14:24
and to testTest any other theoriesTheorien.
309
846000
3000
und andere Theorien zu testen.
14:27
But I hopeHoffnung that you are at leastam wenigsten partlyteilweise convincedüberzeugt
310
849000
3000
Aber ich hoffe, dass ihr zumindest teilweise davon überzeugt seid,
14:30
that it is not impossibleunmöglich to buildbauen a brainGehirn.
311
852000
3000
dass es nicht unmöglich ist, ein Gehirn zu bauen.
14:33
We can do it withininnerhalb 10 yearsJahre,
312
855000
2000
Wir können es innert 10 Jahre erreichen,
14:35
and if we do succeedgelingen,
313
857000
2000
und wenn wir Erfolg haben,
14:37
we will sendsenden to TEDTED, in 10 yearsJahre,
314
859000
2000
werden wir in 10 Jahren,
14:39
a hologramHologramm to talk to you. Thank you.
315
861000
3000
ein Hologramm zu TED schicken, um mit euch zu reden. Danke.
14:42
(ApplauseApplaus)
316
864000
6000
(Applaus)
Translated by Sidney Francois
Reviewed by Lex Asobo

▲Back to top

ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com