ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com
TEDGlobal 2009

Henry Markram: A brain in a supercomputer

Henry Markram construit un cerveau dans un superordinateur

Filmed:
1,469,354 views

Henry Markram affirme que les mystères du cerveau peuvent être résolus -- bientôt. Maladie mentale, mémoire, perception : ils sont faits de neurones et de signaux électriques, et il projette de les découvrir avec un superordinateur modélisant toutes les 100 000 000 000 000 synapses du cerveau.
- Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time. Full bio

Double-click the English transcript below to play the video.

00:18
Our missionmission is to buildconstruire
0
0
3000
Notre mission est de construire
00:21
a detaileddétaillées, realisticréaliste
1
3000
2000
de façon détaillée et réaliste,
00:23
computerordinateur modelmaquette of the humanHumain braincerveau.
2
5000
2000
un modèle informatique du cerveau humain.
00:25
And we'venous avons doneterminé, in the pastpassé fourquatre yearsannées,
3
7000
3000
Nous avons déjà réalisé, depuis 4 ans,
00:28
a proofpreuve of conceptconcept
4
10000
2000
une démonstration de faisabilité
00:30
on a smallpetit partpartie of the rodentrongeur braincerveau,
5
12000
3000
sur une petite partie d'un cerveau de rongeur
00:33
and with this proofpreuve of conceptconcept we are now scalingmise à l'échelle the projectprojet up
6
15000
3000
et, avec cette démonstration de faisabilité, nous faisons une mise en échelle
00:36
to reachatteindre the humanHumain braincerveau.
7
18000
3000
pour atteindre le cerveau humain.
00:39
Why are we doing this?
8
21000
2000
Pourquoi faisons-nous cela ?
00:41
There are threeTrois importantimportant reasonsles raisons.
9
23000
2000
Il y a 3 raisons importantes.
00:43
The first is, it's essentialessentiel for us to understandcomprendre the humanHumain braincerveau
10
25000
4000
La première est qu'il est essentiel pour nous de comprendre le cerveau humain
00:47
if we do want to get alongle long de in societysociété,
11
29000
2000
si nous voulons cohabiter harmonieusement en société,
00:49
and I think that it is a keyclé stepétape in evolutionévolution.
12
31000
4000
et je crois qu'il s'agit d'une étape clé de l'évolution.
00:53
The secondseconde reasonraison is,
13
35000
2000
La deuxième raison est
00:55
we cannotne peux pas keep doing animalanimal experimentationexpérimentation foreverpour toujours,
14
37000
6000
que nous ne pouvons pas continuer à expérimenter sur des animaux éternellement.
01:01
and we have to embodyincarner all our dataLes données and all our knowledgeconnaissance
15
43000
4000
Nous devons donc réunir toutes nos données et toute notre connaissance
01:05
into a workingtravail modelmaquette.
16
47000
3000
dans un modèle fonctionnel.
01:08
It's like a Noah'sArche de Noé ArkArk. It's like an archiveArchives.
17
50000
4000
C'est comme l'Arche de Noé. C'est une sorte d'archive.
01:12
And the thirdtroisième reasonraison is that there are two billionmilliard people on the planetplanète
18
54000
3000
La troisième raison, c'est qu'il y a deux milliards de personnes sur la planète
01:15
that are affectedaffecté by mentalmental disorderdésordre,
19
57000
4000
qui sont atteintes d'un trouble mental
01:19
and the drugsdrogues that are used todayaujourd'hui
20
61000
2000
et que les drogues que nous utilisons présentement
01:21
are largelyen grande partie empiricalempiriques.
21
63000
2000
sont en grande partie empiriques.
01:23
I think that we can come up with very concretebéton solutionssolutions on
22
65000
3000
Je crois qu'on peut en arriver à des solutions très concrètes
01:26
how to treattraiter disorderstroubles.
23
68000
3000
sur comment traiter ces troubles.
01:29
Now, even at this stageétape,
24
71000
3000
Présentement, nous pouvons déjà
01:32
we can use the braincerveau modelmaquette
25
74000
2000
utiliser le modèle du cerveau
01:34
to exploreexplorer some fundamentalfondamental questionsdes questions
26
76000
3000
pour explorer des questions fondamentales
01:37
about how the braincerveau workstravaux.
27
79000
2000
sur le fonctionnement du cerveau.
01:39
And here, at TEDTED, for the first time,
28
81000
2000
Et ici, chez TED, pour la première fois,
01:41
I'd like to sharepartager with you how we're addressings’adressant
29
83000
2000
j'aimerais partager avec vous notre approche
01:43
one theorythéorie -- there are manybeaucoup theoriesthéories --
30
85000
3000
d'une théorie -- et il y a plusieurs théories --
01:46
one theorythéorie of how the braincerveau workstravaux.
31
88000
4000
sur comment fonctionne le cerveau.
01:50
So, this theorythéorie is that the braincerveau
32
92000
4000
Alors, cette théorie stipule que le cerveau
01:54
createscrée, buildsconstruit, a versionversion of the universeunivers,
33
96000
6000
crée, construit, une version de l'Univers.
02:00
and projectsprojets this versionversion of the universeunivers,
34
102000
3000
Et projette cette version de l'Univers,
02:03
like a bubblebulle, all around us.
35
105000
4000
comme une bulle, tout autour de nous.
02:07
Now, this is of coursecours a topicsujet of philosophicalphilosophique debatedébat for centuriesdes siècles.
36
109000
4000
Il s'agit évidemment d'un sujet de débat philosophique depuis des siècles.
02:11
But, for the first time, we can actuallyréellement addressadresse this,
37
113000
3000
Mais, pour la première fois, nous pouvons aborder ceci
02:14
with braincerveau simulationsimulation,
38
116000
2000
avec une simulation du cerveau
02:16
and askdemander very systematicsystématique and rigorousrigoureux questionsdes questions,
39
118000
4000
et poser des questions rigoureuses et systématiques,
02:20
whetherqu'il s'agisse this theorythéorie could possiblypeut-être be truevrai.
40
122000
4000
à savoir si cette théorie peut s'avérer vraie.
02:24
The reasonraison why the moonlune is hugeénorme on the horizonhorizon
41
126000
3000
La raison pour laquelle la Lune apparaît immense sur l'horizon,
02:27
is simplysimplement because our perceptualperceptuel bubblebulle
42
129000
3000
c'est simplement que notre bulle perceptive
02:30
does not stretchétendue out 380,000 kilometerskilomètres.
43
132000
4000
ne s'étend pas jusqu'à 380 000 kilomètres.
02:34
It runsfonctionne out of spaceespace.
44
136000
2000
Elle manque d'espace.
02:36
And so what we do is we comparecomparer the buildingsbâtiments
45
138000
4000
Ce que nous faisons, c'est que nous comparons les édifices
02:40
withindans our perceptualperceptuel bubblebulle,
46
142000
2000
situés à l'intérieur de notre bulle perceptive,
02:42
and we make a decisiondécision.
47
144000
2000
et nous prenons une décision.
02:44
We make a decisiondécision it's that biggros,
48
146000
2000
Nous décidons qu'elle est aussi grosse,
02:46
even thoughbien que it's not that biggros.
49
148000
2000
même si elle n'est pas aussi grosse,
02:48
And what that illustratesillustre
50
150000
2000
et ce que ceci illustre
02:50
is that decisionsles décisions are the keyclé things
51
152000
2000
que les décisions sont les éléments clés
02:52
that supportsoutien our perceptualperceptuel bubblebulle. It keepsgarde it alivevivant.
52
154000
5000
qui supportent notre bulle perceptive. Ça la garde en vie.
02:57
WithoutSans decisionsles décisions you cannotne peux pas see, you cannotne peux pas think,
53
159000
2000
Sans décisions vous ne pouvez voir, vous ne pouvez penser,
02:59
you cannotne peux pas feel.
54
161000
2000
vous ne pouvez ressentir.
03:01
And you maymai think that anestheticsanesthésiques work
55
163000
2000
Et vous pouvez penser que les anesthésiques fonctionnent
03:03
by sendingenvoi you into some deepProfond sleepdormir,
56
165000
3000
en vous plongeant dans une sorte de sommeil profond,
03:06
or by blockingblocage your receptorsrécepteurs so that you don't feel paindouleur,
57
168000
3000
ou en bloquant vos récepteurs pour empêcher de sentir la douleur
03:09
but in factfait mostles plus anestheticsanesthésiques don't work that way.
58
171000
3000
mais en fait la plupart des anesthésiques ne fonctionnent pas de cette façon.
03:12
What they do is they introduceprésenter a noisebruit
59
174000
3000
Ce qu'ils font c'est introduire un bruit
03:15
into the braincerveau so that the neuronsneurones cannotne peux pas understandcomprendre eachchaque other.
60
177000
3000
dans le cerveau, empêchant les neurones de se comprendre.
03:18
They are confusedconfus,
61
180000
2000
Ils sont déroutés
03:20
and you cannotne peux pas make a decisiondécision.
62
182000
3000
et vous ne pouvez plus prendre une décision.
03:23
So, while you're tryingen essayant to make up your mindesprit
63
185000
3000
De sorte que, pendant que vous êtes en train de vous faire une idée de
03:26
what the doctordocteur, the surgeonchirurgien, is doing
64
188000
2000
ce que le médecin, le chirurgien, est en train de faire
03:28
while he's hackingle piratage away at your bodycorps, he's long gonedisparu.
65
190000
2000
alors qu'il entaille votre corps, il vagabonde ailleurs.
03:30
He's at home havingayant teathé.
66
192000
2000
Il est chez lui en train de prendre le thé.
03:32
(LaughterRires)
67
194000
2000
(Rires)
03:34
So, when you walkmarche up to a doorporte and you openouvrir it,
68
196000
3000
Ainsi, lorsque vous marchez vers une porte et que vous l'ouvrez,
03:37
what you compulsivelycompulsivement have to do to perceivepercevoir
69
199000
3000
ce que vous faites de façon irrépressible afin de percevoir,
03:40
is to make decisionsles décisions,
70
202000
2000
c'est de prendre des décisions,
03:42
thousandsmilliers of decisionsles décisions about the sizeTaille of the roomchambre,
71
204000
3000
des milliers de décisions sur les dimensions de la pièce,
03:45
the wallsdes murs, the heightla taille, the objectsobjets in this roomchambre.
72
207000
3000
le mur, la hauteur, les objets dans cette pièce.
03:48
99 percentpour cent of what you see
73
210000
3000
99% de ce que vous voyez
03:51
is not what comesvient in throughpar the eyesles yeux.
74
213000
4000
n'est pas ce qui traverse vos yeux.
03:55
It is what you inferinférer about that roomchambre.
75
217000
4000
C'est ce que vous déduisez par inférence au sujet de cette pièce.
03:59
So I can say, with some certaintycertitude,
76
221000
4000
De sorte que je puis dire, avec une certaine certitude,
04:03
"I think, thereforedonc I am."
77
225000
3000
"Je pense donc je suis."
04:06
But I cannotne peux pas say, "You think, thereforedonc you are,"
78
228000
4000
mais je ne puis pas dire "Vous pensez, donc vous êtes"
04:10
because "you" are withindans my perceptualperceptuel bubblebulle.
79
232000
5000
parce que vous êtes à l'intérieur de ma bulle perceptive.
04:15
Now, we can speculatespéculer and philosophizePhilosopher this,
80
237000
3000
Bien sûr, nous pourrions spéculer et philosopher là-dessus,
04:18
but we don't actuallyréellement have to for the nextprochain hundredcent yearsannées.
81
240000
3000
durant les100 prochaines années, mais nous n'y sommes pas obligés.
04:21
We can askdemander a very concretebéton questionquestion.
82
243000
2000
Nous pouvons poser une question bien concrète.
04:23
"Can the braincerveau buildconstruire suchtel a perceptionla perception?"
83
245000
4000
Le cerveau peut-il construire une telle perception ?
04:27
Is it capablecapable of doing it?
84
249000
2000
Est-il capable de faire cela ?
04:29
Does it have the substancesubstance to do it?
85
251000
2000
Possède-t-il la matière pour faire cela ?
04:31
And that's what I'm going to describedécrire to you todayaujourd'hui.
86
253000
3000
Et c'est ce que je vais vous décrire aujourd'hui.
04:34
So, it tooka pris the universeunivers 11 billionmilliard yearsannées to buildconstruire the braincerveau.
87
256000
4000
Ca a pris à l'univers 11 milliards d'années pour construire le cerveau.
04:38
It had to improveaméliorer it a little bitbit.
88
260000
2000
Il a fallu l'améliorer un peu.
04:40
It had to addajouter to the frontalfrontal partpartie, so that you would have instinctsinstincts,
89
262000
3000
Il a fallu ajouter la partie frontale, nous permettant d'avoir des instincts
04:43
because they had to copechape on landterre.
90
265000
3000
car il fallait faire face aux situations sur la terre ferme.
04:46
But the realréal biggros stepétape was the neocortexnéocortex.
91
268000
4000
Mais la vraie grande avancée fut le néocortex.
04:50
It's a newNouveau braincerveau. You needednécessaire it.
92
272000
2000
C'est un nouveau cerveau. Vous en aviez besoin.
04:52
The mammalsmammifères needednécessaire it
93
274000
2000
Les mammifères en avaient besoin
04:54
because they had to copechape with parenthoodpour le planning familial,
94
276000
4000
parce qu'ils devaient s'occuper d'être parents,
04:58
socialsocial interactionsinteractions,
95
280000
2000
d'interactions sociales,
05:00
complexcomplexe cognitivecognitif functionsles fonctions.
96
282000
3000
de fonctions cognitives complexes.
05:03
So, you can think of the neocortexnéocortex
97
285000
2000
De sorte que vous pouvez penser au néocortex
05:05
actuallyréellement as the ultimateultime solutionSolution todayaujourd'hui,
98
287000
5000
comme étant l'ultime solution aujourd'hui
05:10
of the universeunivers as we know it.
99
292000
3000
de l'univers tel que nous le connaissons.
05:13
It's the pinnaclesommet, it's the finalfinal productproduit
100
295000
2000
C'est le pinacle, c'est la production finale
05:15
that the universeunivers has producedproduit.
101
297000
4000
que l'univers a produit.
05:19
It was so successfulréussi in evolutionévolution
102
301000
2000
Il a si bien réussi dans l'évolution
05:21
that from mouseSouris to man it expandedétendu
103
303000
2000
que, de la souris à l'homme, il s'est agrandi
05:23
about a thousandfoldThousandfold in termstermes of the numbersNombres of neuronsneurones,
104
305000
3000
environ mille fois en termes de nombre de neurones,
05:26
to produceproduire this almostpresque frighteningeffrayant
105
308000
3000
pour produire ce quasiment effrayant
05:29
organorgane, structurestructure.
106
311000
3000
organe, cette structure.
05:32
And it has not stoppedarrêté its evolutionaryévolutionniste pathchemin.
107
314000
3000
Il n'a pas arrêté sa trajectoire évolutive.
05:35
In factfait, the neocortexnéocortex in the humanHumain braincerveau
108
317000
2000
En fait, le néocortex du cerveau humain
05:37
is evolvingévoluant at an enormousénorme speedla vitesse.
109
319000
3000
évolue à une immense vitesse.
05:40
If you zoomZoom into the surfacesurface of the neocortexnéocortex,
110
322000
2000
Si vous zoomez à la surface du néocortex,
05:42
you discoverdécouvrir that it's madefabriqué up of little modulesmodules,
111
324000
3000
vous découvrez qu'il est fait de petits modules,
05:45
G5 processorsprocesseurs, like in a computerordinateur.
112
327000
2000
des processeurs G5, comme dans un ordinateur.
05:47
But there are about a millionmillion of them.
113
329000
3000
Mais il y a environ un million de ces processeurs.
05:50
They were so successfulréussi in evolutionévolution
114
332000
2000
Ils ont eu tellement de succès dans l'évolution
05:52
that what we did was to duplicatedupliquer them
115
334000
2000
que nous nous sommes mis à les dupliquer
05:54
over and over and addajouter more and more of them to the braincerveau
116
336000
2000
maintes et maintes fois et à en ajouter de plus en plus au cerveau
05:56
untiljusqu'à we rancouru out of spaceespace in the skullcrâne.
117
338000
3000
jusqu'à ce que nous épuisions l'espace dans le crâne.
05:59
And the braincerveau startedcommencé to foldplier in on itselfse,
118
341000
2000
Le cerveau a commencé à se replier sur lui-même,
06:01
and that's why the neocortexnéocortex is so highlytrès convolutedalambiqué.
119
343000
3000
et c'est pourquoi le néocortex est si hautement tarabiscoté.
06:04
We're just packingd’emballage in columnscolonnes,
120
346000
2000
Nous ne faisons qu'empiler des colonnes
06:06
so that we'dmer have more neocorticalnéocorticales columnscolonnes
121
348000
3000
de façon à avoir encore plus de colonnes néocorticales
06:09
to performeffectuer more complexcomplexe functionsles fonctions.
122
351000
3000
afin d'exécuter des fonctions plus complexes.
06:12
So you can think of the neocortexnéocortex actuallyréellement as
123
354000
2000
De sorte que vous pouvez penser au néocortex comme étant
06:14
a massivemassif grandgrandiose pianopiano,
124
356000
2000
un énorme piano à queue,
06:16
a million-keym-key grandgrandiose pianopiano.
125
358000
3000
un piano à queue ayant un million de touches.
06:19
EachChaque of these neocorticalnéocorticales columnscolonnes
126
361000
2000
Chacune de ces colonnes néocorticales
06:21
would produceproduire a noteRemarque.
127
363000
2000
produirait une note.
06:23
You stimulatestimuler la it; it producesproduit a symphonySymphonie.
128
365000
3000
Vous le stimulez ; il produit une symphonie.
06:26
But it's not just a symphonySymphonie of perceptionla perception.
129
368000
3000
Mais il ne s'agit pas seulement d'une symphonie de perception.
06:29
It's a symphonySymphonie of your universeunivers, your realityréalité.
130
371000
3000
C'est une symphonie de votre univers, c'est votre réalité.
06:32
Now, of coursecours it takes yearsannées to learnapprendre how
131
374000
3000
Mais, bien sûr, cela prend des années pour apprendre
06:35
to mastermaîtriser a grandgrandiose pianopiano with a millionmillion keysclés.
132
377000
3000
à maîtriser un piano à queue d'un million de touches.
06:38
That's why you have to sendenvoyer your kidsdes gamins to good schoolsécoles,
133
380000
2000
C'est pourquoi vous devez envoyer vos enfants à de bonnes écoles,
06:40
hopefullyj'espère eventuallyfinalement to OxfordOxford.
134
382000
2000
espérant finalement Oxford.
06:42
But it's not only educationéducation.
135
384000
3000
Mais il ne s'agit pas seulement d'éducation.
06:45
It's alsoaussi geneticsla génétique.
136
387000
2000
Il y a aussi de la génétique.
06:47
You maymai be bornnée luckychanceux,
137
389000
2000
Vous pouvez être né chanceux,
06:49
where you know how to mastermaîtriser your neocorticalnéocorticales columncolonne,
138
391000
4000
ou vous savez comment maîtriser votre colonne néocorticale,
06:53
and you can playjouer a fantasticfantastique symphonySymphonie.
139
395000
2000
et vous savez comment jouer une symphonie fantastique.
06:55
In factfait, there is a newNouveau theorythéorie of autismautisme
140
397000
3000
En fait, il y a une nouvelle théorie de l'autisme
06:58
calledappelé the "intenseintense worldmonde" theorythéorie,
141
400000
2000
nommée la théorie du "monde intense",
07:00
whichlequel suggestssuggère that the neocorticalnéocorticales columnscolonnes are super-columnsSuper-colonnes.
142
402000
4000
qui suggère que les colonnes néocorticales sont des supercolonnes.
07:04
They are highlytrès reactiveréactif, and they are super-plasticSuper-plastique,
143
406000
4000
Elles sont hautement réactives, et elles sont super-plastiques,
07:08
and so the autistsautistes are probablyProbablement capablecapable of
144
410000
3000
de sorte que les autistes sont probablement capables
07:11
buildingbâtiment and learningapprentissage a symphonySymphonie
145
413000
2000
de construire et d'apprendre une symphonie
07:13
whichlequel is unthinkableimpensable for us.
146
415000
2000
qui serait impensable pour nous.
07:15
But you can alsoaussi understandcomprendre
147
417000
2000
Vous pouvez aussi comprendre
07:17
that if you have a diseasemaladie
148
419000
2000
que si vous avez une maladie
07:19
withindans one of these columnscolonnes,
149
421000
2000
à l'intérieur d'une de ces colonnes,
07:21
the noteRemarque is going to be off.
150
423000
2000
que la note sonnera faux.
07:23
The perceptionla perception, the symphonySymphonie that you createcréer
151
425000
2000
La perception, la symphonie que vous créez
07:25
is going to be corruptedcorrompu,
152
427000
2000
sera donc corrompue
07:27
and you will have symptomssymptômes of diseasemaladie.
153
429000
3000
et vous manifesterez des symptômes de maladies.
07:30
So, the HolySainte GrailGraal for neuroscienceneuroscience
154
432000
4000
Ainsi, le Saint-Graal de la neuroscience
07:34
is really to understandcomprendre the designconception of the neocoriticalneocoritical columncolonne --
155
436000
4000
est vraiment de comprendre le design de la colonne néocorticale --
07:38
and it's not just for neuroscienceneuroscience;
156
440000
2000
et ce n'est pas seulement pour les neurosciences ;
07:40
it's perhapspeut être to understandcomprendre perceptionla perception, to understandcomprendre realityréalité,
157
442000
3000
c'est peut-être pour comprendre la perception, pour comprendre la réalité,
07:43
and perhapspeut être to even alsoaussi understandcomprendre physicalphysique realityréalité.
158
445000
4000
et peut-être même aussi pour comprendre la réalité physique.
07:47
So, what we did was, for the pastpassé 15 yearsannées,
159
449000
3000
Bref, ce que nous avons fait, durant les dernières 15 années,
07:50
was to dissectdisséquer out the neocortexnéocortex, systematicallysystématiquement.
160
452000
4000
fut de disséquer le néocortex, systématiquement.
07:54
It's a bitbit like going and catalogingcatalogage a piecepièce of the rainforestforêt tropicale.
161
456000
4000
C'est un peu comme si on allait cataloguer une partie de la forêt tropicale.
07:58
How manybeaucoup treesdes arbres does it have?
162
460000
2000
Combien d'arbres y a-t-il ?
08:00
What shapesformes are the treesdes arbres?
163
462000
2000
Quelles formes ont ces arbres ?
08:02
How manybeaucoup of eachchaque typetype of treearbre do you have? Where are they positionedpositionné?
164
464000
3000
Combien de chaque type d'arbres avons-nous ? Où sont-ils situés ?
08:05
But it's a bitbit more than catalogingcatalogage because you actuallyréellement have to
165
467000
2000
C'est un peu plus qu'un simple catalogage car vous devez en réalité
08:07
describedécrire and discoverdécouvrir all the rulesrègles of communicationla communication,
166
469000
4000
décrire et découvrir toutes les règles de communication,
08:11
the rulesrègles of connectivityconnectivité,
167
473000
2000
les règles de connectivité,
08:13
because the neuronsneurones don't just like to connectrelier with any neuronneurone.
168
475000
3000
car les neurones n'aiment pas simplement s'interconnecter avec tout neurone.
08:16
They choosechoisir very carefullysoigneusement who they connectrelier with.
169
478000
3000
Ils choisissent soigneusement avec lesquels ils se connectent.
08:19
It's alsoaussi more than catalogingcatalogage
170
481000
3000
C'est aussi plus qu'un catalogage
08:22
because you actuallyréellement have to buildconstruire three-dimensionaltridimensionnel
171
484000
2000
parce que vous devez en fait construire en trois dimensions
08:24
digitalnumérique modelsdes modèles of them.
172
486000
2000
des modèles numériques de neurones.
08:26
And we did that for tensdizaines of thousandsmilliers of neuronsneurones,
173
488000
2000
Nous avons fait cela pour des dizaines de milliers de neurones,
08:28
builtconstruit digitalnumérique modelsdes modèles of all the differentdifférent typesles types
174
490000
3000
bâtissant des modèles numériques de chaque différent type
08:31
of neuronsneurones we camevenu acrossà travers.
175
493000
2000
de neurone que nous avons rencontrés.
08:33
And onceune fois que you have that, you can actuallyréellement
176
495000
2000
Et une fois que vous avez fait cela, vous pouvez vraiment
08:35
begincommencer to buildconstruire the neocorticalnéocorticales columncolonne.
177
497000
4000
entreprendre la construction de la colonne néocorticale.
08:39
And here we're coilingbobinage them up.
178
501000
3000
Et ici nous sommes en train de les assembler.
08:42
But as you do this, what you see
179
504000
3000
Ce faisant, ce que nous voyons,
08:45
is that the branchesbranches intersectcouper
180
507000
2000
c'est que les branches sont intersectées
08:47
actuallyréellement in millionsdes millions of locationsEmplacements,
181
509000
3000
en fait à des millions d'emplacements,
08:50
and at eachchaque of these intersectionsintersections
182
512000
3000
et qu'à chacune de ces intersections
08:53
they can formforme a synapseSynapse.
183
515000
2000
elles peuvent former une synapse.
08:55
And a synapseSynapse is a chemicalchimique locationemplacement
184
517000
2000
Une synapse est un emplacement chimique
08:57
where they communicatecommuniquer with eachchaque other.
185
519000
3000
où ils communiquent entre eux.
09:00
And these synapsessynapses togetherensemble
186
522000
2000
Et, ensemble, ces synapses
09:02
formforme the networkréseau
187
524000
2000
forment le réseau
09:04
or the circuitcircuit of the braincerveau.
188
526000
3000
ou le circuit du cerveau.
09:07
Now, the circuitcircuit, you could alsoaussi think of as
189
529000
4000
Le circuit, vous pouvez ausi le voir comme
09:11
the fabricen tissu of the braincerveau.
190
533000
2000
le tissu du cerveau.
09:13
And when you think of the fabricen tissu of the braincerveau,
191
535000
3000
Lorsque vous pensez au tissu du cerveau,
09:16
the structurestructure, how is it builtconstruit? What is the patternmodèle of the carpettapis?
192
538000
4000
la structure, comment est-elle faite ? Quel est le patron du tapis ?
09:20
You realizeprendre conscience de that this posespose
193
542000
2000
Vous réalisez que ceci pose
09:22
a fundamentalfondamental challengedéfi to any theorythéorie of the braincerveau,
194
544000
4000
un défi fondamental à toute théorie du cerveau
09:26
and especiallynotamment to a theorythéorie that saysdit
195
548000
2000
et en particulier à une théorie affirmant
09:28
that there is some realityréalité that emergesémerge
196
550000
2000
qu'il y a une sorte de réalité qui émerge
09:30
out of this carpettapis, out of this particularparticulier carpettapis
197
552000
3000
de ce tapis, de ce tapis particulier
09:33
with a particularparticulier patternmodèle.
198
555000
2000
avec son patron particulier.
09:35
The reasonraison is because the mostles plus importantimportant designconception secretsecret of the braincerveau
199
557000
3000
La raison est que le plus important secret de design du cerveau
09:38
is diversityla diversité.
200
560000
2000
est sa diversité.
09:40
EveryChaque neuronneurone is differentdifférent.
201
562000
2000
Chaque neurone est différent.
09:42
It's the sameMême in the forestforêt. EveryChaque pinepin treearbre is differentdifférent.
202
564000
2000
C'est la même chose dans la forêt. Chaque pin est différent.
09:44
You maymai have manybeaucoup differentdifférent typesles types of treesdes arbres,
203
566000
2000
Vous pouvez avoir plusieurs différents types d'arbres
09:46
but everychaque pinepin treearbre is differentdifférent. And in the braincerveau it's the sameMême.
204
568000
3000
mais chaque pin est différent. Et dans le cerveau ,c'est pareil.
09:49
So there is no neuronneurone in my braincerveau that is the sameMême as anotherun autre,
205
571000
3000
Il n'y a donc aucun neurone dans mon cerveau qui soit identique à un autre,
09:52
and there is no neuronneurone in my braincerveau that is the sameMême as in yoursle tiens.
206
574000
3000
et il n'y a aucun neurone dans mon cerveau identique à un dans le vôtre.
09:55
And your neuronsneurones are not going to be orientedaxé sur and positionedpositionné
207
577000
3000
Vos neurones ne seront pas orientés et positionnés
09:58
in exactlyexactement the sameMême way.
208
580000
2000
exactement de la même manière.
10:00
And you maymai have more or lessMoins neuronsneurones.
209
582000
2000
Vous aurez peut-être plus ou moins de neurones.
10:02
So it's very unlikelyimprobable
210
584000
2000
Il est donc très improbable
10:04
that you got the sameMême fabricen tissu, the sameMême circuitrycircuits.
211
586000
4000
que vous ayez le même tissu, le même circuit.
10:08
So, how could we possiblypeut-être createcréer a realityréalité
212
590000
2000
Alors, comment pouvons-nous possiblement créer une réalité
10:10
that we can even understandcomprendre eachchaque other?
213
592000
3000
nous permettant de nous comprendre l'un l'autre ?
10:13
Well, we don't have to speculatespéculer.
214
595000
2000
Eh bien, nul besoin de spéculer.
10:15
We can look at all 10 millionmillion synapsessynapses now.
215
597000
3000
Nous pouvons maintenant observer nos 10 millions de synapses.
10:18
We can look at the fabricen tissu. And we can changechangement neuronsneurones.
216
600000
3000
Nous pouvons observer le tissu et nous pouvons changer les neurones.
10:21
We can use differentdifférent neuronsneurones with differentdifférent variationsvariations.
217
603000
2000
Nous pouvons utiliser différents neurones avec différentes variations.
10:23
We can positionposition them in differentdifférent placesdes endroits,
218
605000
2000
Nous pouvons les positionner à différents emplacements,
10:25
orientOrient them in differentdifférent placesdes endroits.
219
607000
2000
les orienter en différents emplacements.
10:27
We can use lessMoins or more of them.
220
609000
2000
Nous pouvons en utiliser plus ou moins.
10:29
And when we do that
221
611000
2000
Lorsque nous faisons cela,
10:31
what we discovereddécouvert is that the circuitrycircuits does changechangement.
222
613000
3000
ce que nous découvrons, c'est que le circuit change.
10:34
But the patternmodèle of how the circuitrycircuits is designedconçu does not.
223
616000
7000
Mais que le patron du design du circuit ne change pas.
10:41
So, the fabricen tissu of the braincerveau,
224
623000
2000
De sorte que, le tissu du cerveau,
10:43
even thoughbien que your braincerveau maymai be smallerplus petit, biggerplus gros,
225
625000
2000
quoique votre cerveau peut être plus petit, plus grand,
10:45
it maymai have differentdifférent typesles types of neuronsneurones,
226
627000
3000
il peut avoir différents types de neurones,
10:48
differentdifférent morphologiesmorphologies of neuronsneurones,
227
630000
2000
différentes morphologies de neurones.
10:50
we actuallyréellement do sharepartager
228
632000
3000
Nous partageons en effet
10:53
the sameMême fabricen tissu.
229
635000
2000
le même tissu.
10:55
And we think this is species-specificspécifique à l’espèce,
230
637000
2000
Et nous croyons que ceci est spécifique à chaque espèce,
10:57
whichlequel meansveux dire that that could explainExplique
231
639000
2000
ce qui expliquerait pourquoi
10:59
why we can't communicatecommuniquer acrossà travers speciesespèce.
232
641000
2000
nous ne pouvons communiquer d'une espèce à une autre.
11:01
So, let's switchcommutateur it on. But to do it, what you have to do
233
643000
3000
Donc, mettons cela en marche. Mais pour l'allumer, vous devez
11:04
is you have to make this come alivevivant.
234
646000
2000
donner la vie à tout cela.
11:06
We make it come alivevivant
235
648000
2000
Nous rendons tout cela vivant
11:08
with equationséquations, a lot of mathematicsmathématiques.
236
650000
2000
avec des équations, beaucoup de mathématiques.
11:10
And, in factfait, the equationséquations that make neuronsneurones into electricalélectrique generatorsgroupes électrogènes
237
652000
4000
En fait, les équations transformant les neurones en générateurs électriques
11:14
were discovereddécouvert by two CambridgeCambridge NobelPrix Nobel LaureatesLauréats du.
238
656000
3000
furent découvertes par deux prix Nobel de Cambridge.
11:17
So, we have the mathematicsmathématiques to make neuronsneurones come alivevivant.
239
659000
3000
Nous avons donc les mathématiques pour donner vie aux neurones.
11:20
We alsoaussi have the mathematicsmathématiques to describedécrire
240
662000
2000
Nous avons aussi les mathématiques décrivant
11:22
how neuronsneurones collectcollecte informationinformation,
241
664000
3000
comment les neurones recueillent l'information
11:25
and how they createcréer a little lightningfoudre boltboulon
242
667000
3000
et comment ils créent un petit éclair
11:28
to communicatecommuniquer with eachchaque other.
243
670000
2000
pour communiquer entre eux.
11:30
And when they get to the synapseSynapse,
244
672000
2000
Lorsqu'ils arrivent à la synapse,
11:32
what they do is they effectivelyefficacement,
245
674000
2000
ce qu'ils font est d'effectivement,
11:34
literallyLittéralement, shockchoc the synapseSynapse.
246
676000
3000
littéralement, commotionner la synapse.
11:37
It's like electricalélectrique shockchoc
247
679000
2000
C'est comme un choc électrique
11:39
that releasesCommuniqués de the chemicalsproduits chimiques from these synapsessynapses.
248
681000
3000
qui libère les produits chimiques de ces synapses.
11:42
And we'venous avons got the mathematicsmathématiques to describedécrire this processprocessus.
249
684000
3000
Nous avons les mathématiques pour décrire ce processus.
11:45
So we can describedécrire the communicationla communication betweenentre the neuronsneurones.
250
687000
4000
Nous pouvons ainsi décrire la communication entre ces neurones.
11:49
There literallyLittéralement are only a handfulpoignée
251
691000
3000
Avec seulement une poignée d'équations,
11:52
of equationséquations that you need to simulatesimuler
252
694000
2000
vous pouvez simuler
11:54
the activityactivité of the neocortexnéocortex.
253
696000
2000
l'activité du néocortex.
11:56
But what you do need is a very biggros computerordinateur.
254
698000
3000
Mais vous avez surtout besoin d'un très gros ordinateur.
11:59
And in factfait you need one laptopportable
255
701000
2000
En fait, vous avez besoin d'un ordinateur portable
12:01
to do all the calculationscalculs just for one neuronneurone.
256
703000
3000
pour effectuer tous les calculs de seulement un neurone.
12:04
So you need 10,000 laptopsordinateurs portables.
257
706000
2000
Vous avez donc besoin de 10 000 ordinateurs portables.
12:06
So where do you go? You go to IBMIBM,
258
708000
2000
Où aller ? Vous allez chez IBM,
12:08
and you get a supercomputersupercalculateur, because they know how to take
259
710000
2000
et vous prenez un superordinateur car ils savent comment concentrer
12:10
10,000 laptopsordinateurs portables and put it into the sizeTaille of a refrigeratorréfrigérateur.
260
712000
4000
10 000 ordinateurs portables dans les dimensions d'un réfrigérateur.
12:14
So now we have this BlueBleu GeneGène supercomputersupercalculateur.
261
716000
3000
Nous avons donc maintenant ce superordinateur "Blue Gene".
12:17
We can loadcharge up all the neuronsneurones,
262
719000
2000
Nous pouvons charger tous les neurones,
12:19
eachchaque one on to its processorprocesseur,
263
721000
2000
chacun sur son propre processeur,
12:21
and fireFeu it up, and see what happensarrive.
264
723000
4000
et allumer le tout, et observer ce qui arrive.
12:25
Take the magicla magie carpettapis for a ridebalade.
265
727000
3000
Embarquez sur le tapis volant pour une promenade !
12:28
Here we activateactiver it. And this givesdonne the first glimpseaperçu
266
730000
3000
Ici, nous l'avons activé. Et voici le premier coup d'oeil
12:31
of what is happeningévénement in your braincerveau
267
733000
2000
de ce qui se passe dans votre cerveau
12:33
when there is a stimulationstimulation.
268
735000
2000
lorsqu'il y a une stimulation.
12:35
It's the first viewvue.
269
737000
2000
C'est une première vue.
12:37
Now, when you look at that the first time, you think,
270
739000
2000
Lorsque vous regardez ça la première fois, vous pensez,
12:39
"My god. How is realityréalité comingvenir out of that?"
271
741000
5000
"Mon Dieu. Comment la réalité peut-elle sortir de ça ?"
12:44
But, in factfait, you can startdébut,
272
746000
3000
Mais, en fait, vous pouvez commencer,
12:47
even thoughbien que we haven'tn'a pas trainedqualifié this neocorticalnéocorticales columncolonne
273
749000
4000
même si nous n'avons pas entraîné cette colonne néocorticale
12:51
to createcréer a specificspécifique realityréalité.
274
753000
2000
à créer une réalité spécifique.
12:53
But we can askdemander, "Where is the roseRose?"
275
755000
4000
Mais on peut demander "Où est la rose ?"
12:57
We can askdemander, "Where is it insideà l'intérieur,
276
759000
2000
On peut demander "Où est-elle à l'intérieur,
12:59
if we stimulatestimuler la it with a picturephoto?"
277
761000
3000
si on le stimule avec une image ?"
13:02
Where is it insideà l'intérieur the neocortexnéocortex?
278
764000
2000
Où est-elle à l'intérieur du néocortex ?
13:04
UltimatelyEn fin de compte it's got to be there if we stimulatedstimulé it with it.
279
766000
4000
Finalement, elle doit être là si on le stimule avec l'image.
13:08
So, the way that we can look at that
280
770000
2000
Ainsi, la manière qu'on peut considérer cela
13:10
is to ignoreignorer the neuronsneurones, ignoreignorer the synapsessynapses,
281
772000
3000
consiste à ignorer les neurones, ignorer les synapses,
13:13
and look just at the rawbrut electricalélectrique activityactivité.
282
775000
2000
et observer seulement l'activité électrique brute.
13:15
Because that is what it's creatingcréer.
283
777000
2000
Parce que c'est ce qu'il est en train de créer.
13:17
It's creatingcréer electricalélectrique patternsmodèles.
284
779000
2000
Il est en train de créer des patrons électriques.
13:19
So when we did this,
285
781000
2000
Donc lorsqu'on a fait cela,
13:21
we indeedeffectivement, for the first time,
286
783000
2000
nous avons vraiment, pour la première fois,
13:23
saw these ghost-likefantomatique structuresles structures:
287
785000
3000
vu ces structures évanescentes :
13:26
electricalélectrique objectsobjets appearingapparaissant
288
788000
3000
des objets électriques apparaissant
13:29
withindans the neocorticalnéocorticales columncolonne.
289
791000
3000
à l'intérieur de la colonne néocorticale.
13:32
And it's these electricalélectrique objectsobjets
290
794000
3000
Ce sont ces objets électriques
13:35
that are holdingen portant all the informationinformation about
291
797000
3000
qui détiennent toute l'information au sujet
13:38
whateverpeu importe stimulatedstimulé it.
292
800000
3000
la chose qui l'a stimulé - quelle qu'elle soit.
13:41
And then when we zoomedzoomé into this,
293
803000
2000
Et en faisant le zoom sur ceci,
13:43
it's like a veritablevéritable universeunivers.
294
805000
4000
c'est comme un véritable univers.
13:47
So the nextprochain stepétape
295
809000
2000
Alors, la prochaine étape,
13:49
is just to take these braincerveau coordinatescoordonnées
296
811000
4000
c'est de prendre ces coordonnées du cerveau
13:53
and to projectprojet them into perceptualperceptuel spaceespace.
297
815000
4000
et de les projeter dans l'espace perceptuel.
13:57
And if you do that,
298
819000
2000
Et si vous faites cela,
13:59
you will be ablecapable to stepétape insideà l'intérieur
299
821000
2000
vous pourrez pénétrer à l'intérieur
14:01
the realityréalité that is createdcréé
300
823000
2000
de la réalité qui est créée
14:03
by this machinemachine,
301
825000
2000
par cette machine,
14:05
by this piecepièce of the braincerveau.
302
827000
3000
par cette partie du cerveau.
14:08
So, in summaryRésumé,
303
830000
2000
En résumé,
14:10
I think that the universeunivers maymai have --
304
832000
2000
je crois que l'univers pourrait avoir évolué
14:12
it's possiblepossible --
305
834000
2000
-- c'est possible --
14:14
evolvedévolué a braincerveau to see itselfse,
306
836000
3000
en un cerveau pouvant se voir lui-même,
14:17
whichlequel maymai be a first stepétape in becomingdevenir awareconscient of itselfse.
307
839000
5000
ce qui pourrait être le premier pas vers une prise de conscience de lui-même.
14:22
There is a lot more to do to testtester these theoriesthéories,
308
844000
2000
Il y a encore beaucoup à faire pour tester ces théories,
14:24
and to testtester any other theoriesthéories.
309
846000
3000
et pour tester plusieurs autres théories.
14:27
But I hopeespérer that you are at leastmoins partlypartiellement convincedconvaincu
310
849000
3000
Mais j'espère que vous êtes au moins en partie convaincus
14:30
that it is not impossibleimpossible to buildconstruire a braincerveau.
311
852000
3000
qu'il n'est pas impossible de construire un cerveau.
14:33
We can do it withindans 10 yearsannées,
312
855000
2000
Nous pouvons le faire dans moins de 10 ans,
14:35
and if we do succeedréussir,
313
857000
2000
et si nous réussissons à le faire,
14:37
we will sendenvoyer to TEDTED, in 10 yearsannées,
314
859000
2000
nous enverrons à TED, dans 10 ans,
14:39
a hologramhologramme to talk to you. Thank you.
315
861000
3000
un hologramme pour vous parler. Merci.
14:42
(ApplauseApplaudissements)
316
864000
6000
(Applaudissements)
Translated by Louis-Philippe Thouin
Reviewed by Jerome Faul

▲Back to top

ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com