ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com
TEDGlobal 2009

Henry Markram: A brain in a supercomputer

Henry Markram construye un cerebro en un supercomputador

Filmed:
1,469,354 views

Henry Markram afirma que los misterios de la mente pueden ser resueltos -- pronto. Enfermedades mentales, memoria, percepción: están hechos de neuronas y señales eléctricas, y planea encontrarlas en un supercomputador que modele cada una de las 100.000.000.000 sinapsis del cerebro.
- Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time. Full bio

Double-click the English transcript below to play the video.

00:18
Our missionmisión is to buildconstruir
0
0
3000
Nuestra misión es construir
00:21
a detaileddetallado, realisticrealista
1
3000
2000
un modelo detallado y realista
00:23
computercomputadora modelmodelo of the humanhumano braincerebro.
2
5000
2000
del cerebro humano en un computador.
00:25
And we'venosotros tenemos donehecho, in the pastpasado fourlas cuatro yearsaños,
3
7000
3000
Y hemos hecho, en los últimos 4 años,
00:28
a proofprueba of conceptconcepto
4
10000
2000
una prueba de concepto
00:30
on a smallpequeña partparte of the rodentroedor braincerebro,
5
12000
3000
en una pequeña parte del cerebro de un roedor
00:33
and with this proofprueba of conceptconcepto we are now scalingescalada the projectproyecto up
6
15000
3000
y con esta prueba, estamos incrementando la escala del proyecto
00:36
to reachalcanzar the humanhumano braincerebro.
7
18000
3000
para alcanzar el cerebro humano.
00:39
Why are we doing this?
8
21000
2000
¿Por qué estamos haciendo esto?
00:41
There are threeTres importantimportante reasonsrazones.
9
23000
2000
Hay 3 razones importantes.
00:43
The first is, it's essentialesencial for us to understandentender the humanhumano braincerebro
10
25000
4000
La primera es: es esencial para nosotros entender el cerebro humano
00:47
if we do want to get alonga lo largo in societysociedad,
11
29000
2000
si queremos funcionar en sociedad
00:49
and I think that it is a keyllave steppaso in evolutionevolución.
12
31000
4000
y creo que es un paso clave en la evolución.
00:53
The secondsegundo reasonrazón is,
13
35000
2000
La segunda razón es
00:55
we cannotno poder keep doing animalanimal experimentationexperimentación foreverSiempre,
14
37000
6000
no podemos seguir experimentando en animales por siempre,
01:01
and we have to embodyencarnar all our datadatos and all our knowledgeconocimiento
15
43000
4000
y tenemos que plasmar todos nuestros datos y todo nuestro conocimiento,
01:05
into a workingtrabajando modelmodelo.
16
47000
3000
en un modelo que funcione.
01:08
It's like a Noah'sNoah ArkArca. It's like an archivearchivo.
17
50000
4000
Es como el Arca de Noé. Como un archivo.
01:12
And the thirdtercero reasonrazón is that there are two billionmil millones people on the planetplaneta
18
54000
3000
La tercera razón es que hay 2 mil millones de personas en el planeta
01:15
that are affectedafectado by mentalmental disordertrastorno,
19
57000
4000
afectadas por desórdenes mentales,
01:19
and the drugsdrogas that are used todayhoy
20
61000
2000
y los medicamentos que hoy en día se emplean
01:21
are largelyen gran parte empiricalempírico.
21
63000
2000
son mayormente de desarrollo empírico.
01:23
I think that we can come up with very concretehormigón solutionssoluciones on
22
65000
3000
Creo que podemos crear soluciones muy concretas sobre
01:26
how to treattratar disorderstrastornos.
23
68000
3000
cómo tratar dichos desórdenes.
01:29
Now, even at this stageescenario,
24
71000
3000
Ahora bien, incluso en esta etapa,
01:32
we can use the braincerebro modelmodelo
25
74000
2000
podemos usar el modelo del cerebro
01:34
to exploreexplorar some fundamentalfundamental questionspreguntas
26
76000
3000
para explorar algunas interrogantes fundamentales
01:37
about how the braincerebro workstrabajos.
27
79000
2000
sobre cómo funciona el cerebro.
01:39
And here, at TEDTED, for the first time,
28
81000
2000
Y aquí, en TED, por primera vez,
01:41
I'd like to sharecompartir with you how we're addressingdireccionamiento
29
83000
2000
me gustaría compartir con ustedes cómo estamos abordando
01:43
one theoryteoría -- there are manymuchos theoriesteorías --
30
85000
3000
una teoría, hay muchas teorías,
01:46
one theoryteoría of how the braincerebro workstrabajos.
31
88000
4000
una teoría de cómo funciona el cerebro.
01:50
So, this theoryteoría is that the braincerebro
32
92000
4000
Bien, ésta teoría dice que el cerebro,
01:54
createscrea, buildsconstrucciones, a versionversión of the universeuniverso,
33
96000
6000
crea, construye, una versión del universo.
02:00
and projectsproyectos this versionversión of the universeuniverso,
34
102000
3000
Y proyecta esta versión del universo,
02:03
like a bubbleburbuja, all around us.
35
105000
4000
como una burbuja, alrededor nuestro.
02:07
Now, this is of coursecurso a topictema of philosophicalfilosófico debatedebate for centuriessiglos.
36
109000
4000
Ahora bien, este ha sido por supuesto un tema de debate filosófico durante siglos.
02:11
But, for the first time, we can actuallyactualmente addressdirección this,
37
113000
3000
Pero, por primera vez, podemos realmente abordarlo,
02:14
with braincerebro simulationsimulación,
38
116000
2000
con una simulación del cerebro,
02:16
and askpedir very systematicsistemático and rigorousriguroso questionspreguntas,
39
118000
4000
y plantearnos preguntas muy sistemáticas y rigurosas,
02:20
whethersi this theoryteoría could possiblyposiblemente be truecierto.
40
122000
4000
sobre si esta teoría podría ser cierta.
02:24
The reasonrazón why the moonLuna is hugeenorme on the horizonhorizonte
41
126000
3000
La razón por la que la luna es enorme en el horizonte
02:27
is simplysimplemente because our perceptualperceptivo bubbleburbuja
42
129000
3000
es simplemente porque nuestra burbuja perceptiva
02:30
does not stretchtramo out 380,000 kilometerskilometros.
43
132000
4000
no se estira 380.000 kilómetros.
02:34
It runscarreras out of spaceespacio.
44
136000
2000
Se queda sin espacio.
02:36
And so what we do is we comparecomparar the buildingsedificios
45
138000
4000
Así que lo que hacemos es comparar los edificios
02:40
withindentro our perceptualperceptivo bubbleburbuja,
46
142000
2000
dentro de nuestra burbuja perceptiva
02:42
and we make a decisiondecisión.
47
144000
2000
y tomamos una decisión
02:44
We make a decisiondecisión it's that biggrande,
48
146000
2000
Decidimos que es, así de grande,
02:46
even thoughaunque it's not that biggrande.
49
148000
2000
aunque no sea, tan grande
02:48
And what that illustratesilustra
50
150000
2000
y lo que esto ilustra
02:50
is that decisionsdecisiones are the keyllave things
51
152000
2000
es que las decisiones son elementos clave
02:52
that supportapoyo our perceptualperceptivo bubbleburbuja. It keepsmantiene it aliveviva.
52
154000
5000
que mantienen nuestra burbuja perceptiva. La mantiene viva.
02:57
WithoutSin decisionsdecisiones you cannotno poder see, you cannotno poder think,
53
159000
2000
Sin decisiones no puedes ver, no puedes pensar,
02:59
you cannotno poder feel.
54
161000
2000
no puedes sentir.
03:01
And you maymayo think that anestheticsanestésicos work
55
163000
2000
Y pueden pensar que los sedantes funcionan
03:03
by sendingenviando you into some deepprofundo sleepdormir,
56
165000
3000
al inducir un sueño profundo
03:06
or by blockingbloqueo your receptorsreceptores so that you don't feel paindolor,
57
168000
3000
o bloqueando tus receptores para que no sientas dolor,
03:09
but in facthecho mostmás anestheticsanestésicos don't work that way.
58
171000
3000
pero de hecho la mayoría de los sedantes no funcionan así.
03:12
What they do is they introduceintroducir a noiseruido
59
174000
3000
Lo que hacen es que introduce un ruido
03:15
into the braincerebro so that the neuronsneuronas cannotno poder understandentender eachcada other.
60
177000
3000
en el cerebro para que las neuronas no se entiendan entre ellas.
03:18
They are confusedconfuso,
61
180000
2000
Están confundidas,
03:20
and you cannotno poder make a decisiondecisión.
62
182000
3000
y no puedes tomar una decisión.
03:23
So, while you're tryingmolesto to make up your mindmente
63
185000
3000
Así que, mientras tratas de entender lo que sucede
03:26
what the doctordoctor, the surgeoncirujano, is doing
64
188000
2000
con respecto a lo que el doctor, el cirujano te está haciendo
03:28
while he's hackingseco away at your bodycuerpo, he's long goneido.
65
190000
2000
mientras está cortando en tu cuerpo, él hace rato que se ha ido.
03:30
He's at home havingteniendo tea.
66
192000
2000
Está ya en casa tomando té.
03:32
(LaughterRisa)
67
194000
2000
(Risas)
03:34
So, when you walkcaminar up to a doorpuerta and you openabierto it,
68
196000
3000
cuando caminas hacia la puerta y la abres,
03:37
what you compulsivelycompulsivamente have to do to perceivepercibir
69
199000
3000
lo que compulsivamente tienes que hacer para percibir
03:40
is to make decisionsdecisiones,
70
202000
2000
es tomar decisiones,
03:42
thousandsmiles of decisionsdecisiones about the sizetamaño of the roomhabitación,
71
204000
3000
miles de decisiones sobre el tamaño de la habitación,
03:45
the wallsmuros, the heightaltura, the objectsobjetos in this roomhabitación.
72
207000
3000
la pared, la altura, los objetos en la habitación.
03:48
99 percentpor ciento of what you see
73
210000
3000
El 99% de lo que ves
03:51
is not what comesproviene in throughmediante the eyesojos.
74
213000
4000
no es lo que entra por los ojos.
03:55
It is what you inferinferir about that roomhabitación.
75
217000
4000
Es lo que infieres sobre la habitación.
03:59
So I can say, with some certaintycerteza,
76
221000
4000
Por lo tanto, puedo decir, con cierta seguridad,
04:03
"I think, thereforepor lo tanto I am."
77
225000
3000
"Pienso, luego existo"
04:06
But I cannotno poder say, "You think, thereforepor lo tanto you are,"
78
228000
4000
Pero no puedo decir, "Tú piensas, luego existes",
04:10
because "you" are withindentro my perceptualperceptivo bubbleburbuja.
79
232000
5000
porque tú estás dentro de mi burbuja perceptiva.
04:15
Now, we can speculateespecular and philosophizefilosofar this,
80
237000
3000
Ahora bien, podemos especular y filosofar sobre esto,
04:18
but we don't actuallyactualmente have to for the nextsiguiente hundredcien yearsaños.
81
240000
3000
pero no tenemos realmente que hacerlo durante los próximos 100 años.
04:21
We can askpedir a very concretehormigón questionpregunta.
82
243000
2000
Podemos hacernos una pregunta muy concreta:
04:23
"Can the braincerebro buildconstruir suchtal a perceptionpercepción?"
83
245000
4000
¿Puede el cerebro construir tal percepción?
04:27
Is it capablecapaz of doing it?
84
249000
2000
¿Es capaz de hacerlo?
04:29
Does it have the substancesustancia to do it?
85
251000
2000
¿Tiene la substancia para hacerlo?
04:31
And that's what I'm going to describedescribir to you todayhoy.
86
253000
3000
Y eso es lo que voy a describirles hoy.
04:34
So, it tooktomó the universeuniverso 11 billionmil millones yearsaños to buildconstruir the braincerebro.
87
256000
4000
Bien, le llevó al universo 11 mil millones de años construir el cerebro.
04:38
It had to improvemejorar it a little bitpoco.
88
260000
2000
Tuvo que mejorarlo un poco:
04:40
It had to addañadir to the frontalfrontal partparte, so that you would have instinctsinstintos,
89
262000
3000
Tuvo que añadir la parte frontal, para que podamos tener instintos
04:43
because they had to copecapa pluvial on landtierra.
90
265000
3000
para que pudieran arreglárselas en la tierra.
04:46
But the realreal biggrande steppaso was the neocortexneocorteza.
91
268000
4000
Pero auténtico gran paso fue el neocórtex.
04:50
It's a newnuevo braincerebro. You needednecesario it.
92
272000
2000
Es un cerebro nuevo. Lo necesitas.
04:52
The mammalsmamíferos needednecesario it
93
274000
2000
Los mamíferos lo necesitan
04:54
because they had to copecapa pluvial with parenthoodpaternidad,
94
276000
4000
porque tienen que lidiar con la paternidad,
04:58
socialsocial interactionsinteracciones,
95
280000
2000
interacciones sociales,
05:00
complexcomplejo cognitivecognitivo functionsfunciones.
96
282000
3000
y funciones cognitivas complejas.
05:03
So, you can think of the neocortexneocorteza
97
285000
2000
Así, podemos pensar en el neocórtex
05:05
actuallyactualmente as the ultimateúltimo solutionsolución todayhoy,
98
287000
5000
como la solución definitiva, hoy en día,
05:10
of the universeuniverso as we know it.
99
292000
3000
del universo como lo conocemos.
05:13
It's the pinnaclepináculo, it's the finalfinal productproducto
100
295000
2000
Es el pináculo, el producto final
05:15
that the universeuniverso has producedproducido.
101
297000
4000
que el universo ha producido.
05:19
It was so successfulexitoso in evolutionevolución
102
301000
2000
Tuvo tanto éxito en la evolución
05:21
that from mouseratón to man it expandedexpandido
103
303000
2000
que de ratón a hombre se ha expandido
05:23
about a thousandfoldmil veces in termscondiciones of the numbersnúmeros of neuronsneuronas,
104
305000
3000
cerca de 1000 veces en términos del número de neuronas,
05:26
to produceProduce this almostcasi frighteningaterrador
105
308000
3000
para producir este órgano,
05:29
organOrgano, structureestructura.
106
311000
3000
esta estructura, que casi asusta.
05:32
And it has not stoppeddetenido its evolutionaryevolutivo pathcamino.
107
314000
3000
Y no ha parado en su camino evolutivo.
05:35
In facthecho, the neocortexneocorteza in the humanhumano braincerebro
108
317000
2000
De hecho, el neocórtex en el cerebro humano
05:37
is evolvingevolucionando at an enormousenorme speedvelocidad.
109
319000
3000
está evolucionando a una excesiva velocidad.
05:40
If you zoomenfocar into the surfacesuperficie of the neocortexneocorteza,
110
322000
2000
Si hacemos un acercamiento a la superficie del neocórtex,
05:42
you discoverdescubrir that it's madehecho up of little modulesmódulos,
111
324000
3000
descubriremos que está hecho de pequeños módulos,
05:45
G5 processorsprocesadores, like in a computercomputadora.
112
327000
2000
procesadores G5, como en un computador.
05:47
But there are about a millionmillón of them.
113
329000
3000
Pero hay cerca de 1 millón de ellos.
05:50
They were so successfulexitoso in evolutionevolución
114
332000
2000
Han tenido tanto éxito en la evolución
05:52
that what we did was to duplicateduplicar them
115
334000
2000
que lo que hemos hecho ha sido duplicarlos
05:54
over and over and addañadir more and more of them to the braincerebro
116
336000
2000
una y otra vez, y añadir más y más al cerebro.
05:56
untilhasta we rancorrió out of spaceespacio in the skullcráneo.
117
338000
3000
hasta que nos quedamos sin espacio en el cráneo.
05:59
And the braincerebro startedempezado to folddoblez in on itselfsí mismo,
118
341000
2000
Y el cerebro empezó a plegarse sobre sí mismo,
06:01
and that's why the neocortexneocorteza is so highlyaltamente convolutedcomplejo.
119
343000
3000
y por eso el neocórtex está tan retorcido.
06:04
We're just packingembalaje in columnscolumnas,
120
346000
2000
Estábamos simplemente empaquetando en columnas,
06:06
so that we'dmie have more neocorticalneocortical columnscolumnas
121
348000
3000
para que tuviéramos más columnas neocorticales
06:09
to performrealizar more complexcomplejo functionsfunciones.
122
351000
3000
para realizar funciones más complejas.
06:12
So you can think of the neocortexneocorteza actuallyactualmente as
123
354000
2000
Así que puedes pensar en el neocórtex realmente como
06:14
a massivemasivo grandgrandioso pianopiano,
124
356000
2000
un enorme piano de cola,
06:16
a million-keymillón clave grandgrandioso pianopiano.
125
358000
3000
un piano con 1 millón de teclas.
06:19
EachCada of these neocorticalneocortical columnscolumnas
126
361000
2000
Cada una de estas columnas neocorticales
06:21
would produceProduce a noteNota.
127
363000
2000
produciría una nota.
06:23
You stimulateestimular it; it producesproduce a symphonysinfonía.
128
365000
3000
Si lo estimulas, produce una sinfonía.
06:26
But it's not just a symphonysinfonía of perceptionpercepción.
129
368000
3000
Pero no es sólo una sinfonía de percepción,
06:29
It's a symphonysinfonía of your universeuniverso, your realityrealidad.
130
371000
3000
es una sinfonía de tu universo, tu realidad.
06:32
Now, of coursecurso it takes yearsaños to learnaprender how
131
374000
3000
Ahora bien, desde luego lleva años aprender cómo
06:35
to masterdominar a grandgrandioso pianopiano with a millionmillón keysllaves.
132
377000
3000
tocar un piano de cola con un millón de teclas.
06:38
That's why you have to sendenviar your kidsniños to good schoolsescuelas,
133
380000
2000
Y es por esto que tienes que mandar a tus hijos a buenas escuelas,
06:40
hopefullyOjalá eventuallyfinalmente to OxfordOxford.
134
382000
2000
y esperemos que finalmente a Oxford.
06:42
But it's not only educationeducación.
135
384000
3000
Pero no es sólo educación.
06:45
It's alsoademás geneticsgenética.
136
387000
2000
También es genética.
06:47
You maymayo be bornnacido luckysuerte,
137
389000
2000
Puedes nacer con suerte,
06:49
where you know how to masterdominar your neocorticalneocortical columncolumna,
138
391000
4000
o puedes saber cómo dominar tu columna neocortical,
06:53
and you can playjugar a fantasticfantástico symphonysinfonía.
139
395000
2000
y puedes tocar una fantástica sinfonía.
06:55
In facthecho, there is a newnuevo theoryteoría of autismautismo
140
397000
3000
De hecho, hay una nueva teoría del autismo
06:58
calledllamado the "intenseintenso worldmundo" theoryteoría,
141
400000
2000
llamada "La teoría del mundo intenso",
07:00
whichcual suggestssugiere that the neocorticalneocortical columnscolumnas are super-columnssupercolumnas.
142
402000
4000
que sugiere que las columnas neocorticales son super-columnas.
07:04
They are highlyaltamente reactivereactivo, and they are super-plasticsúper plástico,
143
406000
4000
Son altamente reactivas, y super-elásticas,
07:08
and so the autistsautistas are probablyprobablemente capablecapaz of
144
410000
3000
y por eso los autistas son probablemente capaces
07:11
buildingedificio and learningaprendizaje a symphonysinfonía
145
413000
2000
de construir y aprender una sinfonía
07:13
whichcual is unthinkableinconcebible for us.
146
415000
2000
que es impensable para nosotros.
07:15
But you can alsoademás understandentender
147
417000
2000
Pero también puedes entender
07:17
that if you have a diseaseenfermedad
148
419000
2000
que si tuvieras una enfermedad
07:19
withindentro one of these columnscolumnas,
149
421000
2000
dentro de una de estas columnas,
07:21
the noteNota is going to be off.
150
423000
2000
la nota va a estar desafinada.
07:23
The perceptionpercepción, the symphonysinfonía that you createcrear
151
425000
2000
La percepción, la sinfonía que creas
07:25
is going to be corruptedcorrompido,
152
427000
2000
va a estar contaminada,
07:27
and you will have symptomssíntomas of diseaseenfermedad.
153
429000
3000
y tendrás los síntomas de una enfermedad.
07:30
So, the HolySanto GrailGrial for neuroscienceneurociencia
154
432000
4000
el Santo Grial de la neurociencia
07:34
is really to understandentender the designdiseño of the neocoriticalneocorítico columncolumna --
155
436000
4000
es entender el diseño de la columna neocortical
07:38
and it's not just for neuroscienceneurociencia;
156
440000
2000
y no sólo para la neurociencia
07:40
it's perhapsquizás to understandentender perceptionpercepción, to understandentender realityrealidad,
157
442000
3000
es quizás el entender la percepción, entender la realidad,
07:43
and perhapsquizás to even alsoademás understandentender physicalfísico realityrealidad.
158
445000
4000
y quizás incluso entender la realidad física.
07:47
So, what we did was, for the pastpasado 15 yearsaños,
159
449000
3000
Así que lo que hicimos, durante los últimos 15 años,
07:50
was to dissectdisecar out the neocortexneocorteza, systematicallysistemáticamente.
160
452000
4000
fue diseccionar el neocórtex, sistemáticamente.
07:54
It's a bitpoco like going and catalogingcatalogación a piecepieza of the rainforestselva.
161
456000
4000
Es un poco como catalogar una parte de la selva.
07:58
How manymuchos treesárboles does it have?
162
460000
2000
¿Cuántos árboles tiene?
08:00
What shapesformas are the treesárboles?
163
462000
2000
¿Qué formas tienen los árboles?
08:02
How manymuchos of eachcada typetipo of treeárbol do you have? Where are they positionedcolocado?
164
464000
3000
¿Cuántos de cada tipo hay?, ¿Dónde se encuentran colocados?
08:05
But it's a bitpoco more than catalogingcatalogación because you actuallyactualmente have to
165
467000
2000
Pero es un poco más que catalogar porque realmente tienes
08:07
describedescribir and discoverdescubrir all the rulesreglas of communicationcomunicación,
166
469000
4000
que describir y descubrir todas la reglas de comunicación
08:11
the rulesreglas of connectivityconectividad,
167
473000
2000
la reglas de la conectividad,
08:13
because the neuronsneuronas don't just like to connectconectar with any neuronneurona.
168
475000
3000
porque las neuronas no se conectan con cualquier neurona.
08:16
They chooseescoger very carefullycuidadosamente who they connectconectar with.
169
478000
3000
Eligen con cuidado con quiénes se conectan.
08:19
It's alsoademás more than catalogingcatalogación
170
481000
3000
Es también más que catalogar
08:22
because you actuallyactualmente have to buildconstruir three-dimensionaltridimensional
171
484000
2000
porque en realidad tienes que construir
08:24
digitaldigital modelsmodelos of them.
172
486000
2000
modelos tri-dimensionales digitales de ellos.
08:26
And we did that for tensdecenas of thousandsmiles of neuronsneuronas,
173
488000
2000
Y lo hicimos para decenas de miles de neuronas,
08:28
builtconstruido digitaldigital modelsmodelos of all the differentdiferente typestipos
174
490000
3000
construir modelos digitales de diferentes tipos
08:31
of neuronsneuronas we camevino acrossa través de.
175
493000
2000
de neuronas que nos hemos encontrado.
08:33
And onceuna vez you have that, you can actuallyactualmente
176
495000
2000
Y una vez que tienes eso, puedes realmente
08:35
beginempezar to buildconstruir the neocorticalneocortical columncolumna.
177
497000
4000
empezar a construir la columna neocortical.
08:39
And here we're coilingenrollado them up.
178
501000
3000
Y aquí estamos, enrollándolas.
08:42
But as you do this, what you see
179
504000
3000
Pero según haces esto, lo que ves
08:45
is that the branchesramas intersectintersecarse
180
507000
2000
es que las ramas se intersectan
08:47
actuallyactualmente in millionsmillones of locationsubicaciones,
181
509000
3000
en millones de lugares,
08:50
and at eachcada of these intersectionsintersecciones
182
512000
3000
y en cada una de estas intersecciones
08:53
they can formformar a synapsesinapsis.
183
515000
2000
pueden formar una sinapsis.
08:55
And a synapsesinapsis is a chemicalquímico locationubicación
184
517000
2000
Y una sinapsis es una posición química
08:57
where they communicatecomunicar with eachcada other.
185
519000
3000
donde se comunican entre sí.
09:00
And these synapsessinapsis togetherjuntos
186
522000
2000
Y juntas estas sinapsis
09:02
formformar the networkred
187
524000
2000
forman la red
09:04
or the circuitcircuito of the braincerebro.
188
526000
3000
o el circuito del cerebro.
09:07
Now, the circuitcircuito, you could alsoademás think of as
189
529000
4000
Ahora bien, el circuito lo puedes pensar como
09:11
the fabrictela of the braincerebro.
190
533000
2000
el tejido del cerebro.
09:13
And when you think of the fabrictela of the braincerebro,
191
535000
3000
Y cuando piensas en el tejido del cerebro,
09:16
the structureestructura, how is it builtconstruido? What is the patternpatrón of the carpetalfombra?
192
538000
4000
la estructura, ¿cómo está construido? ¿Cuál es el patrón de la alfombra?
09:20
You realizedarse cuenta de that this posesposes
193
542000
2000
Te das cuenta de que representa
09:22
a fundamentalfundamental challengereto to any theoryteoría of the braincerebro,
194
544000
4000
un reto fundamental para cualquier teoría del cerebro,
09:26
and especiallyespecialmente to a theoryteoría that saysdice
195
548000
2000
y especialmente para una teoría que dice
09:28
that there is some realityrealidad that emergesemerge
196
550000
2000
que hay una realidad que emerge
09:30
out of this carpetalfombra, out of this particularespecial carpetalfombra
197
552000
3000
de esa alfombra, de esa alfombra en particular
09:33
with a particularespecial patternpatrón.
198
555000
2000
con un patrón particular.
09:35
The reasonrazón is because the mostmás importantimportante designdiseño secretsecreto of the braincerebro
199
557000
3000
La razón es porque el secreto más importante del diseño del cerebro
09:38
is diversitydiversidad.
200
560000
2000
es la diversidad.
09:40
EveryCada neuronneurona is differentdiferente.
201
562000
2000
Cada neuronal es diferente.
09:42
It's the samemismo in the forestbosque. EveryCada pinepino treeárbol is differentdiferente.
202
564000
2000
Es lo mismo que en el bosque. Cada pino es diferente.
09:44
You maymayo have manymuchos differentdiferente typestipos of treesárboles,
203
566000
2000
Puedes tener muchos tipos diferentes de árboles,
09:46
but everycada pinepino treeárbol is differentdiferente. And in the braincerebro it's the samemismo.
204
568000
3000
pero cada pino es diferente. Y en el cerebro es igual.
09:49
So there is no neuronneurona in my braincerebro that is the samemismo as anotherotro,
205
571000
3000
Así que no hay una neurona en mi cerebro que sea igual a otra,
09:52
and there is no neuronneurona in my braincerebro that is the samemismo as in yourstuya.
206
574000
3000
y no hay una neurona en mi cerebro que sea igual en el tuyo.
09:55
And your neuronsneuronas are not going to be orientedorientado and positionedcolocado
207
577000
3000
Y tus neuronas no van a estar orientadas y colocadas,
09:58
in exactlyexactamente the samemismo way.
208
580000
2000
exactamente, de la misma manera.
10:00
And you maymayo have more or lessMenos neuronsneuronas.
209
582000
2000
Y puedes tener más o menos neuronas.
10:02
So it's very unlikelyimprobable
210
584000
2000
Así que es muy poco probable
10:04
that you got the samemismo fabrictela, the samemismo circuitrycircuitería.
211
586000
4000
que tengas el mismo tejido, los mismos circuitos.
10:08
So, how could we possiblyposiblemente createcrear a realityrealidad
212
590000
2000
Entonces, ¿cómo podríamos crear una realidad
10:10
that we can even understandentender eachcada other?
213
592000
3000
que incluso podemos entender entre nosotros?
10:13
Well, we don't have to speculateespecular.
214
595000
2000
Bien, no tenemos que especular.
10:15
We can look at all 10 millionmillón synapsessinapsis now.
215
597000
3000
Podemos mirar todas las 10 millones de sinapsis actualmente.
10:18
We can look at the fabrictela. And we can changecambio neuronsneuronas.
216
600000
3000
Podemos mirar el tejido. Y podemos cambiar las neuronas.
10:21
We can use differentdiferente neuronsneuronas with differentdiferente variationsvariaciones.
217
603000
2000
Podemos usar diferentes neuronas con diferentes variaciones.
10:23
We can positionposición them in differentdiferente placeslugares,
218
605000
2000
Y podemos colocarlas en diferentes lugares,
10:25
orientorientar them in differentdiferente placeslugares.
219
607000
2000
orientarlas en diferentes lugares.
10:27
We can use lessMenos or more of them.
220
609000
2000
Y podemos usar más o menos neuronas.
10:29
And when we do that
221
611000
2000
Y cuando hacemos eso
10:31
what we discovereddescubierto is that the circuitrycircuitería does changecambio.
222
613000
3000
lo que descubrimos es que el circuito cambia.
10:34
But the patternpatrón of how the circuitrycircuitería is designeddiseñado does not.
223
616000
7000
Pero el patrón de cómo el circuito está diseñado no.
10:41
So, the fabrictela of the braincerebro,
224
623000
2000
Así, el tejido del cerebro,
10:43
even thoughaunque your braincerebro maymayo be smallermenor, biggermás grande,
225
625000
2000
aunque tu cerebro sea pequeño, grande,
10:45
it maymayo have differentdiferente typestipos of neuronsneuronas,
226
627000
3000
tenga diferentes tipos de neuronas,
10:48
differentdiferente morphologiesmorfologías of neuronsneuronas,
227
630000
2000
diferentes morfologías de neuronas,
10:50
we actuallyactualmente do sharecompartir
228
632000
3000
realmente compartimos
10:53
the samemismo fabrictela.
229
635000
2000
el mismo tejido.
10:55
And we think this is species-specificespecie-específica,
230
637000
2000
Y creemos que eso es específico de cada especie,
10:57
whichcual meansmedio that that could explainexplique
231
639000
2000
lo que podría explicar
10:59
why we can't communicatecomunicar acrossa través de speciesespecies.
232
641000
2000
el por qué no podemos comunicarnos entre especies.
11:01
So, let's switchcambiar it on. But to do it, what you have to do
233
643000
3000
Bien, encendámoslo. Pero para hacerlo, lo que tenemos que hacer
11:04
is you have to make this come aliveviva.
234
646000
2000
es que cobre vida.
11:06
We make it come aliveviva
235
648000
2000
Hacemos que cobre vida
11:08
with equationsecuaciones, a lot of mathematicsmatemáticas.
236
650000
2000
con ecuaciones, muchas matemáticas.
11:10
And, in facthecho, the equationsecuaciones that make neuronsneuronas into electricaleléctrico generatorsgeneradores
237
652000
4000
Y, de hecho, las ecuaciones que convierten las neuronas en generadores eléctricos
11:14
were discovereddescubierto by two CambridgeCambridge NobelNobel LaureatesLaureados.
238
656000
3000
fueron descubiertas por dos Premios Nobel de Cambridge.
11:17
So, we have the mathematicsmatemáticas to make neuronsneuronas come aliveviva.
239
659000
3000
Así que tenemos las matemáticas que hacen que las neuronas cobren vida.
11:20
We alsoademás have the mathematicsmatemáticas to describedescribir
240
662000
2000
También tenemos las matemáticas que describen
11:22
how neuronsneuronas collectrecoger informationinformación,
241
664000
3000
cómo las neuronas reúnen información,
11:25
and how they createcrear a little lightningrelámpago bolttornillo
242
667000
3000
y cómo crean un pequeño rayo
11:28
to communicatecomunicar with eachcada other.
243
670000
2000
para comunicarse entre ellas.
11:30
And when they get to the synapsesinapsis,
244
672000
2000
Y cuando llegan a la sinapsis,
11:32
what they do is they effectivelyeficazmente,
245
674000
2000
lo que hacen es que efectiva y
11:34
literallyliteralmente, shockchoque the synapsesinapsis.
246
676000
3000
literalmente, conmocionan la sinapsis.
11:37
It's like electricaleléctrico shockchoque
247
679000
2000
Es como una descarga eléctrica
11:39
that releaseslanzamientos the chemicalsquímicos from these synapsessinapsis.
248
681000
3000
que libera los elementos químicos de esta sinapsis.
11:42
And we'venosotros tenemos got the mathematicsmatemáticas to describedescribir this processproceso.
249
684000
3000
Y tenemos las matemáticas que describen este proceso.
11:45
So we can describedescribir the communicationcomunicación betweenEntre the neuronsneuronas.
250
687000
4000
Así que podemos describir la comunicación entre neuronas.
11:49
There literallyliteralmente are only a handfulpuñado
251
691000
3000
Hay literalmente sólo un puñado
11:52
of equationsecuaciones that you need to simulatesimular
252
694000
2000
de ecuaciones que se necesitan para simular
11:54
the activityactividad of the neocortexneocorteza.
253
696000
2000
la actividad del neocórtex.
11:56
But what you do need is a very biggrande computercomputadora.
254
698000
3000
Pero lo que sí necesitas es una computadora muy grande.
11:59
And in facthecho you need one laptopordenador portátil
255
701000
2000
Y de hecho necesitas una laptop
12:01
to do all the calculationscálculos just for one neuronneurona.
256
703000
3000
para hacer todos los cálculos para una única neurona.
12:04
So you need 10,000 laptopslaptops.
257
706000
2000
Así que necesitas 10.000 laptops.
12:06
So where do you go? You go to IBMIBM,
258
708000
2000
¿A dónde vas entonces? Vas a IBM,
12:08
and you get a supercomputersupercomputadora, because they know how to take
259
710000
2000
y adquieres un supercomputador, porque saben cómo tomar
12:10
10,000 laptopslaptops and put it into the sizetamaño of a refrigeratorrefrigerador.
260
712000
4000
10.000 laptops y meterlos en algo del tamaño de un refrigerador.
12:14
So now we have this BlueAzul GeneGene supercomputersupercomputadora.
261
716000
3000
Así que ahora tenemos el supercomputador Blue Gene.
12:17
We can loadcarga up all the neuronsneuronas,
262
719000
2000
Podemos cargar todas las neuronas,
12:19
eachcada one on to its processorprocesador,
263
721000
2000
cada una en su procesador
12:21
and firefuego it up, and see what happenssucede.
264
723000
4000
y arrancarlo, y ver qué pasa.
12:25
Take the magicmagia carpetalfombra for a ridepaseo.
265
727000
3000
Tomen la alfombra mágica para dar una vuelta.
12:28
Here we activateactivar it. And this givesda the first glimpsevislumbrar
266
730000
3000
Aquí lo activamos. Y eso da el primer vistazo fugaz
12:31
of what is happeningsucediendo in your braincerebro
267
733000
2000
de lo que está pasando en tu cerebro
12:33
when there is a stimulationestímulo.
268
735000
2000
cuando hay una estimulación.
12:35
It's the first viewver.
269
737000
2000
Es la primera impresión.
12:37
Now, when you look at that the first time, you think,
270
739000
2000
Ahora bien, cuando lo miras por primera vez, piensas,
12:39
"My god. How is realityrealidad comingviniendo out of that?"
271
741000
5000
"Dios mío. ¿Cómo sale la realidad de eso?"
12:44
But, in facthecho, you can startcomienzo,
272
746000
3000
Pero, de hecho, puedes empezar,
12:47
even thoughaunque we haven'tno tiene trainedentrenado this neocorticalneocortical columncolumna
273
749000
4000
aunque no hayas entrenado esta columna neocortical
12:51
to createcrear a specificespecífico realityrealidad.
274
753000
2000
para crear una realidad específica.
12:53
But we can askpedir, "Where is the roseRosa?"
275
755000
4000
podemos preguntar, "¿Dónde está la rosa?"
12:57
We can askpedir, "Where is it insidedentro,
276
759000
2000
Podemos preguntar, "¿Dónde está ahí dentro,
12:59
if we stimulateestimular it with a pictureimagen?"
277
761000
3000
si lo estimulamos con una imagen?"
13:02
Where is it insidedentro the neocortexneocorteza?
278
764000
2000
¿Dónde está dentro del neocórtex?
13:04
UltimatelyPor último it's got to be there if we stimulatedestimulado it with it.
279
766000
4000
Definitivamente tiene que estar ahí si lo estimulamos con ella.
13:08
So, the way that we can look at that
280
770000
2000
Bien, la manera en la que podemos afrontar eso
13:10
is to ignoreignorar the neuronsneuronas, ignoreignorar the synapsessinapsis,
281
772000
3000
es ignorar las neuronas, ignorar las sinapsis,
13:13
and look just at the rawcrudo electricaleléctrico activityactividad.
282
775000
2000
y mirar sólo a la actividad eléctrica en crudo.
13:15
Because that is what it's creatingcreando.
283
777000
2000
Porque eso es lo que está creando.
13:17
It's creatingcreando electricaleléctrico patternspatrones.
284
779000
2000
Está creando patrones eléctricos.
13:19
So when we did this,
285
781000
2000
Así que cuando hicimos esto,
13:21
we indeeden efecto, for the first time,
286
783000
2000
de hecho, por primera vez,
13:23
saw these ghost-likesimilar a un fantasma structuresestructuras:
287
785000
3000
vimos estas estructuras fantasmagóricas
13:26
electricaleléctrico objectsobjetos appearingapareciendo
288
788000
3000
objetos eléctricos apareciendo
13:29
withindentro the neocorticalneocortical columncolumna.
289
791000
3000
dentro de la columna neocortical.
13:32
And it's these electricaleléctrico objectsobjetos
290
794000
3000
Y son estos objetos eléctricos
13:35
that are holdingparticipación all the informationinformación about
291
797000
3000
los que mantienen toda la información sobre
13:38
whateverlo que sea stimulatedestimulado it.
292
800000
3000
lo que fuera que lo estimuló.
13:41
And then when we zoomedampliado into this,
293
803000
2000
Y cuando hicimos un acercamiento a esto,
13:43
it's like a veritableverdadero universeuniverso.
294
805000
4000
es como un auténtico universo.
13:47
So the nextsiguiente steppaso
295
809000
2000
Así que el siguiente paso
13:49
is just to take these braincerebro coordinatescoordenadas
296
811000
4000
es tomar estas coordenadas cerebrales
13:53
and to projectproyecto them into perceptualperceptivo spaceespacio.
297
815000
4000
y proyectarlas en un espacio perceptivo.
13:57
And if you do that,
298
819000
2000
Y si haces eso,
13:59
you will be ablepoder to steppaso insidedentro
299
821000
2000
serás capaz de adentrarte
14:01
the realityrealidad that is createdcreado
300
823000
2000
en la realidad que ha creado
14:03
by this machinemáquina,
301
825000
2000
esta máquina,
14:05
by this piecepieza of the braincerebro.
302
827000
3000
por éste pedazo del cerebro.
14:08
So, in summaryresumen,
303
830000
2000
En resumen,
14:10
I think that the universeuniverso maymayo have --
304
832000
2000
Creo que el universo puede haber --
14:12
it's possibleposible --
305
834000
2000
es posible --
14:14
evolvedevolucionado a braincerebro to see itselfsí mismo,
306
836000
3000
evolucionado el cerebro para verse a sí mismo,
14:17
whichcual maymayo be a first steppaso in becomingdevenir awareconsciente of itselfsí mismo.
307
839000
5000
que puede ser un primer paso para ser consciente de sí mismo.
14:22
There is a lot more to do to testprueba these theoriesteorías,
308
844000
2000
Hay mucho por hacer para comprobar estas teorías,
14:24
and to testprueba any other theoriesteorías.
309
846000
3000
y comprobar cualquier otra teoría.
14:27
But I hopeesperanza that you are at leastmenos partlyparcialmente convincedconvencido
310
849000
3000
Pero espero que estén al menos parcialmente convencidos
14:30
that it is not impossibleimposible to buildconstruir a braincerebro.
311
852000
3000
de que no es imposible construir un cerebro.
14:33
We can do it withindentro 10 yearsaños,
312
855000
2000
Podemos hacerlo dentro de 10 años,
14:35
and if we do succeedtener éxito,
313
857000
2000
y si tenemos éxito
14:37
we will sendenviar to TEDTED, in 10 yearsaños,
314
859000
2000
mandaremos a TED, en 10 años,
14:39
a hologramholograma to talk to you. Thank you.
315
861000
3000
un holograma para que hable con ustedes. Gracias.
14:42
(ApplauseAplausos)
316
864000
6000
(Aplauso)

▲Back to top

ABOUT THE SPEAKER
Henry Markram - Neuroscientist
Henry Markram is director of Blue Brain, a supercomputing project that can model components of the mammalian brain to precise cellular detail -- and simulate their activity in 3D. Soon he'll simulate a whole rat brain in real time.

Why you should listen

In the microscopic, yet-uncharted circuitry of the cortex, Henry Markram is perhaps the most ambitious -- and our most promising -- frontiersman. Backed by the extraordinary power of the IBM Blue Gene supercomputing architecture, which can perform hundreds of trillions of calculations per second, he's using complex models to precisely simulate the neocortical column (and its tens of millions of neural connections) in 3D.

Though the aim of Blue Brain research is mainly biomedical, it has been edging up on some deep, contentious philosophical questions about the mind -- "Can a robot think?" and "Can consciousness be reduced to mechanical components?" -- the consequence of which Markram is well aware: Asked by Seed Magazine what a simulation of a full brain might do, he answered, "Everything. I mean everything" -- with a grin.

Now, with a successful proof-of-concept for simulation in hand (the project's first phase was completed in 2007), Markram is looking toward a future where brains might be modeled even down to the molecular and genetic level. Computing power marching rightward and up along the graph of Moore's Law, Markram is sure to be at the forefront as answers to the mysteries of cognition emerge.

More profile about the speaker
Henry Markram | Speaker | TED.com