ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com
TEDGlobal 2010

Sebastian Seung: I am my connectome

Sebastian Seung: yo soy mi conectoma

Filmed:
1,131,223 views

Sebastian Seung está trazando un nuevo modelo tremendamente ambicioso del cerebro que se centra en las conexiones interneuronales. Él lo llama "conectoma" y es tan individual como nuestro genoma y entenderlo podría abrir una nueva manera de entender nuestro cerebro y nuestra mente.
- Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain. Full bio

Double-click the English transcript below to play the video.

00:17
We livevivir in in a remarkablenotable time,
0
2000
3000
Vivimos en un tiempo notable:
00:20
the ageaños of genomicsgenómica.
1
5000
3000
la era de la genómica.
00:23
Your genomegenoma is the entiretodo sequencesecuencia of your DNAADN.
2
8000
3000
El genoma es toda la secuencia del ADN.
00:26
Your sequencesecuencia and minemía are slightlyligeramente differentdiferente.
3
11000
3000
Tu secuencia y la mía son levemente diferentes.
00:29
That's why we look differentdiferente.
4
14000
2000
Por eso tenemos aspectos diferentes.
00:31
I've got brownmarrón eyesojos;
5
16000
2000
Yo tengo ojos marrones.
00:33
you mightpodría have blueazul or graygris.
6
18000
3000
Ustedes quizá azules o grises.
00:36
But it's not just skin-deeppiel profunda.
7
21000
2000
Pero no es sólo superficial.
00:38
The headlinestitulares tell us
8
23000
2000
Los titulares nos dicen
00:40
that genesgenes can give us scaryde miedo diseasesenfermedades,
9
25000
3000
que los genes pueden provocar enfermedades espantosas,
00:43
maybe even shapeforma our personalitypersonalidad,
10
28000
3000
y quizá modelar nuestra personalidad
00:46
or give us mentalmental disorderstrastornos.
11
31000
3000
o provocarnos trastornos mentales.
00:49
Our genesgenes seemparecer to have
12
34000
3000
Nuestros genes parecen tener
00:52
awesomeincreíble powerpoder over our destiniesdestinos.
13
37000
3000
un poder impresionante en nuestro destino.
00:56
And yettodavía, I would like to think
14
41000
3000
Y, sin embargo, me gustaría pensar
00:59
that I am more than my genesgenes.
15
44000
3000
que soy más que mis genes.
01:04
What do you guys think?
16
49000
2000
¿Qué piensan muchachos?
01:06
Are you more than your genesgenes?
17
51000
3000
¿Son Uds más que sus genes?
01:09
(AudienceAudiencia: Yes.) Yes?
18
54000
2000
(Audiencia: Sí) ¿Sí?
01:13
I think some people agreede acuerdo with me.
19
58000
2000
Creo que algunas personas están de acuerdo conmigo.
01:15
I think we should make a statementdeclaración.
20
60000
2000
Creo que deberíamos hacer una declaración.
01:17
I think we should say it all togetherjuntos.
21
62000
2000
Creo que debemos decirlo todos juntos.
01:20
All right: "I'm more than my genesgenes" -- all togetherjuntos.
22
65000
3000
Muy bien: "Soy más que mis genes", todos juntos.
01:23
EverybodyTodos: I am more than my genesgenes.
23
68000
4000
Todo el mundo: soy más que mis genes.
01:27
(CheeringAplausos)
24
72000
2000
(Vítores)
01:30
SebastianSebastian SeungSeung: What am I?
25
75000
2000
Sebastian Seung: ¿Qué soy?
01:32
(LaughterRisa)
26
77000
3000
(Risas)
01:35
I am my connectomeconnectome.
27
80000
3000
Soy mi conectoma.
01:40
Now, sinceya que you guys are really great,
28
85000
2000
Ahora, como son realmente geniales,
01:42
maybe you can humorhumor me and say this all togetherjuntos too.
29
87000
2000
pueden seguirme la corriente y decirlo todos juntos también.
01:44
(LaughterRisa)
30
89000
2000
(Risas)
01:46
Right. All togetherjuntos now.
31
91000
2000
Bien. Ahora todos juntos.
01:48
EverybodyTodos: I am my connectomeconnectome.
32
93000
3000
Todo el mundo: soy mi conectoma.
01:53
SSSS: That soundedsonaba great.
33
98000
2000
SS: eso estuvo genial.
01:55
You know, you guys are so great, you don't even know what a connectomeconnectome is,
34
100000
2000
Gente, son fabulosos, ni siquiera saben qué es un conectoma
01:57
and you're willingcomplaciente to playjugar alonga lo largo with me.
35
102000
2000
pero están dispuestos a jugar conmigo.
01:59
I could just go home now.
36
104000
3000
Ya me puedo dar por satisfecho.
02:02
Well, so farlejos only one connectomeconnectome is knownconocido,
37
107000
3000
Hasta ahora se conoce un solo conectoma:
02:05
that of this tinyminúsculo wormgusano.
38
110000
3000
el de este gusano minúsculo.
02:08
Its modestmodesto nervousnervioso systemsistema
39
113000
2000
Su modesto sistema nervioso
02:10
consistsconsiste of just 300 neuronsneuronas.
40
115000
2000
consta de sólo 300 neuronas.
02:12
And in the 1970s and '80s,
41
117000
2000
Y en las décadas del 70 y 80
02:14
a teamequipo of scientistscientíficos
42
119000
2000
un equipo científico
02:16
mappedmapeado all 7,000 connectionsconexiones
43
121000
2000
trazó el mapa de sus 7.000
02:18
betweenEntre the neuronsneuronas.
44
123000
2000
conexiones interneuronales.
02:21
In this diagramdiagrama, everycada nodenodo is a neuronneurona,
45
126000
2000
En este diagrama cada nodo es una neurona
02:23
and everycada linelínea is a connectionconexión.
46
128000
2000
y cada línea una conexión.
02:25
This is the connectomeconnectome
47
130000
2000
Este es el conectoma
02:27
of the wormgusano C. eleganselegans.
48
132000
4000
del gusano C. elegans.
02:31
Your connectomeconnectome is farlejos more complexcomplejo than this
49
136000
3000
Nuestro conectoma es mucho más complejo
02:34
because your braincerebro
50
139000
2000
porque nuestro cerebro
02:36
containscontiene 100 billionmil millones neuronsneuronas
51
141000
2000
tiene más de 100 mil millones de neuronas
02:38
and 10,000 timesveces as manymuchos connectionsconexiones.
52
143000
3000
y 10 mil veces más conexiones.
02:41
There's a diagramdiagrama like this for your braincerebro,
53
146000
2000
Hay un diagrama como este para nuestro cerebro
02:43
but there's no way it would fitajuste on this slidediapositiva.
54
148000
3000
pero no hay manera de que quepa en esta diapositiva.
02:47
Your connectomeconnectome containscontiene one millionmillón timesveces more connectionsconexiones
55
152000
3000
Nuestro conectoma tiene un millón de veces más conexiones
02:50
than your genomegenoma has lettersletras.
56
155000
3000
que letras en todo nuestro genoma.
02:53
That's a lot of informationinformación.
57
158000
2000
Eso es mucha información.
02:55
What's in that informationinformación?
58
160000
3000
¿Qué hay en esa información?
02:59
We don't know for sure, but there are theoriesteorías.
59
164000
3000
No lo sabemos con seguridad pero hay teorías.
03:02
SinceYa que the 19thth centurysiglo, neuroscientistsneurocientíficos have speculatedespeculado
60
167000
3000
Desde el siglo XIX los neurocientíficos han especulado
03:05
that maybe your memoriesrecuerdos --
61
170000
2000
que quizá los recuerdos,
03:07
the informationinformación that makeshace you, you --
62
172000
2000
la información que te define --
03:09
maybe your memoriesrecuerdos are storedalmacenado
63
174000
2000
quizá tus recuerdos, están almacenados
03:11
in the connectionsconexiones betweenEntre your brain'ssesos neuronsneuronas.
64
176000
2000
en las conexiones interneuronales.
03:15
And perhapsquizás other aspectsaspectos of your personalpersonal identityidentidad --
65
180000
2000
Y tal vez otros aspectos de la identidad personal,
03:17
maybe your personalitypersonalidad and your intellectintelecto --
66
182000
3000
quizá tu personalidad, tu intelecto,
03:20
maybe they're alsoademás encodedcodificado
67
185000
2000
tal vez estén también codificados
03:22
in the connectionsconexiones betweenEntre your neuronsneuronas.
68
187000
3000
en las conexiones interneuronales.
03:26
And so now you can see why I proposedpropuesto this hypothesishipótesis:
69
191000
3000
Ahora pueden ver por qué les propuse esta hipótesis:
03:29
I am my connectomeconnectome.
70
194000
3000
soy mi conectoma.
03:32
I didn't askpedir you to chantcantar it because it's truecierto;
71
197000
3000
No les pedí que lo canten porque sea cierto,
03:35
I just want you to rememberrecuerda it.
72
200000
2000
sólo quiero que lo recuerden.
03:37
And in facthecho, we don't know if this hypothesishipótesis is correctcorrecto,
73
202000
2000
Y, de hecho, no sabemos si esta hipótesis es correcta
03:39
because we have never had technologiestecnologías
74
204000
2000
porque nunca hemos tenido tecnologías
03:41
powerfulpoderoso enoughsuficiente to testprueba it.
75
206000
2000
tan potentes como para demostrarla.
03:44
FindingHallazgo that wormgusano connectomeconnectome
76
209000
3000
Hallar el conectoma de ese gusano
03:47
tooktomó over a dozendocena yearsaños of tedioustedioso laborlabor.
77
212000
3000
llevó una docena de años de tedioso trabajo.
03:50
And to find the connectomesconectomas of brainssesos more like our ownpropio,
78
215000
3000
Y para encontrar conectomas de cerebros como los nuestros
03:53
we need more sophisticatedsofisticado technologiestecnologías, that are automatedautomatizado,
79
218000
3000
necesitamos tecnologías más sofisticadas, automatizadas,
03:56
that will speedvelocidad up the processproceso of findinghallazgo connectomesconectomas.
80
221000
3000
que aceleren el proceso de búsqueda de conectomas.
03:59
And in the nextsiguiente fewpocos minutesminutos, I'll tell you about some of these technologiestecnologías,
81
224000
3000
En los próximos minutos les voy a contar de alguna de estas tecnologías
04:02
whichcual are currentlyactualmente underdebajo developmentdesarrollo
82
227000
2000
que se encuentran actualmente en desarrollo
04:04
in my lablaboratorio and the labslaboratorios of my collaboratorscolaboradores.
83
229000
3000
en mi laboratorio y en el de mis colaboradores.
04:08
Now you've probablyprobablemente seenvisto picturesimágenes of neuronsneuronas before.
84
233000
3000
Probablemente ya hayan visto imágenes de neuronas.
04:11
You can recognizereconocer them instantlyinstantáneamente
85
236000
2000
Pueden reconocerlas instantáneamente
04:13
by theirsu fantasticfantástico shapesformas.
86
238000
3000
por sus formas fantásticas.
04:16
They extendampliar long and delicatedelicado branchesramas,
87
241000
3000
Tienen largas y delicadas ramificaciones;
04:19
and in shortcorto, they look like treesárboles.
88
244000
3000
en pocas palabras: parecen árboles.
04:22
But this is just a singlesoltero neuronneurona.
89
247000
3000
Pero esto es una sola neurona.
04:25
In orderorden to find connectomesconectomas,
90
250000
2000
Para encontrar conectomas
04:27
we have to see all the neuronsneuronas at the samemismo time.
91
252000
3000
tenemos que ver todas las neuronas al mismo tiempo.
04:30
So let's meetreunirse BobbyPoli KasthuriKasthuri,
92
255000
2000
Vamos a conocer a Bobby Kasthuri
04:32
who workstrabajos in the laboratorylaboratorio of JeffJeff LichtmanLichtman
93
257000
2000
del laboratorio de Jeff Lichtman
04:34
at HarvardHarvard UniversityUniversidad.
94
259000
2000
de la Universidad de Harvard.
04:36
BobbyPoli is holdingparticipación fantasticallyfantásticamente thinDelgado slicesrodajas
95
261000
2000
Bobby tiene allí rebanadas muy delgadas
04:38
of a mouseratón braincerebro.
96
263000
2000
de un cerebro de ratón.
04:40
And we're zoomingzoom in by a factorfactor of 100,000 timesveces
97
265000
3000
Y lo estamos aumentando 100.000 veces
04:44
to obtainobtener the resolutionresolución,
98
269000
2000
para tener la resolución
04:46
so that we can see the branchesramas of neuronsneuronas all at the samemismo time.
99
271000
3000
que nos permita ver las ramas de neuronas todas al mismo tiempo.
04:50
ExceptExcepto, you still maymayo not really recognizereconocer them,
100
275000
3000
Salvo que todavía no pueden reconocerlas
04:53
and that's because we have to work in threeTres dimensionsdimensiones.
101
278000
3000
y por eso tenemos que trabajar en tres dimensiones.
04:56
If we take manymuchos imagesimágenes of manymuchos slicesrodajas of the braincerebro
102
281000
2000
Si tomamos muchas imágenes de muchas rebanadas del cerebro
04:58
and stackapilar them up,
103
283000
2000
y las apilamos
05:00
we get a three-dimensionaltridimensional imageimagen.
104
285000
2000
obtenemos una imagen tridimensional.
05:02
And still, you maymayo not see the branchesramas.
105
287000
2000
Todavía no pueden ver las ramas.
05:04
So we startcomienzo at the topparte superior,
106
289000
2000
Así que empezamos por arriba
05:06
and we colorcolor in the cross-sectionsección transversal of one branchrama in redrojo,
107
291000
3000
y coloreamos de rojo la sección transversal de una rama,
05:09
and we do that for the nextsiguiente slicerebanada
108
294000
2000
y hacemos lo mismo con la rebanada siguiente
05:11
and for the nextsiguiente slicerebanada.
109
296000
2000
y con la próxima.
05:13
And we keep on doing that,
110
298000
2000
Y seguimos así,
05:15
slicerebanada after slicerebanada.
111
300000
3000
rebanada tras rebanada.
05:18
If we continuecontinuar throughmediante the entiretodo stackapilar,
112
303000
2000
Si continuamos con toda la pila
05:20
we can reconstructreconstruir the three-dimensionaltridimensional shapeforma
113
305000
3000
podemos reconstruir la figura tridimensional
05:23
of a smallpequeña fragmentfragmento of a branchrama of a neuronneurona.
114
308000
3000
de un pequeño fragmento de la rama de una neurona.
05:26
And we can do that for anotherotro neuronneurona in greenverde.
115
311000
2000
Y podemos hacerlo con otra neurona en verde.
05:28
And you can see that the greenverde neuronneurona touchestoques the redrojo neuronneurona
116
313000
2000
Y puede verse que la neurona verde toca a la neurona roja
05:30
at two locationsubicaciones,
117
315000
2000
en dos partes,
05:32
and these are what are calledllamado synapsessinapsis.
118
317000
2000
y eso es lo que se llama sinapsis.
05:34
Let's zoomenfocar in on one synapsesinapsis,
119
319000
2000
Acerquémonos a una sinapsis.
05:36
and keep your eyesojos on the interiorinterior of the greenverde neuronneurona.
120
321000
3000
Mantengamos la vista en el interior de la neurona verde.
05:39
You should see smallpequeña circlescírculos --
121
324000
2000
Deberían ver unos circulitos.
05:41
these are calledllamado vesiclesvesículas.
122
326000
3000
Se llaman vesículas.
05:44
They containContiene a moleculemolécula know as a neurotransmitterneurotransmisor.
123
329000
3000
Contienen una molécula conocida como neurotransmisor.
05:47
And so when the greenverde neuronneurona wants to communicatecomunicar,
124
332000
2000
Y así, cuando la neurona verde quiere comunicarse,
05:49
it wants to sendenviar a messagemensaje to the redrojo neuronneurona,
125
334000
2000
cuando quiere enviar un mensaje a la neurona roja,
05:51
it spitsescupe out neurotransmitterneurotransmisor.
126
336000
3000
escupe un neurotransmisor.
05:54
At the synapsesinapsis, the two neuronsneuronas
127
339000
2000
En la sinapsis las dos neuronas
05:56
are said to be connectedconectado
128
341000
2000
se dice que están conectadas
05:58
like two friendsamigos talkinghablando on the telephoneteléfono.
129
343000
3000
como dos amigas que hablan por teléfono.
06:02
So you see how to find a synapsesinapsis.
130
347000
2000
Ya ven cómo encontrar una sinapsis.
06:04
How can we find an entiretodo connectomeconnectome?
131
349000
3000
¿Cómo podemos encontrar un conectoma?
06:07
Well, we take this three-dimensionaltridimensional stackapilar of imagesimágenes
132
352000
3000
Bueno, tomamos esta pila de imágenes tridimensionales
06:10
and treattratar it as a giganticgigantesco three-dimensionaltridimensional coloringcolorante booklibro.
133
355000
3000
y la procesamos como si fuese un libro para colorear en 3D.
06:13
We colorcolor everycada neuronneurona in, in a differentdiferente colorcolor,
134
358000
3000
Pintamos cada neurona con un color diferente
06:16
and then we look throughmediante all of the imagesimágenes,
135
361000
2000
y luego miramos en todas las imágenes,
06:18
find the synapsessinapsis
136
363000
2000
encontramos las sinapsis
06:20
and noteNota the colorscolores of the two neuronsneuronas involvedinvolucrado in eachcada synapsesinapsis.
137
365000
3000
y anotamos los colores de las dos neuronas involucradas en cada sinapsis.
06:23
If we can do that throughouten todo all the imagesimágenes,
138
368000
3000
Si pudiéramos hacer esto con todas las imágenes
06:26
we could find a connectomeconnectome.
139
371000
2000
encontraríamos un conectoma.
06:29
Now, at this pointpunto,
140
374000
2000
Hasta ahora
06:31
you've learnedaprendido the basicslo esencial of neuronsneuronas and synapsessinapsis.
141
376000
2000
han aprendido lo básico sobre neuronas y sinapsis.
06:33
And so I think we're readyListo to tackleentrada
142
378000
2000
Por eso creo que están listos para abordar
06:35
one of the mostmás importantimportante questionspreguntas in neuroscienceneurociencia:
143
380000
3000
uno de los temas más importantes de la neurociencia:
06:39
how are the brainssesos of menhombres and womenmujer differentdiferente?
144
384000
3000
¿en qué difieren los cerebros de hombres y mujeres?
06:42
(LaughterRisa)
145
387000
2000
(Risas)
06:44
AccordingConforme to this self-helpautoayuda booklibro,
146
389000
2000
Según este libro de auto-ayuda
06:46
guys brainssesos are like waffleswaffles;
147
391000
2000
el cerebro masculino es como un gofre;
06:48
they keep theirsu livesvive compartmentalizedcompartimentado in boxescajas.
148
393000
3000
mantienen su vida dividida en secciones.
06:51
Girls'Chicas' brainssesos are like spaghettiespaguetis;
149
396000
3000
El cerebro femenino es como los espaguetis:
06:54
everything in theirsu life is connectedconectado to everything elsemás.
150
399000
3000
todo en su vida está relacionado con todo lo demás.
06:57
(LaughterRisa)
151
402000
2000
(Risas)
06:59
You guys are laughingriendo,
152
404000
2000
Ustedes se ríen,
07:01
but you know, this booklibro changedcambiado my life.
153
406000
2000
pero este libro cambió mi vida.
07:03
(LaughterRisa)
154
408000
2000
(Risas)
07:07
But seriouslyseriamente, what's wrongincorrecto with this?
155
412000
3000
En serio, ¿cuál es el error en esto?
07:10
You alreadyya know enoughsuficiente to tell me -- what's wrongincorrecto with this statementdeclaración?
156
415000
3000
Ya saben lo suficiente como para responder cuál es el error en esta afirmación.
07:20
It doesn't matterimportar whethersi you're a guy or girlniña,
157
425000
3000
No importa si uno es hombre o mujer
07:23
everyone'stodos brainssesos are like spaghettiespaguetis.
158
428000
3000
todos los cerebros son como espaguetis.
07:26
Or maybe really, really fine capelliniCapellini with branchesramas.
159
431000
3000
O tal vez son capellini delgadísimos con ramificaciones.
07:30
Just as one strandhebra of spaghettiespaguetis
160
435000
2000
Así como un espagueti
07:32
contactscontactos manymuchos other strandshebras on your plateplato,
161
437000
3000
toca a muchos otros en el plato,
07:35
one neuronneurona touchestoques manymuchos other neuronsneuronas
162
440000
2000
una neurona toca a muchas otras
07:37
throughmediante theirsu entangledenredado branchesramas.
163
442000
2000
mediante sus ramas enredadas.
07:39
One neuronneurona can be connectedconectado to so manymuchos other neuronsneuronas,
164
444000
3000
Una neurona puede estar conectada con muchas otras,
07:42
because there can be synapsessinapsis
165
447000
2000
porque puede haber sinapsis
07:44
at these pointspuntos of contactcontacto.
166
449000
3000
en estos puntos de contacto.
07:49
By now, you mightpodría have sortordenar of lostperdió perspectiveperspectiva
167
454000
3000
A estas alturas es posible que hayan perdido la perspectiva
07:52
on how largegrande this cubecubo of braincerebro tissuetejido actuallyactualmente is.
168
457000
3000
del tamaño real de este cubo de tejido cerebral.
07:55
And so let's do a seriesserie of comparisonscomparaciones to showespectáculo you.
169
460000
3000
Veamos una serie de comparaciones.
07:58
I assureasegurar you, this is very tinyminúsculo. It's just sixseis micronsmicrones on a sidelado.
170
463000
3000
Les voy a mostrar. Esto es muy diminuto. Tiene 6 micrones de lado.
08:03
So, here'saquí está how it stackspilas up againsten contra an entiretodo neuronneurona.
171
468000
3000
Aquí está comparado con una neurona entera.
08:06
And you can tell that, really, only the smallestpequeñísimo fragmentsfragmentos of branchesramas
172
471000
3000
Y se nota que en realidad sólo los fragmentos más pequeños de las ramas
08:09
are containedcontenido insidedentro this cubecubo.
173
474000
3000
están contenidos dentro de este cubo.
08:12
And a neuronneurona, well, that's smallermenor than braincerebro.
174
477000
3000
Y una neurona es más pequeña que el cerebro.
08:17
And that's just a mouseratón braincerebro --
175
482000
2000
Ese es el cerebro de un ratón.
08:21
it's a lot smallermenor than a humanhumano braincerebro.
176
486000
3000
Es mucho más pequeño que el humano.
08:25
So when showespectáculo my friendsamigos this,
177
490000
2000
Por eso cuando le muestro esto a mis amigos
08:27
sometimesa veces they'veellos tienen told me,
178
492000
2000
a veces me han dicho:
08:29
"You know, SebastianSebastian, you should just give up.
179
494000
3000
"Sabes Sebastian, deberías darte por vencido.
08:32
NeuroscienceNeurociencia is hopelesssin esperanza."
180
497000
2000
La neurociencia es imposible".
08:34
Because if you look at a braincerebro with your nakeddesnudo eyeojo,
181
499000
2000
Porque si uno mira al cerebro a simple vista
08:36
you don't really see how complexcomplejo it is,
182
501000
2000
no ve realmente lo complejo que es
08:38
but when you use a microscopemicroscopio,
183
503000
2000
pero si usamos un microscopio
08:40
finallyfinalmente the hiddenoculto complexitycomplejidad is revealedrevelado.
184
505000
3000
finalmente se revela su oculta complejidad.
08:45
In the 17thth centurysiglo,
185
510000
2000
En el siglo XVII
08:47
the mathematicianmatemático and philosopherfilósofo, BlaiseBlaise PascalPascal,
186
512000
2000
el matemático y filósofo Blaise Pascal,
08:49
wroteescribió of his dreadpavor of the infiniteinfinito,
187
514000
3000
escribió sobre su temor al infinito,
08:52
his feelingsensación of insignificanceinsignificancia
188
517000
2000
su sensación de insignificancia
08:54
at contemplatingcontemplando the vastvasto reachesalcanza of outerexterior spaceespacio.
189
519000
3000
al contemplar las vastas extensiones del espacio exterior.
08:59
And, as a scientistcientífico,
190
524000
2000
Y, como científico,
09:01
I'm not supposedsupuesto to talk about my feelingssentimientos --
191
526000
3000
no se supone que deba hablar de mis sensaciones.
09:04
too much informationinformación, professorprofesor.
192
529000
2000
Demasiada información, profesor.
09:06
(LaughterRisa)
193
531000
2000
(Risas)
09:08
But maymayo I?
194
533000
2000
Pero, ¿puedo?
09:10
(LaughterRisa)
195
535000
2000
(Risas)
09:12
(ApplauseAplausos)
196
537000
2000
(Aplausos)
09:14
I feel curiositycuriosidad,
197
539000
2000
Siento curiosidad,
09:16
and I feel wonderpreguntarse,
198
541000
2000
y siento asombro,
09:18
but at timesveces I have alsoademás feltsintió despairdesesperación.
199
543000
3000
pero a veces, también desesperación.
09:22
Why did I chooseescoger to studyestudiar
200
547000
2000
¿Por qué elegí estudiar
09:24
this organOrgano that is so awesomeincreíble in its complexitycomplejidad
201
549000
3000
este órgano tan asombroso en su complejidad
09:27
that it mightpodría well be infiniteinfinito?
202
552000
2000
que bien podría ser infinito?
09:29
It's absurdabsurdo.
203
554000
2000
Es absurdo.
09:31
How could we even dareatrevimiento to think
204
556000
2000
¿Cómo nos atrevemos siquiera a pensar
09:33
that we mightpodría ever understandentender this?
205
558000
3000
que alguna vez podremos entender esto?
09:38
And yettodavía, I persistpersistir in this quixoticquijotesco endeavoresfuerzo.
206
563000
3000
Y, sin embargo, persisto en este empeño quijotesco.
09:41
And indeeden efecto, these daysdías I harborpuerto newnuevo hopesesperanzas.
207
566000
3000
De hecho, actualmente abrigo nuevas esperanzas.
09:45
SomedayAlgún día,
208
570000
2000
Algún día
09:47
a fleetflota of microscopesmicroscopios will capturecapturar
209
572000
2000
una flota de microscopios capturará
09:49
everycada neuronneurona and everycada synapsesinapsis
210
574000
2000
cada neurona y cada sinapsis
09:51
in a vastvasto databasebase de datos of imagesimágenes.
211
576000
3000
en una gran base de datos de imágenes.
09:54
And some day, artificiallyartificialmente intelligentinteligente supercomputerssupercomputadoras
212
579000
3000
Y algún día supercomputadoras con inteligencia artificial
09:57
will analyzeanalizar the imagesimágenes withoutsin humanhumano assistanceasistencia
213
582000
3000
analizarán las imágenes sin supervisión humana
10:00
to summarizeresumir them in a connectomeconnectome.
214
585000
3000
para sintetizarlas en un conectoma.
10:04
I do not know, but I hopeesperanza that I will livevivir to see that day,
215
589000
3000
No lo sé, pero espero vivir para ver ese día.
10:08
because findinghallazgo an entiretodo humanhumano connectomeconnectome
216
593000
2000
Porque hallar un conectoma humano entero
10:10
is one of the greatestmejor technologicaltecnológico challengesdesafíos of all time.
217
595000
3000
es uno de los desafíos tecnológicos más grandes de todos los tiempos.
10:13
It will take the work of generationsgeneraciones to succeedtener éxito.
218
598000
3000
El éxito demandará el trabajo de generaciones.
10:17
At the presentpresente time, my collaboratorscolaboradores and I,
219
602000
3000
En la actualidad, mis colaboradores y yo,
10:20
what we're aimingpuntería for is much more modestmodesto --
220
605000
2000
estamos buscando algo mucho más modesto,
10:22
just to find partialparcial connectomesconectomas
221
607000
2000
sólo encontrar conectomas parciales
10:24
of tinyminúsculo chunkstrozos of mouseratón and humanhumano braincerebro.
222
609000
3000
de pequeños trozos de cerebro de ratones y humanos.
10:27
But even that will be enoughsuficiente for the first testspruebas of this hypothesishipótesis
223
612000
3000
Pero incluso eso será suficiente para las primeras pruebas de esta hipótesis
10:30
that I am my connectomeconnectome.
224
615000
3000
de que soy un conectoma.
10:35
For now, let me try to convinceconvencer you of the plausibilityplausibilidad of this hypothesishipótesis,
225
620000
3000
Permítanme que intente convencerlos de la plausibilidad de esta hipótesis,
10:38
that it's actuallyactualmente worthvalor takingtomando seriouslyseriamente.
226
623000
3000
que vale la pena tomar en serio.
10:42
As you growcrecer duringdurante childhoodinfancia
227
627000
2000
A medida que crecemos en la infancia
10:44
and ageaños duringdurante adulthoodedad adulta,
228
629000
3000
y envejecemos en la adultez
10:47
your personalpersonal identityidentidad changescambios slowlydespacio.
229
632000
3000
nuestra identidad cambia lentamente.
10:50
LikewiseIgualmente, everycada connectomeconnectome
230
635000
2000
Del mismo modo cada conectoma
10:52
changescambios over time.
231
637000
2000
cambia con el tiempo.
10:55
What kindsclases of changescambios happenocurrir?
232
640000
2000
¿Qué tipo de cambios ocurren?
10:57
Well, neuronsneuronas, like treesárboles,
233
642000
2000
Bueno, las neuronas, como los árboles,
10:59
can growcrecer newnuevo branchesramas,
234
644000
2000
pueden tener nuevas ramas
11:01
and they can loseperder oldantiguo onesunos.
235
646000
3000
y perder otras.
11:04
SynapsesSinapsis can be createdcreado,
236
649000
3000
Se pueden crear sinapsis
11:07
and they can be eliminatedeliminado.
237
652000
3000
y se pueden eliminar otras.
11:10
And synapsessinapsis can growcrecer largermás grande,
238
655000
2000
Y las sinapsis pueden aumentar de tamaño,
11:12
and they can growcrecer smallermenor.
239
657000
3000
y pueden disminuir de tamaño.
11:15
SecondSegundo questionpregunta:
240
660000
2000
Segunda pregunta:
11:17
what causescausas these changescambios?
241
662000
3000
¿qué provoca estos cambios?
11:20
Well, it's truecierto.
242
665000
2000
Bueno, es verdad.
11:22
To some extentgrado, they are programmedprogramado by your genesgenes.
243
667000
3000
Hasta cierto punto están programados por los genes.
11:25
But that's not the wholetodo storyhistoria,
244
670000
2000
Pero esa no es la historia completa
11:27
because there are signalsseñales, electricaleléctrico signalsseñales,
245
672000
2000
porque hay señales, señales eléctricas,
11:29
that travelviajar alonga lo largo the branchesramas of neuronsneuronas
246
674000
2000
que viajan por las ramas de las neuronas
11:31
and chemicalquímico signalsseñales
247
676000
2000
y señales químicas
11:33
that jumpsaltar acrossa través de from branchrama to branchrama.
248
678000
2000
que saltan de rama en rama.
11:35
These signalsseñales are calledllamado neuralneural activityactividad.
249
680000
3000
Estas señales se llaman actividad neuronal.
11:38
And there's a lot of evidenceevidencia
250
683000
2000
Y hay mucha evidencia
11:40
that neuralneural activityactividad
251
685000
3000
de que la actividad neuronal
11:43
is encodingcodificación our thoughtspensamientos, feelingssentimientos and perceptionspercepciones,
252
688000
3000
codifica el pensamiento, los sentimientos y las percepciones,
11:46
our mentalmental experiencesexperiencias.
253
691000
2000
nuestras experiencias mentales.
11:48
And there's a lot of evidenceevidencia that neuralneural activityactividad
254
693000
3000
Y hay mucha evidencia de que la actividad neuronal
11:51
can causeporque your connectionsconexiones to changecambio.
255
696000
3000
puede hacer que cambien nuestras conexiones.
11:54
And if you put those two factshechos togetherjuntos,
256
699000
3000
Y si se unen estos dos hechos
11:57
it meansmedio that your experiencesexperiencias
257
702000
2000
esto significa que nuestras experiencias
11:59
can changecambio your connectomeconnectome.
258
704000
3000
pueden cambiar nuestro conectoma.
12:02
And that's why everycada connectomeconnectome is uniqueúnico,
259
707000
2000
Por eso cada conectoma es único,
12:04
even those of geneticallygenéticamente identicalidéntico twinsGemelos.
260
709000
3000
incluso los de gemelos genéticamente idénticos.
12:08
The connectomeconnectome is where naturenaturaleza meetscumple nurturenutrir.
261
713000
3000
El conectoma es la confluencia de naturaleza y crianza.
12:12
And it mightpodría truecierto
262
717000
2000
Y podría ser cierto
12:14
that just the meremero actacto of thinkingpensando
263
719000
2000
que el mero acto de pensar
12:16
can changecambio your connectomeconnectome --
264
721000
2000
puede cambiar nuestro conectoma;
12:18
an ideaidea that you maymayo find empoweringempoderamiento.
265
723000
3000
una idea que puede resultar poderosa.
12:24
What's in this pictureimagen?
266
729000
2000
¿Qué hay en esta imagen?
12:28
A coolguay and refreshingrefrescante streamcorriente of wateragua, you say.
267
733000
3000
Una corriente de agua fría y refrescante, dicen.
12:32
What elsemás is in this pictureimagen?
268
737000
2000
¿Qué más hay en esta imagen?
12:37
Do not forgetolvidar that grooveranura in the EarthTierra
269
742000
2000
No se olviden del surco de la Tierra
12:39
calledllamado the streamcorriente bedcama.
270
744000
3000
llamado lecho del arroyo.
12:42
WithoutSin it, the wateragua would not know in whichcual directiondirección to flowfluir.
271
747000
3000
Sin él el agua no sabría en qué dirección fluir.
12:45
And with the streamcorriente,
272
750000
2000
Y con el arroyo
12:47
I would like to proposeproponer a metaphormetáfora
273
752000
2000
me gustaría proponer una metáfora
12:49
for the relationshiprelación betweenEntre neuralneural activityactividad
274
754000
2000
de la relación entre la actividad neuronal
12:51
and connectivityconectividad.
275
756000
2000
y la conectividad.
12:54
NeuralNeural activityactividad is constantlyconstantemente changingcambiando.
276
759000
3000
La actividad neuronal cambia constantemente.
12:57
It's like the wateragua of the streamcorriente; it never sitsse sienta still.
277
762000
3000
Es como el agua del arroyo; nunca se queda quieta.
13:00
The connectionsconexiones
278
765000
2000
Las conexiones
13:02
of the brain'ssesos neuralneural networkred
279
767000
2000
de la red neuronal del cerebro
13:04
determinesdetermina the pathwayscaminos
280
769000
2000
determinan las vías
13:06
alonga lo largo whichcual neuralneural activityactividad flowsflujos.
281
771000
2000
por las que fluye la actividad neuronal.
13:08
And so the connectomeconnectome is like bedcama of the streamcorriente;
282
773000
3000
Entonces el conectoma es como el lecho del arroyo.
13:13
but the metaphormetáfora is richermás rico than that,
283
778000
3000
Pero la metáfora es más rica.
13:16
because it's truecierto that the streamcorriente bedcama
284
781000
3000
Porque es verdad que el lecho del arroyo
13:19
guidesguías the flowfluir of the wateragua,
285
784000
2000
guía al flujo de agua
13:21
but over long timescalesescalas de tiempo,
286
786000
2000
pero, con el tiempo,
13:23
the wateragua alsoademás reshapesremodelar the bedcama of the streamcorriente.
287
788000
3000
el agua también da forma al lecho del arroyo.
13:26
And as I told you just now,
288
791000
2000
Y como acabo de decirles
13:28
neuralneural activityactividad can changecambio the connectomeconnectome.
289
793000
3000
la actividad neuronal puede cambiar al conectoma.
13:33
And if you'lltu vas a allowpermitir me to ascendascender
290
798000
2000
Y si me permiten elevar
13:35
to metaphoricalmetafórico heightsalturas,
291
800000
3000
el nivel de la metáfora
13:38
I will remindrecordar you that neuralneural activityactividad
292
803000
3000
les recordaré que la actividad neuronal
13:41
is the physicalfísico basisbase -- or so neuroscientistsneurocientíficos think --
293
806000
2000
es la base física, eso dicen los neurocientíficos,
13:43
of thoughtspensamientos, feelingssentimientos and perceptionspercepciones.
294
808000
3000
de los pensamientos, los sentimientos y las percepciones.
13:46
And so we mightpodría even speakhablar of
295
811000
2000
Por eso podríamos hablar de
13:48
the streamcorriente of consciousnessconciencia.
296
813000
2000
de un torrente de conciencia.
13:50
NeuralNeural activityactividad is its wateragua,
297
815000
3000
La actividad neuronal es el agua
13:53
and the connectomeconnectome is its bedcama.
298
818000
3000
y el conectoma el lecho del torrente.
13:57
So let's returnregreso from the heightsalturas of metaphormetáfora
299
822000
2000
Volvamos de la metáfora
13:59
and returnregreso to scienceciencia.
300
824000
2000
y retomemos la ciencia.
14:01
SupposeSuponer our technologiestecnologías for findinghallazgo connectomesconectomas
301
826000
2000
Supongamos que las tecnologías para hallar conectomas
14:03
actuallyactualmente work.
302
828000
2000
funcionan.
14:05
How will we go about testingpruebas the hypothesishipótesis
303
830000
2000
¿Cómo vamos a probar la hipótesis
14:07
"I am my connectomeconnectome?"
304
832000
3000
"soy mi conectoma"?
14:10
Well, I proposeproponer a directdirecto testprueba.
305
835000
3000
Bueno, propongo una prueba directa:
14:13
Let us attemptintento
306
838000
2000
tratemos
14:15
to readleer out memoriesrecuerdos from connectomesconectomas.
307
840000
3000
de leer recuerdos de los conectomas.
14:18
ConsiderConsiderar the memorymemoria
308
843000
2000
Piensen en la memoria
14:20
of long temporaltemporal sequencessecuencias of movementsmovimientos,
309
845000
3000
de largas secuencias temporales de movimientos
14:23
like a pianistpianista playingjugando a BeethovenBeethoven sonatasonata.
310
848000
3000
como las de un pianista que toca una sonata de Beethoven.
14:26
AccordingConforme to a theoryteoría that datesfechas back to the 19thth centurysiglo,
311
851000
3000
Según la teoría que data del siglo XIX
14:29
suchtal memoriesrecuerdos are storedalmacenado
312
854000
2000
tales recuerdos están almacenados
14:31
as chainscadenas of synapticsináptico connectionsconexiones insidedentro your braincerebro.
313
856000
3000
como cadenas de conexiones sinápticas en el cerebro.
14:35
Because, if the first neuronsneuronas in the chaincadena are activatedactivado,
314
860000
3000
Porque si se activan las primeras neuronas de la cadena
14:38
throughmediante theirsu synapsessinapsis they sendenviar messagesmensajes to the secondsegundo neuronsneuronas, whichcual are activatedactivado,
315
863000
3000
mediante sus sinapsis envían mensajes a las otras neuronas, que se activan,
14:41
and so on down the linelínea,
316
866000
2000
y así sucesivamente
14:43
like a chaincadena of fallingque cae dominoesdominós.
317
868000
2000
siguiendo un efecto dominó.
14:45
And this sequencesecuencia of neuralneural activationactivación
318
870000
2000
Y esta secuencia de activación neuronal
14:47
is hypothesizedhipotetizado to be the neuralneural basisbase
319
872000
3000
se presume que es la base neuronal
14:50
of those sequencesecuencia of movementsmovimientos.
320
875000
2000
de esa secuencia de movimientos.
14:52
So one way of tryingmolesto to testprueba the theoryteoría
321
877000
2000
Así que una manera de tratar de probar la teoría
14:54
is to look for suchtal chainscadenas
322
879000
2000
es buscar esas cadenas
14:56
insidedentro connectomesconectomas.
323
881000
2000
dentro de los conectomas.
14:58
But it won'tcostumbre be easyfácil, because they're not going to look like this.
324
883000
3000
Pero no va a ser fácil porque no van a tener este aspecto.
15:01
They're going to be scrambledrevuelto up.
325
886000
2000
Van a estar cifradas.
15:03
So we'llbien have to use our computersordenadores
326
888000
2000
Tendremos que usar nuestras computadoras
15:05
to try to unscrambledescifrar the chaincadena.
327
890000
3000
para tratar de descifrar la cadena.
15:08
And if we can do that,
328
893000
2000
Y si podemos hacer eso
15:10
the sequencesecuencia of the neuronsneuronas we recoverrecuperar from that unscramblingdescifrado
329
895000
3000
la secuencia de neuronas que recuperemos al descifrar [la cadena]
15:13
will be a predictionpredicción of the patternpatrón of neuralneural activityactividad
330
898000
3000
será una predicción del patrón de actividad neuronal
15:16
that is replayedreproducido in the braincerebro duringdurante memorymemoria recallrecordar.
331
901000
3000
que se reproduce en el cerebro en la recuperación de memoria.
15:19
And if that were successfulexitoso,
332
904000
2000
Y si eso funcionara
15:21
that would be the first exampleejemplo of readingleyendo a memorymemoria from a connectomeconnectome.
333
906000
3000
sería el primer ejemplo de lectura de memoria de un conectoma.
15:28
(LaughterRisa)
334
913000
2000
(Risas)
15:30
What a messlío --
335
915000
2000
¡Qué lío!
15:33
have you ever triedintentó to wirecable up a systemsistema
336
918000
2000
¿Alguna vez han tratado de conectar un sistema
15:35
as complexcomplejo as this?
337
920000
2000
tan complejo como ese?
15:37
I hopeesperanza not.
338
922000
2000
Espero que no.
15:39
But if you have, you know it's very easyfácil to make a mistakeError.
339
924000
3000
Pero si lo han hecho sabrán que es muy fácil cometer un error.
15:45
The branchesramas of neuronsneuronas are like the wiresalambres of the braincerebro.
340
930000
2000
Las ramas neuronales son como los cables del cerebro.
15:47
Can anyonenadie guessadivinar: what's the totaltotal lengthlongitud of wiresalambres in your braincerebro?
341
932000
4000
¿Alguien puede adivinar cuál es la longitud total de cables del cerebro?
15:54
I'll give you a hintinsinuación. It's a biggrande numbernúmero.
342
939000
2000
Les daré una pista. Es un número grande.
15:56
(LaughterRisa)
343
941000
2000
(Risas)
15:59
I estimateestimar, millionsmillones of milesmillas,
344
944000
3000
Estimo millones de kilómetros.
16:02
all packedlleno in your skullcráneo.
345
947000
3000
Todo dentro del cráneo.
16:05
And if you appreciateapreciar that numbernúmero,
346
950000
2000
Y si uno entiende ese número
16:07
you can easilyfácilmente see
347
952000
2000
puede ver fácilmente que
16:09
there is hugeenorme potentialpotencial for mis-wiringcableado incorrecto of the braincerebro.
348
954000
2000
hay un enorme potencial de un mal cableado cerebral.
16:11
And indeeden efecto, the popularpopular pressprensa lovesama headlinestitulares like,
349
956000
3000
De hecho a la prensa popular le encantan los titulares como:
16:14
"AnorexicAnoréxico brainssesos are wiredcableado differentlydiferentemente,"
350
959000
2000
"Los cerebros anoréxicos tienen un cableado diferente",
16:16
or "AutisticAutista brainssesos are wiredcableado differentlydiferentemente."
351
961000
2000
o "Los cerebros autistas tienen un cableado diferente".
16:18
These are plausibleplausible claimsreclamaciones,
352
963000
2000
Estas son afirmaciones plausibles,
16:20
but in truthverdad,
353
965000
2000
pero en verdad,
16:22
we can't see the brain'ssesos wiringalambrado clearlyclaramente enoughsuficiente
354
967000
2000
no podemos ver el cableado cerebral tan claramente
16:24
to tell if these are really truecierto.
355
969000
2000
como para saber si son realmente ciertas.
16:26
And so the technologiestecnologías for seeingviendo connectomesconectomas
356
971000
3000
Las tecnologías de visualización de conectomas
16:29
will allowpermitir us to finallyfinalmente
357
974000
2000
nos permitirán finalmente
16:31
readleer mis-wiringcableado incorrecto of the braincerebro,
358
976000
2000
leer el mal cableado del cerebro
16:33
to see mentalmental disorderstrastornos in connectomesconectomas.
359
978000
3000
para ver desórdenes mentales en los conectomas.
16:40
SometimesA veces the bestmejor way to testprueba a hypothesishipótesis
360
985000
3000
A veces la mejor manera de probar una hipótesis
16:43
is to considerconsiderar its mostmás extremeextremo implicationimplicación.
361
988000
3000
es considerar sus consecuencias más extremas.
16:46
PhilosophersFilósofos know this gamejuego very well.
362
991000
3000
Los filósofos conocen muy bien este juego.
16:50
If you believe that I am my connectomeconnectome,
363
995000
3000
Si uno cree que soy mi conectoma
16:53
I think you mustdebe alsoademás acceptaceptar the ideaidea
364
998000
3000
tiene también que aceptar la idea
16:56
that deathmuerte is the destructiondestrucción
365
1001000
2000
de que la muerte es la destrucción
16:58
of your connectomeconnectome.
366
1003000
3000
del conectoma.
17:02
I mentionmencionar this because there are prophetsprofetas todayhoy
367
1007000
3000
Menciono esto porque hay profetas hoy en día
17:05
who claimReclamación that technologytecnología
368
1010000
3000
que afirman que la tecnología
17:08
will fundamentallyfundamentalmente alteralterar the humanhumano conditioncondición
369
1013000
3000
alterará fundamentalmente la condición humana
17:11
and perhapsquizás even transformtransformar the humanhumano speciesespecies.
370
1016000
3000
y tal vez incluso transforme la especie humana.
17:14
One of theirsu mostmás cherishedquerido dreamsSueños
371
1019000
3000
Uno de sus sueños más preciados
17:17
is to cheatengañar deathmuerte
372
1022000
2000
es engañar a la muerte
17:19
by that practicepráctica knownconocido as cryonicscriónica.
373
1024000
2000
mediante la práctica de la criogenia.
17:21
If you paypaga 100,000 dollarsdólares,
374
1026000
2000
Si uno paga 100.000 dólares
17:23
you can arrangeorganizar to have your bodycuerpo frozencongelado after deathmuerte
375
1028000
3000
puede arreglar para que congelen el cuerpo después de muerto
17:26
and storedalmacenado in liquidlíquido nitrogennitrógeno
376
1031000
2000
y lo almacenen en nitrógeno líquido
17:28
in one of these tankstanques in an ArizonaArizona warehousealmacén,
377
1033000
2000
en uno de estos tanques en un depósito de Arizona,
17:30
awaitingesperando a futurefuturo civilizationcivilización
378
1035000
2000
a la espera de una futura civilización
17:32
that is advancedavanzado to resurrectresucitar you.
379
1037000
3000
avanzada que lo resucite.
17:36
Should we ridiculeridículo the modernmoderno seekersbuscadores of immortalityinmortalidad,
380
1041000
2000
¿Debemos ridiculizar a los buscadores modernos de la inmortalidad
17:38
callingvocación them foolstontos?
381
1043000
2000
llamándolos locos?
17:40
Or will they somedayalgún día chucklerisita
382
1045000
2000
¿O algún día se reirán
17:42
over our gravestumbas?
383
1047000
2000
sobre nuestras tumbas?
17:45
I don't know --
384
1050000
2000
No lo sé.
17:47
I preferpreferir to testprueba theirsu beliefscreencias, scientificallycientíficamente.
385
1052000
3000
Yo prefiero poner a prueba sus creencias, científicamente.
17:50
I proposeproponer that we attemptintento to find a connectomeconnectome
386
1055000
2000
Propongo que tratemos de encontrar un conectoma
17:52
of a frozencongelado braincerebro.
387
1057000
2000
en un cerebro congelado.
17:54
We know that damagedañar to the braincerebro
388
1059000
2000
Sabemos que se produce un daño cerebral
17:56
occursocurre after deathmuerte and duringdurante freezingcongelación.
389
1061000
2000
después de la muerte y durante el congelamiento.
17:58
The questionpregunta is: has that damagedañar erasedborrado the connectomeconnectome?
390
1063000
3000
La pregunta es: ¿elimina ese daño al conectoma?
18:01
If it has, there is no way that any futurefuturo civilizationcivilización
391
1066000
3000
Si lo hace, no hay manera de que una civilización futura
18:04
will be ablepoder to recoverrecuperar the memoriesrecuerdos of these frozencongelado brainssesos.
392
1069000
3000
sea capaz de recuperar los recuerdos de esos cerebros congelados.
18:07
ResurrectionResurrección mightpodría succeedtener éxito for the bodycuerpo,
393
1072000
2000
Podrían resucitar el cuerpo con éxito
18:09
but not for the mindmente.
394
1074000
2000
pero no la mente.
18:11
On the other handmano, if the connectomeconnectome is still intactintacto,
395
1076000
3000
Por otro lado, si el conectoma todavía está intacto,
18:14
we cannotno poder ridiculeridículo the claimsreclamaciones of cryonicscriónica so easilyfácilmente.
396
1079000
3000
no se puede ridiculizar a la criogénesis tan fácilmente.
18:20
I've describeddescrito a questbúsqueda
397
1085000
2000
He descrito la búsqueda
18:22
that beginscomienza in the worldmundo of the very smallpequeña,
398
1087000
3000
que se inicia en el mundo de lo muy pequeño
18:25
and propelspropulsores us to the worldmundo of the farlejos futurefuturo.
399
1090000
3000
y nos impulsa hacia el mundo del futuro lejano.
18:28
ConnectomesConnectomes will markmarca a turningtorneado pointpunto in humanhumano historyhistoria.
400
1093000
3000
Los conectomas marcarán un punto de inflexión en la historia humana.
18:32
As we evolvedevolucionado from our ape-likesimiesco ancestorsantepasados
401
1097000
2000
A medida que evolucionamos de nuestros antepasados simiescos
18:34
on the Africanafricano savannasabana,
402
1099000
2000
en la sabana africana
18:36
what distinguisheddistinguido us was our largermás grande brainssesos.
403
1101000
3000
lo que nos distinguió fue el cerebro más grande.
18:40
We have used our brainssesos to fashionModa
404
1105000
2000
Hemos usado el cerebro para elaborar
18:42
ever more amazingasombroso technologiestecnologías.
405
1107000
3000
tecnologías cada vez más asombrosas.
18:45
EventuallyFinalmente, these technologiestecnologías will becomevolverse so powerfulpoderoso
406
1110000
3000
Con el tiempo estas tecnologías se volverán tan poderosas
18:48
that we will use them to know ourselvesNosotros mismos
407
1113000
3000
que las usaremos para conocernos a nosotros mismos
18:51
by deconstructingdeconstruyendo and reconstructingreconstruyendo
408
1116000
3000
desarmando y reconstruyendo
18:54
our ownpropio brainssesos.
409
1119000
3000
nuestros propios cerebros.
18:57
I believe that this voyageviaje of self-discoveryautodescubrimiento
410
1122000
3000
Creo que ese viaje de auto-descubrimiento
19:00
is not just for scientistscientíficos,
411
1125000
3000
no sólo es para los científicos
19:03
but for all of us.
412
1128000
2000
sino para todos nosotros.
19:05
And I'm gratefulagradecido for the opportunityoportunidad to sharecompartir this voyageviaje with you todayhoy.
413
1130000
3000
Y estoy agradecido por la oportunidad de compartir este viaje hoy con ustedes.
19:08
Thank you.
414
1133000
2000
Gracias.
19:10
(ApplauseAplausos)
415
1135000
8000
(Aplausos)
Translated by Sebastian Betti
Reviewed by carmen weitzel

▲Back to top

ABOUT THE SPEAKER
Sebastian Seung - Computational neuroscientist
Sebastian Seung is a leader in the new field of connectomics, currently the hottest space in neuroscience, which studies, in once-impossible detail, the wiring of the brain.

Why you should listen

In the brain, neurons are connected into a complex network. Sebastian Seung and his lab at MIT are inventing technologies for identifying and describing the connectome, the totality of connections between the brain's neurons -- think of it as the wiring diagram of the brain. We possess our entire genome at birth, but things like memories are not "stored" in the genome; they are acquired through life and accumulated in the brain. Seung's hypothesis is that "we are our connectome," that the connections among neurons is where memories and experiences get stored.

Seung and his collaborators, including Winfried Denk at the Max Planck Institute and Jeff Lichtman at Harvard University, are working on a plan to thin-slice a brain (probably starting with a mouse brain) and trace, from slice to slice, each neural pathway, exposing the wiring diagram of the brain and creating a powerful new way to visualize the workings of the mind. They're not the first to attempt something like this -- Sydney Brenner won a Nobel for mapping all the 7,000 connections in the nervous system of a tiny worm, C. elegans. But that took his team a dozen years, and the worm only had 302 nerve cells. One of Seung's breakthroughs is in using advanced imagining and AI to handle the crushing amount of data that a mouse brain will yield and turn it into richly visual maps that show the passageways of thought and sensation.

More profile about the speaker
Sebastian Seung | Speaker | TED.com