ABOUT THE SPEAKER
Sam Rodriques - Neuroengineer
Sam Rodriques invents new technologies to help neuroscientists understand how the brain works.

Why you should listen

Sam Rodriques has designed a new nanofabrication method and a new approach to sensing neural activity with probes in the bloodstream, and his forthcoming technologies are aimed at understanding the spatial organization of cells in the brain and the transcriptional activity of neurons over time. He is a graduate student in Physics at the Massachusetts Institute of Technology, with affiliations at the MIT Media Lab, the MIT Department of Brain and Cognitive Sciences and the Broad Institute of Harvard and MIT. He graduated summa cum laude with highest honors in Physics from Haverford College, where he worked on new methods for calculating quantum entanglement in multipartite quantum systems. He has received numerous national awards and fellowships to support his research, including the Hertz Foundation Graduate Fellowship, an NSF Graduate Research Fellowship and a Churchill Scholarship.

More profile about the speaker
Sam Rodriques | Speaker | TED.com
TEDxBeaconStreet

Sam Rodriques: What we'll learn about the brain in the next century

Sam Rodriques: Lo que aprenderemos sobre el cerebro en el próximo siglo

Filmed:
1,621,715 views

En esta imaginativa charla , el neuroingeniero Sam Rodriques nos lleva a un emocionante viaje hacia los próximos 100 años en la ciencia del cerebro. Visualiza innovaciones extrañas (y a veces aterradoras) que pueden ser la clave para comprender y tratar enfermedades cerebrales, como rayos láser que hacen pequeñas perforaciones en el cráneo y permiten que unas sondas estudien la actividad eléctrica de las neuronas.
- Neuroengineer
Sam Rodriques invents new technologies to help neuroscientists understand how the brain works. Full bio

Double-click the English transcript below to play the video.

00:13
I want to tell you guys
something about neuroscienceneurociencia.
0
1040
2507
Quiero contarles algo
sobre la neurociencia.
00:16
I'm a physicistfísico by trainingformación.
1
4040
1800
Soy médico de formación.
00:18
About threeTres yearsaños agohace, I left physicsfísica
2
6230
2206
Hace unos tres años, abandoné la Física
00:20
to come and try to understandentender
how the braincerebro workstrabajos.
3
8460
2349
para intentar entender
cómo funciona el cerebro.
00:22
And this is what I foundencontró.
4
10833
1474
Y descubrí
que hay muchos estudios sobre la depresión.
00:24
Lots of people are workingtrabajando on depressiondepresión.
5
12331
2064
00:26
And that's really good,
6
14419
1159
Y eso es muy bueno.
00:27
depressiondepresión is something
that we really want to understandentender.
7
15602
2721
La depresión es algo que en verdad
queremos comprender.
00:30
Here'sAquí está how you do it:
8
18347
1167
Se hace así:
Tomamos un frasco y lo llenamos
con agua hasta la mitad.
00:31
you take a jartarro and you fillllenar it up,
about halfwayMedio camino, with wateragua.
9
19538
4161
00:35
And then you take a mouseratón,
and you put the mouseratón in the jartarro, OK?
10
23723
4182
Después, tomamos un ratón
y colocamos el ratón en el frasco.
00:39
And the mouseratón swimsnada around
for a little while
11
27929
2350
El ratón nada un tiempo
00:42
and then at some pointpunto,
the mouseratón getsse pone tiredcansado
12
30303
2388
y luego, en cierto momento, se cansa
00:44
and decidesdecide to stop swimmingnadando.
13
32715
1934
y decide dejar de nadar.
00:46
And when it stopsparadas swimmingnadando,
that's depressiondepresión.
14
34673
3133
Cuando deja de nadar, eso es depresión.
[Hoy no quiero nadar]
00:50
OK?
15
38696
1150
00:52
And I'm from theoreticalteórico physicsfísica,
16
40291
3380
Vengo de la física teórica,
00:55
so I'm used to people makingfabricación
very sophisticatedsofisticado mathematicalmatemático modelsmodelos
17
43695
3668
así que estoy acostumbrado a hacer
modelos matemáticos muy sofisticados
00:59
to preciselyprecisamente describedescribir physicalfísico phenomenafenómenos,
18
47387
2881
para describir con precisión
los fenómenos físicos.
Por eso, cuando vi que este
es el modelo de la depresión,
01:02
so when I saw that this
is the modelmodelo for depressiondepresión,
19
50292
2452
01:04
I thoughaunque to myselfmí mismo, "Oh my God,
we have a lot of work to do."
20
52768
2937
pensé: "Dios mío, tenemos
mucho trabajo por delante".
01:07
(LaughterRisa)
21
55729
1370
(Risas)
01:09
But this is a kindtipo of generalgeneral
problemproblema in neuroscienceneurociencia.
22
57123
2951
Pero este es un problema
general en la neurociencia.
01:12
So for exampleejemplo, take emotionemoción.
23
60377
2111
Por ejemplo, piensen en las emociones.
01:14
Lots of people want to understandentender emotionemoción.
24
62512
2459
Mucha gente quiere
comprender las emociones.
01:17
But you can't studyestudiar emotionemoción
in miceratones or monkeysmonos
25
65352
3313
Pero no podemos estudiar
las emociones en ratones o monos.
01:20
because you can't askpedir them
26
68689
1254
No podemos preguntarles
cómo se sienten o qué sienten.
01:21
how they're feelingsensación
or what they're experiencingexperimentar.
27
69967
2317
En cambio, quienes quieren
comprender las emociones
01:24
So insteaden lugar, people who want
to understandentender emotionemoción,
28
72308
2357
01:26
typicallytípicamente endfin up studyingestudiando
what's calledllamado motivatedmotivado behaviorcomportamiento,
29
74689
2777
por lo general terminan estudiando
el comportamiento motivado,
01:29
whichcual is codecódigo for "what the mouseratón does
when it really, really wants cheesequeso."
30
77490
3658
que significa "¿qué hace el ratón
cuando se desespera por el queso?"
01:33
OK, I could go on and on.
31
81839
1675
Bien, podría seguir y seguir.
01:35
I mean, the pointpunto is, the NIHNIH
spendsgasta about 5.5 billionmil millones dollarsdólares a yearaño
32
83538
6316
Es decir, el Instituto de Salud de EE.UU.
gasta unos USD 5500 millones al año
01:41
on neuroscienceneurociencia researchinvestigación.
33
89878
1532
en investigación en neurociencias.
01:43
And yettodavía there have been almostcasi
no significantsignificativo improvementsmejoras in outcomesresultados
34
91434
3603
Pero no ha habido casi ningún progreso
significativo en los resultados
01:47
for patientspacientes with braincerebro diseasesenfermedades
in the pastpasado 40 yearsaños.
35
95061
3491
para pacientes con enfermedades
cerebrales en los últimos 40 años.
Pienso que esto se debe, en gran parte,
01:51
And I think a lot of that
is basicallybásicamente duedebido to the facthecho
36
99015
2540
01:53
that miceratones mightpodría be OK as a modelmodelo
for cancercáncer or diabetesdiabetes,
37
101579
4151
a que el ratón puede servir como modelo
para el cáncer o la diabetes,
01:57
but the mouseratón braincerebro
is just not sophisticatedsofisticado enoughsuficiente
38
105754
2687
pero el cerebro del ratón
no es suficientemente sofisticado
02:00
to reproducereproducir humanhumano psychologypsicología
or humanhumano braincerebro diseaseenfermedad.
39
108465
3175
para reproducir la psicología humana
o la enfermedad cerebral humana.
02:04
OK?
40
112379
1225
¿Sí?
02:05
So if the mouseratón modelsmodelos are so badmalo,
why are we still usingutilizando them?
41
113628
3634
Si los modelos con ratones son tan malos,
¿por qué los seguimos usando?
02:10
Well, it basicallybásicamente boilshierve down to this:
42
118143
2103
Básicamente, por esto:
02:12
the braincerebro is madehecho up of neuronsneuronas
43
120270
2556
el cerebro está formado por neuronas,
02:14
whichcual are these little cellsCélulas that sendenviar
electricaleléctrico signalsseñales to eachcada other.
44
122850
3447
que son estas celulitas que se envían
señales eléctricas entre sí.
Si queremos comprender
cómo funciona el cerebro,
02:18
If you want to understandentender
how the braincerebro workstrabajos,
45
126680
2144
02:20
you have to be ablepoder to measuremedida
the electricaleléctrico activityactividad of these neuronsneuronas.
46
128848
3808
debemos poder medir la actividad
eléctrica de estas neuronas.
02:25
But to do that, you have to get
really closecerca to the neuronsneuronas
47
133339
2992
Pero, para eso, tenemos que llegar
muy cerca de las neuronas
02:28
with some kindtipo of electricaleléctrico
recordinggrabación devicedispositivo or a microscopemicroscopio.
48
136355
2928
con algún aparato de registro
eléctrico o con un microscopio.
02:31
And so you can do that in miceratones
and you can do it in monkeysmonos,
49
139563
2810
Podemos hacerlo en ratones
y podemos hacerlo en monos,
02:34
because you can physicallyfísicamente
put things into theirsu braincerebro
50
142397
2548
porque podemos ponerles algo en el cerebro
02:36
but for some reasonrazón we still
can't do that in humanshumanos, OK?
51
144969
3046
pero todavía no podemos hacerlo
en personas, ¿sí?
02:40
So insteaden lugar, we'venosotros tenemos inventedinventado
all these proxiesproxies.
52
148533
3370
Por eso inventamos estos sustitutos.
02:43
So the mostmás popularpopular one is probablyprobablemente this,
53
151927
2515
El más conocido quizá sea este,
02:46
functionalfuncional MRIMRI, fMRIfMRI,
54
154466
2397
la resonancia magnética funcional, o RMNf,
02:48
whichcual allowspermite you to make these
prettybonita picturesimágenes like this,
55
156887
2692
que nos permite obtener imágenes como esta
donde vemos las partes
del cerebro que se iluminan
02:51
that showespectáculo whichcual partspartes
of your braincerebro lightligero up
56
159603
2056
02:53
when you're engagedcomprometido
in differentdiferente activitiesocupaciones.
57
161683
2126
al realizar diferentes actividades.
02:55
But this is a proxyapoderado.
58
163833
1920
Pero esto es un sustituto.
02:57
You're not actuallyactualmente measuringmedición
neuralneural activityactividad here.
59
165777
3292
No estamos midiendo
la actividad de las neuronas.
03:01
What you're doing
is you're measuringmedición, essentiallyesencialmente,
60
169093
2842
En esencia, estamos midiendo
03:03
like, bloodsangre flowfluir in the braincerebro.
61
171959
1832
el flujo de la sangre en el cerebro,
03:05
Where there's more bloodsangre.
62
173815
1238
dónde hay más sangre.
03:07
It's actuallyactualmente where there's more oxygenoxígeno,
but you get the ideaidea, OK?
63
175077
3103
O mejor dicho, dónde hay
más oxígeno, pero está claro, ¿no?
También podemos hacer otra cosa:
03:10
The other thing that you can do
is you can do this --
64
178204
2519
un electroencefalograma; ponemos
estos electrodos en la cabeza.
03:12
electroencephalographyelectroencefalografía -- you can put
these electrodeselectrodos on your headcabeza, OK?
65
180747
3591
03:16
And then you can measuremedida your braincerebro wavesolas.
66
184362
2143
Así, podemos medir las ondas cerebrales.
03:19
And here, you're actuallyactualmente measuringmedición
electricaleléctrico activityactividad.
67
187125
3079
Aquí, estamos midiendo
la actividad eléctrica,
03:22
But you're not measuringmedición
the activityactividad of neuronsneuronas.
68
190228
2365
pero no estamos midiendo
la actividad de las neuronas.
03:24
You're measuringmedición
these electricaleléctrico currentscorrientes,
69
192911
2444
Estamos midiendo
estas corrientes eléctricas,
03:27
sloshingchapoteo back and forthadelante in your braincerebro.
70
195379
2299
que recorren el cerebro de un lado a otro.
03:30
So the pointpunto is just
that these technologiestecnologías that we have
71
198157
2674
La cuestión es que estas tecnologías
03:32
are really measuringmedición the wrongincorrecto thing.
72
200855
2436
están midiendo algo equivocado.
03:35
Because, for mostmás of the diseasesenfermedades
that we want to understandentender --
73
203315
2953
Para la mayoría de las enfermedades
que queremos comprender,
03:38
like, Parkinson'sParkinson is the classicclásico exampleejemplo.
74
206292
2198
--y el ejemplo clásico es el Parkinson,
03:40
In Parkinson'sParkinson, there's one particularespecial
kindtipo of neuronneurona deepprofundo in your braincerebro
75
208514
3554
donde hay un tipo especial
de neurona en lo profundo del cerebro,
03:44
that is responsibleresponsable for the diseaseenfermedad,
76
212092
1731
que es responsable de esta enfermedad--
03:45
and these technologiestecnologías just don't have
the resolutionresolución that you need
77
213847
3182
estas tecnologías no tienen
la resolución necesaria
03:49
to get at that.
78
217053
1373
para llegar allí.
03:50
And so that's why
we're still stuckatascado with the animalsanimales.
79
218450
3974
Es por eso que todavía
nos aferramos a los animales.
03:54
Not that anyonenadie wants
to be studyingestudiando depressiondepresión
80
222448
2533
No es que queramos estudiar la depresión
03:57
by puttingponiendo miceratones into jarspaso, right?
81
225005
2262
colocando ratones en frascos, ¿sí?
03:59
It's just that there's this pervasivepenetrante
sensesentido that it's not possibleposible
82
227291
3753
Es solo que persiste esa idea
generalizada de que no es posible
04:03
to look at the activityactividad of neuronsneuronas
in healthysaludable humanshumanos.
83
231068
3847
observar la actividad neuronal
en personas sanas.
04:08
So here'saquí está what I want to do.
84
236180
1492
Por eso yo quiero
04:09
I want to take you into the futurefuturo.
85
237974
2521
llevarlos al futuro,
04:12
To have a look at one way in whichcual
I think it could potentiallypotencialmente be possibleposible.
86
240519
4482
para ver una manera
en que esto podría ser factible.
04:17
And I want to prefacePrefacio this by sayingdiciendo,
I don't have all the detailsdetalles.
87
245526
3298
Pero, primero, quiero decir
que no tengo todos los detalles.
04:21
So I'm just going to provideproporcionar you
with a kindtipo of outlinecontorno.
88
249272
2967
Por ende, haré una especie de bosquejo.
04:24
But we're going to go the yearaño 2100.
89
252263
2400
Vayamos al año 2100.
04:27
Now what does the yearaño 2100 look like?
90
255732
2299
¿Cómo será el año 2100?
04:30
Well, to startcomienzo with, the climateclima
is a bitpoco warmermás cálido that what you're used to.
91
258055
3518
Para empezar, el clima
es un poco más cálido que antes.
(Risas)
04:33
(LaughterRisa)
92
261597
3583
04:37
And that roboticrobótico vacuumvacío cleanerlimpiador
that you know and love
93
265204
4952
Esa aspiradora robótica
que conocemos y adoramos
ha recorrido algunas generaciones
04:42
wentfuimos throughmediante a fewpocos generationsgeneraciones,
94
270180
1514
04:43
and the improvementsmejoras
were not always so good.
95
271718
2843
y los avances no siempre fueron buenos.
04:46
(LaughterRisa)
96
274585
1595
(Risas)
04:48
It was not always for the better.
97
276530
2310
No siempre fueron los mejores.
04:52
But actuallyactualmente, in the yearaño 2100
mostmás things are surprisinglyasombrosamente recognizablereconocible.
98
280221
4538
Pero en el 2100, la mayoría de las cosas
son sorprendentemente reconocibles.
04:57
It's just the braincerebro is totallytotalmente differentdiferente.
99
285458
2734
Solo que el cerebro
es completamente distinto.
05:00
For exampleejemplo, in the yearaño 2100,
100
288740
2547
Por ejemplo, en el año 2100,
05:03
we understandentender the rootraíz causescausas
of Alzheimer'sAlzheimer.
101
291311
2857
se conoce la causa del Alzheimer.
05:06
So we can deliverentregar targetedapuntado
geneticgenético therapiesterapias or drugsdrogas
102
294192
3714
Por eso, podemos suministrar
terapias genéticas o drogas dirigidas
05:09
to stop the degenerativedegenerativo processproceso
before it beginscomienza.
103
297930
2876
para impedir el proceso degenerativo,
antes de que comience.
05:13
So how did we do it?
104
301629
1333
¿Cómo lo hicimos?
05:15
Well, there were essentiallyesencialmente threeTres stepspasos.
105
303898
2238
Hubo, esencialmente, tres pasos.
05:18
The first steppaso was
that we had to figurefigura out
106
306589
2814
El primer paso fue descubrir
05:21
some way to get electricaleléctrico
connectionsconexiones throughmediante the skullcráneo
107
309427
3293
una forma de ver las conexiones
eléctricas a través del cráneo
05:24
so we could measuremedida
the electricaleléctrico activityactividad of neuronsneuronas.
108
312744
3015
para poder medir la actividad
eléctrica de las neuronas.
05:28
And not only that,
it had to be easyfácil and risk-freeSin riesgo.
109
316339
4349
Además, tenía que ser fácil y sin riesgos.
05:32
Something that basicallybásicamente anyonenadie
would be OK with,
110
320712
2378
Algo que cualquiera pudiera
hacerse, como un "piercing".
05:35
like gettingconsiguiendo a piercingperforación.
111
323114
1600
05:37
Because back in 2017,
112
325156
2747
Porque, en 2017,
05:39
the only way that we knewsabía of
to get throughmediante the skullcráneo
113
327927
2913
la única forma que conocíamos
de atravesar el cráneo
05:42
was to drillperforar these holesagujeros
the sizetamaño of quarterscuarteles.
114
330864
2817
era haciendo perforaciones
del tamaño de una moneda.
05:46
You would never let
someonealguien do that to you.
115
334015
2039
Nadie permitiría que le hicieran algo así.
05:48
So in the 2020s,
116
336967
2253
Por eso, en la década de 2020,
05:51
people beganempezó to experimentexperimentar --
rathermás bien than drillingperforación these giganticgigantesco holesagujeros,
117
339244
3381
empezamos a hacer, en lugar
de esas grandes perforaciones,
05:54
drillingperforación microscopicmicroscópico holesagujeros,
no thickermás grueso than a piecepieza of haircabello.
118
342649
3115
otras microscópicas,
del tamaño de un cabello.
05:58
And the ideaidea here
was really for diagnosisdiagnóstico --
119
346735
2096
La idea era hacerlo para diagnóstico;
06:00
there are lots of timesveces in the diagnosisdiagnóstico
of braincerebro disorderstrastornos
120
348855
2786
muchas veces, en el diagnóstico
de enfermedades cerebrales,
06:03
when you would like to be ablepoder to look
at the neuralneural activityactividad beneathdebajo the skullcráneo
121
351665
4872
nos gustaría observar la actividad
neuronal que hay debajo del cráneo
06:08
and beingsiendo ablepoder to drillperforar
these microscopicmicroscópico holesagujeros
122
356561
3191
y, si pudiéramos hacer
estos agujeros microscópicos,
06:11
would make that much easiermás fácil
for the patientpaciente.
123
359776
2142
sería mucho más fácil para el paciente.
06:13
In the endfin, it would be
like gettingconsiguiendo a shotDisparo.
124
361942
2349
Al final, sería como recibir una inyección.
06:16
You just go in and you sitsentar down
125
364315
1580
Uno entra, se sienta,
06:17
and there's a thing
that comesproviene down on your headcabeza,
126
365919
2301
algo se apoya sobre la cabeza,
un pinchazo momentáneo, y es todo.
06:20
and a momentarymomentáneo stingpicadura and then it's donehecho,
127
368244
1953
06:22
and you can go back about your day.
128
370221
1864
Uno sigue con su vida normal.
06:24
So we're eventuallyfinalmente ablepoder to do it
129
372736
4793
Con el tiempo, podríamos hacerlo,
06:29
usingutilizando lasersláser to drillperforar the holesagujeros.
130
377553
2667
con láseres para hacer las perforaciones.
06:32
And with the lasersláser,
it was fastrápido and extremelyextremadamente reliablede confianza,
131
380244
2620
Con láser sería rápido
y extremadamente fiable.
06:34
you couldn'tno pudo even tell
the holesagujeros were there,
132
382888
2213
Ni notaríamos los agujeros,
06:37
any more than you could tell
that one of your hairspelos was missingdesaparecido.
133
385125
3000
así como no notamos
la falta de un cabello.
06:40
And I know it mightpodría soundsonar crazyloca,
usingutilizando lasersláser to drillperforar holesagujeros in your skullcráneo,
134
388753
4738
Sé que puede parecer una locura
usar láseres para perforar el cráneo,
06:45
but back in 2017,
135
393515
1366
pero en 2017
06:46
people were OK with surgeonscirujanos
shootingdisparo lasersláser into theirsu eyesojos
136
394905
4109
aceptábamos que los cirujanos
usaran láser en los ojos
06:51
for correctivecorrectivo surgerycirugía
137
399038
1214
en cirugía correctiva.
06:52
So when you're alreadyya here,
it's not that biggrande of a steppaso.
138
400276
3887
Por lo tanto, si ya llegamos ahí,
ese paso no es tan grande.
06:57
OK?
139
405561
1151
¿Bien?
06:58
So the nextsiguiente steppaso,
that happenedsucedió in the 2030s,
140
406736
3571
El paso siguiente, que se produjo
en la década de 2030,
07:02
was that it's not just about
gettingconsiguiendo throughmediante the skullcráneo.
141
410331
3086
fue que no alcanzaba
con atravesar el cráneo.
07:05
To measuremedida the activityactividad of neuronsneuronas,
142
413441
1700
Para medir la actividad de las neuronas,
07:07
you have to actuallyactualmente make it
into the braincerebro tissuetejido itselfsí mismo.
143
415165
3825
debemos atravesar el tejido del cerebro.
Siempre que colocamos algo
en el tejido cerebral,
07:11
And the riskriesgo, whenevercuando
you put something into the braincerebro tissuetejido,
144
419344
2968
el riesgo es esencialmente el de un ACV,
07:14
is essentiallyesencialmente that of strokecarrera.
145
422336
1439
07:15
That you would hitgolpear
a bloodsangre vesselbuque and burstráfaga it,
146
423799
2196
de tocar un vaso sanguíneo y reventarlo,
y que eso provoque un ACV.
07:18
and that causescausas a strokecarrera.
147
426019
1519
07:19
So, by the midmedio 2030s,
we had inventedinventado these flexibleflexible probessondas
148
427916
3725
A mediados de la década de 2030,
inventamos estas sondas flexibles
07:23
that were capablecapaz of going
around bloodsangre vesselsrecipientes,
149
431665
2278
capaces de eludir los vasos sanguíneos,
07:25
rathermás bien than throughmediante them.
150
433967
1476
en lugar de atravesarlos.
07:27
And thusasí, we could put
hugeenorme batteriesbaterías of these probessondas
151
435467
5697
Así, podemos poner enormes
baterías de estas sondas
07:33
into the brainssesos of patientspacientes
152
441188
1357
en el cerebro de los pacientes
07:34
and recordgrabar from thousandsmiles of theirsu neuronsneuronas
withoutsin any riskriesgo to them.
153
442569
3270
y registrar miles de neuronas
sin ponerlas en riesgo.
07:39
And what we discovereddescubierto,
sortordenar of to our surprisesorpresa,
154
447458
4061
Descubrimos, para nuestra sorpresa,
07:43
is that the neuronsneuronas that we could identifyidentificar
155
451543
2190
que las neuronas que pudimos identificar
07:45
were not respondingrespondiendo
to things like ideasideas or emotionemoción,
156
453757
3524
no reaccionaban a ideas o emociones,
07:49
whichcual was what we had expectedesperado.
157
457305
1627
que era lo que esperábamos.
07:50
They were mostlyprincipalmente respondingrespondiendo
to things like JenniferJennifer AnistonAniston
158
458956
3796
Reaccionaban, sobre todo, a imágenes
como la de Jennifer Aniston
07:54
or HalleHalle BerryBaya
159
462776
2404
o Halle Berry
07:57
or JustinJustin TrudeauTrudeau.
160
465204
1310
o Justin Trudeau.
07:58
I mean --
161
466538
1253
Quiero decir...
07:59
(LaughterRisa)
162
467815
2326
(Risas)
En retrospectiva, no deberíamos
habernos sorprendido.
08:02
In hindsightcomprensión retrospectiva, we shouldn'tno debería
have been that surprisedsorprendido.
163
470165
2437
08:04
I mean, what do your neuronsneuronas
spendgastar mostmás of theirsu time thinkingpensando about?
164
472626
3262
Es decir, ¿en qué piensan las neuronas
la mayor parte del tiempo?
(Risas)
08:07
(LaughterRisa)
165
475912
1150
08:09
But really, the pointpunto is that
166
477380
2040
Pero la cuestión es que esta tecnología
08:11
this technologytecnología enabledhabilitado us to beginempezar
studyingestudiando neuroscienceneurociencia in individualsindividuos.
167
479444
4430
nos permitió empezar a estudiar
la neurociencia en personas.
08:15
So much like the transitiontransición to geneticsgenética,
at the singlesoltero cellcelda levelnivel,
168
483898
4230
Así como fue la transición del estudio
de la genética a nivel de la célula,
08:20
we startedempezado to studyestudiar neuroscienceneurociencia,
at the singlesoltero humanhumano levelnivel.
169
488152
3206
empezamos a estudiar la neurociencia
a nivel de la persona.
08:23
But we weren'tno fueron quitebastante there yettodavía.
170
491890
1618
Pero aún no habíamos llegado allí.
08:25
Because these technologiestecnologías
171
493895
1642
Porque estas tecnologías
08:27
were still restrictedrestringido
to medicalmédico applicationsaplicaciones,
172
495561
3056
aún estaban restringidas
a las aplicaciones médicas,
08:30
whichcual meantsignificado that we were studyingestudiando
sickenfermos brainssesos, not healthysaludable brainssesos.
173
498641
3391
es decir que estábamos estudiando
cerebros enfermos y no sanos.
08:35
Because no matterimportar how safeseguro
your technologytecnología is,
174
503235
3754
Porque, por más segura
que sea la tecnología,
08:39
you can't stickpalo something
into someone'sde alguien braincerebro
175
507013
2730
no podemos introducir nada
en el cerebro de una persona
a los fines de una investigación.
08:41
for researchinvestigación purposespropósitos.
176
509767
1420
08:43
They have to want it.
177
511211
1549
Es necesario que la persona quiera.
08:44
And why would they want it?
178
512784
1460
¿Y por qué habría de querer?
08:46
Because as soonpronto as you have
an electricaleléctrico connectionconexión to the braincerebro,
179
514268
3571
Porque, tan pronto como haya
una conexión eléctrica al cerebro,
08:49
you can use it to hookgancho
the braincerebro up to a computercomputadora.
180
517863
2444
podemos usarla para conectar
el cerebro a una computadora.
08:53
Oh, well, you know, the generalgeneral publicpúblico
was very skepticalescéptico at first.
181
521061
3429
Al principio, la gente era muy escéptica.
08:56
I mean, who wants to hookgancho
theirsu braincerebro up to theirsu computersordenadores?
182
524514
2869
O sea, ¿quién querría conectar
su cerebro a la computadora?
08:59
Well just imagineimagina beingsiendo ablepoder
to sendenviar an emailcorreo electrónico with a thought.
183
527926
4236
Solo imaginen poder enviar
un "email" con el pensamiento.
09:04
(LaughterRisa)
184
532186
2253
(Risas)
09:06
ImagineImagina beingsiendo ablepoder to take
a pictureimagen with your eyesojos, OK?
185
534463
4500
Solo imaginen poder tomar
una fotografía con los ojos.
09:10
(LaughterRisa)
186
538987
1230
(Risas)
09:12
ImagineImagina never forgettingolvidando anything anymorenunca más,
187
540241
2963
Imaginen nunca más olvidar nada,
09:15
because anything
that you chooseescoger to rememberrecuerda
188
543228
2159
porque todo lo que queremos recordar
09:17
will be storedalmacenado permanentlypermanentemente
on a harddifícil drivemanejar somewherealgun lado,
189
545411
2477
se almacenará para siempre
en algún lugar en un disco duro,
09:19
ablepoder to be recalledrecordado at will.
190
547912
2029
y podrá usarse cuando queramos.
09:21
(LaughterRisa)
191
549965
3366
(Risas)
09:25
The linelínea here
betweenEntre crazyloca and visionaryvisionario
192
553355
3381
La línea entre lo loco y lo visionario
09:28
was never quitebastante clearclaro.
193
556760
1467
nunca quedó muy clara.
09:30
But the systemssistemas were safeseguro.
194
558720
1857
Pero los sistemas eran seguros.
09:32
So when the FDAFDA decideddecidido to deregulatedesregular
these laser-drillingperforación con láser systemssistemas, in 2043,
195
560879
5016
Por eso, cuando la FDA decidió desregular
estas perforaciones en 2043,
09:37
commercialcomercial demanddemanda just explodedexplotó.
196
565919
2357
la demanda comercial se disparó.
09:40
People startedempezado signingfirma theirsu emailscorreos electrónicos,
197
568300
1888
La gente empezó a firmar los "emails":
09:42
"Please excuseexcusa any typoserrores tipográficos.
198
570212
1341
"Disculpa cualquier error.
09:43
SentExpedido from my braincerebro."
199
571577
1333
Enviado por mi cerebro".
09:44
(LaughterRisa)
200
572934
1001
(Risas)
09:45
CommercialComercial systemssistemas
poppedestallado up left and right,
201
573959
2072
Los sistemas comerciales se desvivían
09:48
offeringofrecimiento the latestúltimo and greatestmejor
in neuralneural interfacinginterfaz technologytecnología.
202
576055
3238
por ofrecer las últimas y mejores
tecnologías de interfaz neuronal.
09:51
There were 100 electrodeselectrodos.
203
579792
1753
Había 100 electrodos.
09:53
A thousandmil electrodeselectrodos.
204
581569
1911
Mil electrodos.
09:55
HighAlto bandwidthancho de banda for only 99.99 a monthmes.
205
583504
2476
Banda ancha solo por 99,99 al mes.
09:58
(LaughterRisa)
206
586004
1539
(Risas)
09:59
Soonpronto, everyonetodo el mundo had them.
207
587567
1534
En breve, todo el mundo los tuvo.
10:01
And that was the keyllave.
208
589694
1571
Eso fue fundamental,
10:03
Because, in the 2050s,
if you were a neuroscientistneurocientífico,
209
591289
2923
porque en la década de 2050,
un neurocientífico
10:06
you could have someonealguien come into your lablaboratorio
essentiallyesencialmente from off the streetcalle.
210
594236
3939
podía hacer que alguien viniera
al laboratorio desde la calle.
10:10
And you could have them engagedcomprometido
in some emotionalemocional tasktarea
211
598792
2864
Y podía involucrarlo
en cualquier tarea emotiva
10:13
or socialsocial behaviorcomportamiento or abstractabstracto reasoningrazonamiento,
212
601680
2437
o comportamiento social
o razonamiento abstracto,
10:16
things you could never studyestudiar in miceratones.
213
604141
2531
cosas que nunca podríamos
estudiar en ratones.
10:18
And you could recordgrabar
the activityactividad of theirsu neuronsneuronas
214
606696
3111
Y podía registrar
la actividad de sus neuronas,
10:21
usingutilizando the interfacesinterfaces
that they alreadyya had.
215
609831
3191
mediante las interfaces que ya tenían.
10:25
And then you could alsoademás askpedir them
about what they were experiencingexperimentar.
216
613046
3189
También le podía preguntar
qué estaba a punto de sentir.
Este vínculo entre
psicología y neurociencia
10:28
So this linkenlazar betweenEntre
psychologypsicología and neuroscienceneurociencia
217
616259
3349
10:31
that you could never make
in the animalsanimales, was suddenlyrepentinamente there.
218
619632
3381
que nunca se podría hacer
en animales, estaba allí.
10:35
So perhapsquizás the classicclásico exampleejemplo of this
219
623695
2184
Quizá el ejemplo clásico
10:37
was the discoverydescubrimiento
of the neuralneural basisbase for insightvisión.
220
625903
3523
fue el descubrimiento de la base
neuronal para la percepción.
10:41
That "AhaAjá!" momentmomento, the momentmomento
it all comesproviene togetherjuntos, it clicksclics.
221
629450
3600
Ese momento "¡aja!", el momento
en el que todo encaja, que hace el clic.
10:45
And this was discovereddescubierto
by two scientistscientíficos in 2055,
222
633593
4056
Dos científicos lo descubrieron en 2055:
10:49
BarryBarry and LateTarde,
223
637673
1372
Barry y Late.
10:51
who observedobservado, in the dorsaldorsal
prefrontalprefrontal cortexcorteza,
224
639069
3663
Ellos observaron
en la corteza dorsal prefrontal
10:54
how in the braincerebro of someonealguien
tryingmolesto to understandentender an ideaidea,
225
642756
5222
cómo en el cerebro de alguien
que intenta comprender una idea
11:00
how differentdiferente populationspoblaciones of neuronsneuronas
would reorganizereorganizar themselvessí mismos --
226
648002
3369
se reorganizan las diversas
poblaciones de neuronas
11:03
you're looking at neuralneural
activityactividad here in orangenaranja --
227
651395
2436
--aquí, en naranja, se ve
la actividad neuronal--
hasta que, al fin, su actividad se alinea
para dar una respuesta positiva.
11:05
untilhasta finallyfinalmente theirsu activityactividad alignsalinea
in a way that leadsconduce to positivepositivo feedbackrealimentación.
228
653855
3738
11:10
Right there.
229
658339
1150
Aquí mismo.
11:12
That is understandingcomprensión.
230
660723
1467
Eso es comprender.
11:15
So finallyfinalmente, we were ablepoder to get
at the things that make us humanhumano.
231
663413
4437
Por fin, logramos entender
lo que nos hace humanos.
11:21
And that's what really openedabrió the way
to majormayor insightsideas from medicinemedicina.
232
669871
4578
Eso abrió el camino para importantes
planteos de la medicina.
11:27
Because, startingcomenzando in the 2060s,
233
675465
2755
Porque, a partir de la década de 2060,
11:30
with the abilitycapacidad to recordgrabar
the neuralneural activityactividad
234
678244
2484
para registrar la actividad de las neuronas
11:32
in the brainssesos of patientspacientes
with these differentdiferente mentalmental diseasesenfermedades,
235
680752
3587
en el cerebro de los pacientes
con diversas enfermedades mentales,
11:36
rathermás bien than definingdefiniendo the diseasesenfermedades
on the basisbase of theirsu symptomssíntomas,
236
684363
4690
en lugar de definir las enfermedades
con base en sus síntomas,
11:41
as we had at the beginningcomenzando of the centurysiglo,
237
689077
2040
como habíamos hecho a principios de siglo,
11:43
we startedempezado to definedefinir them
238
691141
1222
empezamos a definirlas
11:44
on the basisbase of the actualreal pathologypatología
that we observedobservado at the neuralneural levelnivel.
239
692387
3539
con base en la patología real
que veíamos a nivel de las neuronas.
11:48
So for exampleejemplo, in the casecaso of ADHDTDAH,
240
696768
3825
Por ejemplo, en el caso del TDAH,
11:52
we discovereddescubierto that there are
dozensdocenas of differentdiferente diseasesenfermedades,
241
700617
3174
descubrimos que hay decenas
de enfermedades diferentes,
11:55
all of whichcual had been calledllamado ADHDTDAH
at the startcomienzo of the centurysiglo,
242
703815
3009
que, a principios de siglo,
eran conocidas como TDAH,
11:58
that actuallyactualmente had nothing
to do with eachcada other,
243
706848
2301
pero que no tenían nada
que ver unas con otras,
12:01
exceptexcepto that they had similarsimilar symptomssíntomas.
244
709173
2118
excepto que tenían síntomas similares.
12:03
And they needednecesario to be treatedtratado
in differentdiferente waysformas.
245
711625
2372
Debían ser tratadas de manera diferente.
12:06
So it was kindtipo of incredibleincreíble,
in retrospectretrospección,
246
714307
2247
En retrospectiva, es increíble
que, a principios de siglo,
12:08
that at the beginningcomenzando of the centurysiglo,
247
716578
1777
tratáramos todas estas
enfermedades diferentes
12:10
we had been treatingtratar
all those differentdiferente diseasesenfermedades
248
718379
2317
con la misma droga,
12:12
with the samemismo drugdroga,
249
720720
1183
con anfetaminas, que era
básicamente lo que se hacía.
12:13
just by givingdando people amphetamineanfetamina,
basicallybásicamente is what we were doing.
250
721927
3214
Con la esquizofrenia
y la depresión pasaba lo mismo.
12:17
And schizophreniaesquizofrenia and depressiondepresión
are the samemismo way.
251
725165
2488
12:19
So rathermás bien than prescribingprescribiendo drugsdrogas to people
essentiallyesencialmente at randomaleatorio,
252
727677
4032
En lugar de recetar fármacos
de forma aleatoria,
12:23
as we had,
253
731733
1150
como lo hacíamos,
12:24
we learnedaprendido how to predictpredecir
whichcual drugsdrogas would be mostmás effectiveeficaz
254
732907
3511
aprendimos a predecir qué fármacos
serían más eficaces, en qué pacientes,
12:28
in whichcual patientspacientes,
255
736442
1183
12:29
and that just led to this hugeenorme
improvementmejora in outcomesresultados.
256
737649
2756
y eso llevó a una mejora enorme
en los resultados.
12:33
OK, I want to bringtraer you back now
to the yearaño 2017.
257
741498
3476
Bien, regresemos al año 2017.
12:38
Some of this maymayo soundsonar satiricalsatírico
or even farlejos fetchedtraído.
258
746117
3373
Algunas de estas cosas pueden
parecer satíricas o rebuscadas.
12:41
And some of it is.
259
749514
1293
Y algunas lo son.
12:43
I mean, I can't actuallyactualmente
see into the futurefuturo.
260
751291
2651
Es decir, no puedo ver el futuro.
12:45
I don't actuallyactualmente know
261
753966
1366
No sé, obviamente,
12:47
if we're going to be drillingperforación hundredscientos
or thousandsmiles of microscopicmicroscópico holesagujeros
262
755356
3667
si vamos a hacer cientos o miles
de perforaciones microscópicas
12:51
in our headscabezas in 30 yearsaños.
263
759047
1667
en nuestras cabezas de aquí a 30 años.
12:53
But what I can tell you
264
761762
1706
Pero sí puedo decirles
12:55
is that we're not going
to make any progressProgreso
265
763492
2175
que no vamos a progresar
12:57
towardshacia understandingcomprensión the humanhumano braincerebro
or humanhumano diseasesenfermedades
266
765691
3727
hacia la comprensión del cerebro humano
o las enfermedades humanas
13:01
untilhasta we figurefigura out how to get
at the electricaleléctrico activityactividad of neuronsneuronas
267
769442
4516
hasta no descubrir la forma de observar
la actividad eléctrica de las neuronas
13:05
in healthysaludable humanshumanos.
268
773982
1200
en personas sanas.
13:07
And almostcasi no one is workingtrabajando
on figuringfigurando out how to do that todayhoy.
269
775918
3239
Actualmente, no se está haciendo
casi ningún estudio al respecto.
13:12
That is the futurefuturo of neuroscienceneurociencia.
270
780077
2334
Ese es el futuro de la neurociencia.
13:14
And I think it's time for neuroscientistsneurocientíficos
to put down the mouseratón braincerebro
271
782752
4393
Creo que ya es hora
de que los neurocientíficos
dejen de lado el cerebro del ratón
13:19
and to dedicatededicar the thought
and investmentinversión necessarynecesario
272
787169
2754
y se dediquen a pensar
y a invertir lo necesario
13:21
to understandentender the humanhumano braincerebro
and humanhumano diseaseenfermedad.
273
789947
3267
para comprender al cerebro humano
y las enfermedades humanas.
Gracias.
13:27
Thank you.
274
795629
1151
(Aplausos)
13:28
(ApplauseAplausos)
275
796804
1172
Translated by Sebastian Betti
Reviewed by Paula Motter

▲Back to top

ABOUT THE SPEAKER
Sam Rodriques - Neuroengineer
Sam Rodriques invents new technologies to help neuroscientists understand how the brain works.

Why you should listen

Sam Rodriques has designed a new nanofabrication method and a new approach to sensing neural activity with probes in the bloodstream, and his forthcoming technologies are aimed at understanding the spatial organization of cells in the brain and the transcriptional activity of neurons over time. He is a graduate student in Physics at the Massachusetts Institute of Technology, with affiliations at the MIT Media Lab, the MIT Department of Brain and Cognitive Sciences and the Broad Institute of Harvard and MIT. He graduated summa cum laude with highest honors in Physics from Haverford College, where he worked on new methods for calculating quantum entanglement in multipartite quantum systems. He has received numerous national awards and fellowships to support his research, including the Hertz Foundation Graduate Fellowship, an NSF Graduate Research Fellowship and a Churchill Scholarship.

More profile about the speaker
Sam Rodriques | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee