ABOUT THE SPEAKER
Ed Boyden - Neuroengineer
Ed Boyden is a professor of biological engineering and brain and cognitive sciences at the MIT Media Lab and the MIT McGovern Institute.

Why you should listen

Ed Boyden leads the Synthetic Neurobiology Group, which develops tools for analyzing and repairing complex biological systems such as the brain. His group applies these tools in a systematic way in order to reveal ground truth scientific understandings of biological systems, which in turn reveal radical new approaches for curing diseases and repairing disabilities. These technologies include expansion microscopy, which enables complex biological systems to be imaged with nanoscale precision, and optogenetic tools, which enable the activation and silencing of neural activity with light (TED Talk: A light switch for neurons). Boyden also co-directs the MIT Center for Neurobiological Engineering, which aims to develop new tools to accelerate neuroscience progress.

Amongst other recognitions, Boyden has received the Breakthrough Prize in Life Sciences (2016), the BBVA Foundation Frontiers of Knowledge Award (2015), the Carnegie Prize in Mind and Brain Sciences (2015), the Jacob Heskel Gabbay Award (2013), the Grete Lundbeck Brain Prize (2013) and the NIH Director's Pioneer Award (2013). He was also named to the World Economic Forum Young Scientist list (2013) and the Technology Review World's "Top 35 Innovators under Age 35" list (2006). His group has hosted hundreds of visitors to learn how to use new biotechnologies and spun out several companies to bring inventions out of his lab and into the world. Boyden received his Ph.D. in neurosciences from Stanford University as a Hertz Fellow, where he discovered that the molecular mechanisms used to store a memory are determined by the content to be learned. Before that, he received three degrees in electrical engineering, computer science and physics from MIT. He has contributed to over 300 peer-reviewed papers, current or pending patents and articles, and he has given over 300 invited talks on his group's work.

More profile about the speaker
Ed Boyden | Speaker | TED.com
TED2011

Ed Boyden: A light switch for neurons

Ed Boyden: un interruptor de luz para neuronas

Filmed:
1,098,379 views

Ed Boyden muestra cómo, mediante la inserción de genes de proteínas fotosensibles en células cerebrales, puede activar o desactivar selectivamente neuronas específicas con implantes de fibra óptica. Con este nivel de control sin precedentes ha logrado curar ratones con trastornos similares al estrés postraumático y ciertas formas de ceguera. En el horizonte: prótesis neuronales. El moderador de segmento Juan Enríquez hace un mini-debate al final.
- Neuroengineer
Ed Boyden is a professor of biological engineering and brain and cognitive sciences at the MIT Media Lab and the MIT McGovern Institute. Full bio

Double-click the English transcript below to play the video.

00:15
Think about your day for a secondsegundo.
0
0
2000
Piensen en su día por un segundo.
00:17
You wokedespertó up, feltsintió freshFresco airaire on your facecara as you walkedcaminado out the doorpuerta,
1
2000
3000
Se despertaron, sintieron el aire fresco en la cara cuando salieron por la puerta
00:20
encounteredencontrado newnuevo colleaguescolegas and had great discussionsdiscusiones,
2
5000
2000
se encontraron nuevos colegas y tuvieron grandiosas discusiones
00:22
and feltsintió in awetemor when you foundencontró something newnuevo.
3
7000
2000
y se sintieron asombrados si descubrieron algo nuevo.
00:24
But I betapuesta there's something you didn't think about todayhoy --
4
9000
2000
Pero apuesto a que hay algo en lo que no pensaron hoy
00:26
something so closecerca to home
5
11000
2000
algo tan cercano a casa
00:28
that you probablyprobablemente don't think about it very oftena menudo at all.
6
13000
2000
que ni siquiera piensan en ello muy a menudo.
00:30
And that's that all the sensationssensaciones, feelingssentimientos,
7
15000
2000
Y estas son todas las sensaciones, sentimientos,
00:32
decisionsdecisiones and actionscomportamiento
8
17000
2000
decisiones y acciones
00:34
are mediatedmediado by the computercomputadora in your headcabeza
9
19000
2000
que son mediadas por la computadora de tu cabeza
00:36
calledllamado the braincerebro.
10
21000
2000
llamada cerebro.
00:38
Now the braincerebro maymayo not look like much from the outsidefuera de --
11
23000
2000
Ahora, el cerebro puede no parecer mucho desde fuera
00:40
a couplePareja poundslibras of pinkish-graygris rosáceo fleshcarne,
12
25000
2000
un kilogramo de carne de color gris rosáceo,
00:42
amorphousamorfo --
13
27000
2000
amorfo,
00:44
but the last hundredcien yearsaños of neuroscienceneurociencia
14
29000
2000
pero los ultimos cien años de neurociencia
00:46
have allowedpermitido us to zoomenfocar in on the braincerebro,
15
31000
2000
nos ha permitido adentrarnos en el cerebro
00:48
and to see the intricacyintrincación of what liesmentiras withindentro.
16
33000
2000
y ver lo imbrincado de lo que yace dentro de él
00:50
And they'veellos tienen told us that this braincerebro
17
35000
2000
Y se nos ha dicho que este cerebro
00:52
is an incrediblyincreíblemente complicatedComplicado circuitcircuito
18
37000
2000
es un circuito increiblemente complicado
00:54
madehecho out of hundredscientos of billionsmiles de millones of cellsCélulas calledllamado neuronsneuronas.
19
39000
4000
compuesto de cientos de miles de millones de células llamadas neuronas.
00:58
Now unlikediferente a a human-designeddiseño humano computercomputadora,
20
43000
3000
Ahora, a diferencia de una computadora diseñada por humanos
01:01
where there's a fairlybastante smallpequeña numbernúmero of differentdiferente partspartes --
21
46000
2000
donde hay un número bastante reducido de piezas diferentes
01:03
we know how they work, because we humanshumanos designeddiseñado them --
22
48000
3000
sabemos cómo funcionan, porque las diseñamos nosotros,
01:06
the braincerebro is madehecho out of thousandsmiles of differentdiferente kindsclases of cellsCélulas,
23
51000
3000
el cerebro está compuesto de miles de tipos diferentes de células,
01:09
maybe tensdecenas of thousandsmiles.
24
54000
2000
quizá decenas de miles.
01:11
They come in differentdiferente shapesformas; they're madehecho out of differentdiferente moleculesmoléculas.
25
56000
2000
Son de diferentes formas; están compuestas por distintas moléculas;
01:13
And they projectproyecto and connectconectar to differentdiferente braincerebro regionsregiones,
26
58000
3000
y ellas se proyectan y conectan hacia distintas regiones del cerebro.
01:16
and they alsoademás changecambio differentdiferente waysformas in differentdiferente diseaseenfermedad statesestados.
27
61000
3000
Y cambian de distintas maneras en diferentes estadíos de las enfermedades.
01:19
Let's make it concretehormigón.
28
64000
2000
Más concretamente.
01:21
There's a classclase of cellsCélulas,
29
66000
2000
Hay una clase de células
01:23
a fairlybastante smallpequeña cellcelda, an inhibitoryinhibitorio cellcelda, that quietsquietos its neighborsvecinos.
30
68000
3000
una célula muy pequeña, una célula inhibidora, que silencia a sus vecinas.
01:26
It's one of the cellsCélulas that seemsparece to be atrophiedatrofiado in disorderstrastornos like schizophreniaesquizofrenia.
31
71000
4000
Es una de las células que parece atrofiarse en trastornos como la esquizofrenia.
01:30
It's calledllamado the basketcesta cellcelda.
32
75000
2000
Se llama la célula canasta;
01:32
And this cellcelda is one of the thousandsmiles of kindsclases of cellcelda
33
77000
2000
Y esta celula es una de los miles de tipos de células
01:34
that we are learningaprendizaje about.
34
79000
2000
acerca de las cuales estamos aprendiendo.
01:36
NewNuevo onesunos are beingsiendo discovereddescubierto everydaycada día.
35
81000
2000
Se descubren nuevos tipos todos los días.
01:38
As just a secondsegundo exampleejemplo:
36
83000
2000
Asi como... solo un segundo ejemplo:
01:40
these pyramidalpiramidal cellsCélulas, largegrande cellsCélulas,
37
85000
2000
estas células piramidales, grandes células,
01:42
they can spanlapso a significantsignificativo fractionfracción of the braincerebro.
38
87000
2000
pueden abarcar una parte importante del cerebro.
01:44
They're excitatoryexcitador.
39
89000
2000
Son excitadoras.
01:46
And these are some of the cellsCélulas
40
91000
2000
Y estas son algunas de las células
01:48
that mightpodría be overactivehiperactiva in disorderstrastornos suchtal as epilepsyepilepsia.
41
93000
3000
que podrían estar hiperactivas en trastornos como la epilepsia.
01:51
EveryCada one of these cellsCélulas
42
96000
2000
Cada una de estas células
01:53
is an incredibleincreíble electricaleléctrico devicedispositivo.
43
98000
3000
es un dispositivo eléctrico increíble.
01:56
They receiverecibir inputentrada from thousandsmiles of upstreamrío arriba partnersfogonadura
44
101000
2000
Reciben señales de miles de compañeras de la parte superior
01:58
and computecalcular theirsu ownpropio electricaleléctrico outputssalidas,
45
103000
3000
y calculan sus propias respuestas eléctricas
02:01
whichcual then, if they passpasar a certaincierto thresholdlímite,
46
106000
2000
que luego, si pasan un determinado umbral,
02:03
will go to thousandsmiles of downstreamrío abajo partnersfogonadura.
47
108000
2000
iran a parar a miles de compañeras de la parte inferior.
02:05
And this processproceso, whichcual takes just a millisecondmilisegundo or so,
48
110000
3000
Y este proceso que demora solo un milisegundo más o menos
02:08
happenssucede thousandsmiles of timesveces a minuteminuto
49
113000
2000
sucede miles de veces por minuto
02:10
in everycada one of your 100 billionmil millones cellsCélulas,
50
115000
2000
en cada una de tus 100 mil millones de células
02:12
as long as you livevivir
51
117000
2000
mientras vivas,
02:14
and think and feel.
52
119000
3000
y pienses y sientas.
02:17
So how are we going to figurefigura out what this circuitcircuito does?
53
122000
3000
Asi que ¿Cómo vamos a dilucidar qué hace este circuito?
02:20
IdeallyIdealmente, we could go throughmediante the circuitcircuito
54
125000
2000
Idealmente, podriamos ir atraves del circuito
02:22
and turngiro these differentdiferente kindsclases of cellcelda on and off
55
127000
3000
y encender y apagar los distintos tipos de células
02:25
and see whethersi we could figurefigura out
56
130000
2000
y ver si podemos dilucidar
02:27
whichcual onesunos contributecontribuir to certaincierto functionsfunciones
57
132000
2000
cuáles contribuyen a determinadas funciones
02:29
and whichcual onesunos go wrongincorrecto in certaincierto pathologiespatologías.
58
134000
2000
y cuáles funcionan mal en ciertas patologías.
02:31
If we could activateactivar cellsCélulas, we could see what powerspotestades they can unleashdesatraillar,
59
136000
3000
Si pudiéramos activar células podríamos ver qué potencial pueden liberar,
02:34
what they can initiateiniciado and sustainsostener.
60
139000
2000
qué pueden iniciar y mantener.
02:36
If we could turngiro them off,
61
141000
2000
Si pudiéramos apagarlas
02:38
then we could try and figurefigura out what they're necessarynecesario for.
62
143000
2000
entonces podríamos intentar y dilucidar para qué son necesarias.
02:40
And that's a storyhistoria I'm going to tell you about todayhoy.
63
145000
3000
Y esa es una historia que les voy a contar hoy.
02:43
And honestlyhonestamente, where we'venosotros tenemos goneido throughmediante over the last 11 yearsaños,
64
148000
3000
Y, honestamente, por donde hemos pasado, en los últimos 11 años
02:46
throughmediante an attemptintento to find waysformas
65
151000
2000
en pos de encontrar maneras
02:48
of turningtorneado circuitscircuitos and cellsCélulas and partspartes and pathwayscaminos of the braincerebro
66
153000
2000
de encender y apagar circuitos y células y rutas
02:50
on and off,
67
155000
2000
del cerebro
02:52
bothambos to understandentender the scienceciencia
68
157000
2000
tanto para entender la ciencia,
02:54
and alsoademás to confrontconfrontar some of the issuescuestiones
69
159000
3000
como para confrontar algunos de los problemas
02:57
that facecara us all as humanshumanos.
70
162000
3000
que se nos enfrentan a todos nosotros como humanos.
03:00
Now before I tell you about the technologytecnología,
71
165000
3000
Pero antes de hablarles acerca de la tecnología
03:03
the badmalo newsNoticias is that a significantsignificativo fractionfracción of us in this roomhabitación,
72
168000
3000
la mala noticia es que una fraccion significativa de nosotros en esta sala,
03:06
if we livevivir long enoughsuficiente,
73
171000
2000
si logramos vivir lo suficiente,
03:08
will encounterencuentro, perhapsquizás, a braincerebro disordertrastorno.
74
173000
2000
vamos a sufrir, quizá, un trastorno cerebral.
03:10
AlreadyYa, a billionmil millones people
75
175000
2000
Ya mil millones de personas
03:12
have had some kindtipo of braincerebro disordertrastorno
76
177000
2000
han tenido algún tipo de trastorno cerebral
03:14
that incapacitatesincapacita them,
77
179000
2000
que las incapacita.
03:16
and the numbersnúmeros don't do it justicejusticia thoughaunque.
78
181000
2000
Y, no obstante, estas cifras no le hacen justicia.
03:18
These disorderstrastornos -- schizophreniaesquizofrenia, Alzheimer'sAlzheimer,
79
183000
2000
Estos trastornos -la esquizofrenia, el Alzheimer,
03:20
depressiondepresión, addictionadiccion --
80
185000
2000
la depresión, la adicción-
03:22
they not only stealrobar our time to livevivir, they changecambio who we are.
81
187000
3000
no sólo roban nuestro tiempo de vida, sino que cambian nuestro ser;
03:25
They take our identityidentidad and changecambio our emotionsemociones
82
190000
2000
nos quitan la identidad, cambian nuestras emociones
03:27
and changecambio who we are as people.
83
192000
3000
y lo que nos constituye como personas.
03:30
Now in the 20thth centurysiglo,
84
195000
3000
Ahora bien, en el siglo XX
03:33
there was some hopeesperanza that was generatedgenerado
85
198000
3000
se generó algo de esperanza
03:36
throughmediante the developmentdesarrollo of pharmaceuticalsproductos farmacéuticos for treatingtratar braincerebro disorderstrastornos,
86
201000
3000
mediante el desarrollo de fármacos para el tratamiento de trastornos cerebrales.
03:39
and while manymuchos drugsdrogas have been developeddesarrollado
87
204000
3000
Y si bien se desarrollaron muchas medicinas
03:42
that can alleviatealiviar symptomssíntomas of braincerebro disorderstrastornos,
88
207000
2000
que pueden aliviar los síntomas de los trastornos cerebrales
03:44
practicallyprácticamente noneninguna of them can be consideredconsiderado to be curedcurado.
89
209000
3000
en la práctica ninguna puede considerarse curable.
03:47
And partparte of that's because we're bathingbaños the braincerebro in the chemicalquímico.
90
212000
3000
En parte porque estamos inundando el cerebro con químicos.
03:50
This elaborateelaborar circuitcircuito
91
215000
2000
Este circuito elaborado
03:52
madehecho out of thousandsmiles of differentdiferente kindsclases of cellcelda
92
217000
2000
compuesto de miles de tipos diferentes de células
03:54
is beingsiendo bathedbañado in a substancesustancia.
93
219000
2000
está siendo bañando con una sustancia.
03:56
That's alsoademás why, perhapsquizás, mostmás of the drugsdrogas, and not all, on the marketmercado
94
221000
2000
Esa es la razón por la que gran parte de las medicinas del mercado, sino todas,
03:58
can presentpresente some kindtipo of seriousgrave sidelado effectefecto too.
95
223000
3000
puede presentar tambien algún tipo de efecto secundario.
04:01
Now some people have gottenconseguido some solaceconsuelo
96
226000
3000
Ahora, algunas personas han recibido algún consuelo
04:04
from electricaleléctrico stimulatorsestimuladores that are implantedimplantado in the braincerebro.
97
229000
3000
de estimuladores eléctricos que se implantan en el cerebro.
04:07
And for Parkinson'sParkinson diseaseenfermedad,
98
232000
2000
Y para el mal de Parkinson,
04:09
CochlearCoclear implantsimplantes,
99
234000
2000
los implantes cocleares,
04:11
these have indeeden efecto been ablepoder
100
236000
2000
éstos realmente han podido
04:13
to bringtraer some kindtipo of remedyremedio
101
238000
2000
llevar algún tipo de remedio
04:15
to people with certaincierto kindsclases of disordertrastorno.
102
240000
2000
a personas con ciertos tipos de trastornos.
04:17
But electricityelectricidad alsoademás will go in all directionsdirecciones --
103
242000
2000
Pero la electricidad también saldrá en todas direcciones
04:19
the pathcamino of leastmenos resistanceresistencia,
104
244000
2000
por el camino de menor resistencia,
04:21
whichcual is where that phrasefrase, in partparte, comesproviene from.
105
246000
2000
que es, en parte, el origen de la frase.
04:23
And it alsoademás will affectafectar normalnormal circuitscircuitos as well as the abnormalanormal onesunos that you want to fixfijar.
106
248000
3000
Y esto afectará tanto a los circuitos normales como a los anormales que queremos corregir.
04:26
So again, we're sentexpedido back to the ideaidea
107
251000
2000
De nuevo, volvemos a la idea
04:28
of ultra-preciseultra preciso controlcontrolar.
108
253000
2000
del control ultra-preciso.
04:30
Could we dial-inMarcar informationinformación preciselyprecisamente where we want it to go?
109
255000
3000
¿Podemos direccionar la información hacia donde queremos que vaya?
04:34
So when I startedempezado in neuroscienceneurociencia 11 yearsaños agohace,
110
259000
4000
Cuando empecé con la neurociencia hace 11 años
04:38
I had trainedentrenado as an electricaleléctrico engineeringeniero and a physicistfísico,
111
263000
3000
me había capacitado en ingeniería eléctrica y física
04:41
and the first thing I thought about was,
112
266000
2000
y lo primero que pensé fue
04:43
if these neuronsneuronas are electricaleléctrico devicesdispositivos,
113
268000
2000
si estas neuronas son dispositivos eléctricos
04:45
all we need to do is to find some way
114
270000
2000
todo lo que hace falta es encontrar la manera
04:47
of drivingconducción those electricaleléctrico changescambios at a distancedistancia.
115
272000
2000
de manejar estos cambios eléctricos a distancia.
04:49
If we could turngiro on the electricityelectricidad in one cellcelda,
116
274000
2000
Si pudiéramos encender la electricidad de una célula,
04:51
but not its neighborsvecinos,
117
276000
2000
pero no la de sus vecinas,
04:53
that would give us the toolherramienta we need to activateactivar and shutcerrar down these differentdiferente cellsCélulas,
118
278000
3000
eso nos daría la herramienta que hace falta para activar y apagar las distintas células,
04:56
figurefigura out what they do and how they contributecontribuir
119
281000
2000
para averiguar qué hacen y cómo contribuyen
04:58
to the networksredes in whichcual they're embeddedincrustado.
120
283000
2000
a las redes en las que están insertas.
05:00
And alsoademás it would allowpermitir us to have the ultra-preciseultra preciso controlcontrolar we need
121
285000
2000
Y eso también nos permitiría contar con una herramienta de control ultra-precisa
05:02
in orderorden to fixfijar the circuitcircuito computationscálculos
122
287000
3000
para corregir los cálculos del circuito
05:05
that have goneido awrytorcido.
123
290000
2000
que estuvieran mal.
05:07
Now how are we going to do that?
124
292000
2000
¿Cómo vamos a hacer eso?
05:09
Well there are manymuchos moleculesmoléculas that existexiste in naturenaturaleza,
125
294000
2000
En la Naturaleza hay muchas moléculas
05:11
whichcual are ablepoder to convertconvertir lightligero into electricityelectricidad.
126
296000
3000
capaces de convertir la luz en electricidad.
05:14
You can think of them as little proteinsproteínas
127
299000
2000
Se las puede pensar como pequeñas proteínas
05:16
that are like solarsolar cellsCélulas.
128
301000
2000
que son como celdas solares.
05:18
If we can installinstalar these moleculesmoléculas in neuronsneuronas somehowde algun modo,
129
303000
3000
Si de algún modo podemos instalar estas moléculas en estas neuronas
05:21
then these neuronsneuronas would becomevolverse electricallyeléctricamente drivablemanejable with lightligero.
130
306000
3000
entonces estas neuronas podrían manipularse eléctricamente con la luz.
05:24
And theirsu neighborsvecinos, whichcual don't have the moleculemolécula, would not.
131
309000
3000
Y sus vecinas, que no tienen la molécula, no.
05:27
There's one other magicmagia tricktruco you need to make this all happenocurrir,
132
312000
2000
Hay otro pase de magia que hacer para que todo esto funcione
05:29
and that's the abilitycapacidad to get lightligero into the braincerebro.
133
314000
3000
y es la capacidad de meter luz en el cerebro.
05:32
And to do that -- the braincerebro doesn't feel paindolor -- you can put --
134
317000
3000
Y para lograrlo -el cerebro no siente dolor- se puede
05:35
takingtomando advantageventaja of all the effortesfuerzo
135
320000
2000
sacar provecho del esfuerzo
05:37
that's goneido into the InternetInternet and communicationsComunicaciones and so on --
136
322000
2000
invertido en Internet y comunicaciones, etc.
05:39
opticalóptico fibersfibras connectedconectado to lasersláser
137
324000
2000
-fibra óptica conectada a lásers
05:41
that you can use to activateactivar, in animalanimal modelsmodelos for exampleejemplo,
138
326000
2000
que puede usarse para activar (por ejemplo, en modelos con animales,
05:43
in pre-clinicalpre-clínico studiesestudios,
139
328000
2000
en estudios pre-clínicos)
05:45
these neuronsneuronas and to see what they do.
140
330000
2000
estas neuronas y ver qué hacen.
05:47
So how do we do this?
141
332000
2000
¿Cómo lo hacemos?
05:49
Around 2004,
142
334000
2000
Alrededor de 2004,
05:51
in collaborationcolaboración with GerhardGerhard NagelNagel and KarlKarl DeisserothDeisseroth,
143
336000
2000
en colaboración con Gerhard Nagel y Karl Deisseroth
05:53
this visionvisión camevino to fruitionfruición.
144
338000
2000
esta visión se hizo realidad.
05:55
There's a certaincierto algaalga that swimsnada in the wildsalvaje,
145
340000
3000
Hay un alga determinada que nada en el mundo silvestre
05:58
and it needsnecesariamente to navigatenavegar towardshacia lightligero
146
343000
2000
y tiene que navegar hacia la luz
06:00
in orderorden to photosynthesizefotosintetizar optimallyde manera óptima.
147
345000
2000
para hacer la fotosíntesis de manera óptima.
06:02
And it sensessentido lightligero with a little eye-spotpunto del ojo,
148
347000
2000
Y detecta la luz con un pequeño ocelo
06:04
whichcual workstrabajos not unlikediferente a how our eyeojo workstrabajos.
149
349000
3000
que funciona no muy distinto que nuestros ojos.
06:07
In its membranemembrana, or its boundarylímite,
150
352000
2000
En su membrana, o su borde,
06:09
it containscontiene little proteinsproteínas
151
354000
3000
contiene pequeñas proteínas
06:12
that indeeden efecto can convertconvertir lightligero into electricityelectricidad.
152
357000
3000
que pueden convertir luz en electricidad.
06:15
So these moleculesmoléculas are calledllamado channelrhodopsinschannelrhodopsins.
153
360000
3000
Estas moléculas se denominan canalrodopsinas.
06:18
And eachcada of these proteinsproteínas actshechos just like that solarsolar cellcelda that I told you about.
154
363000
3000
Y cada una de estas proteínas actúa como esa celda solar de la que les hablé.
06:21
When blueazul lightligero hitsgolpes it, it opensabre up a little holeagujero
155
366000
3000
Ante la presencia de luz azul, abre un pequeño hoyo
06:24
and allowspermite chargedcargado particlespartículas to enterentrar the eye-spotpunto del ojo,
156
369000
2000
y permite el ingreso de partículas cargadas al ocelo.
06:26
and that allowspermite this eye-spotpunto del ojo to have an electricaleléctrico signalseñal
157
371000
2000
Eso le permite a este ocelo tener una señal eléctrica
06:28
just like a solarsolar cellcelda chargingcargando up a batterybatería.
158
373000
3000
al igual que una celda solar que carga una batería.
06:31
So what we need to do is to take these moleculesmoléculas
159
376000
2000
Entonces lo que hay que hacer es tomar estas moléculas
06:33
and somehowde algun modo installinstalar them in neuronsneuronas.
160
378000
2000
y de algún modo ponerlas en las neuronas.
06:35
And because it's a proteinproteína,
161
380000
2000
Y dado que es una proteína
06:37
it's encodedcodificado for in the DNAADN of this organismorganismo.
162
382000
3000
está codificada en el ADN de este organismo.
06:40
So all we'venosotros tenemos got to do is take that DNAADN,
163
385000
2000
Así que todo lo que hay que hacer es tomar ese ADN,
06:42
put it into a genegene therapyterapia vectorvector, like a virusvirus,
164
387000
3000
colocarlo en un vector de terapia génica, como un virus,
06:45
and put it into neuronsneuronas.
165
390000
3000
y ponerlo en las neuronas.
06:48
So it turnedconvertido out that this was a very productiveproductivo time in genegene therapyterapia,
166
393000
3000
Resultó ser un momento muy productivo de la terapia génica
06:51
and lots of virusesvirus were comingviniendo alonga lo largo.
167
396000
2000
y empezaron a aparecer muchos virus.
06:53
So this turnedconvertido out to be very simplesencillo to do.
168
398000
2000
Así que fue algo muy simple de hacer.
06:55
And earlytemprano in the morningMañana one day in the summerverano of 2004,
169
400000
3000
Y temprano por la mañana un día de verano de 2004
06:58
we gavedio it a try, and it workedtrabajó on the first try.
170
403000
2000
lo intentamos y funcionó al primer intento.
07:00
You take this DNAADN and you put it into a neuronneurona.
171
405000
3000
Tomamos este ADN y lo colocamos en una neurona.
07:03
The neuronneurona usesusos its naturalnatural protein-makingfabricación de proteínas machinerymaquinaria
172
408000
3000
La neurona usa su mecanismo natural de proteínas
07:06
to fabricatefabricar these little light-sensitivesensible a la luz proteinsproteínas
173
411000
2000
para fabricar estas pequeñas proteínas fotosensibles
07:08
and installinstalar them all over the cellcelda,
174
413000
2000
y las coloca en toda la célula;
07:10
like puttingponiendo solarsolar panelspaneles on a rooftecho,
175
415000
2000
es como poner paneles solares en el techo.
07:12
and the nextsiguiente thing you know,
176
417000
2000
Y lo siguiente que uno sabe
07:14
you have a neuronneurona whichcual can be activatedactivado with lightligero.
177
419000
2000
es que tiene una neurona que puede activarse con la luz.
07:16
So this is very powerfulpoderoso.
178
421000
2000
Por eso es muy poderoso.
07:18
One of the trickstrucos you have to do
179
423000
2000
Un truco que hay que saber hacer
07:20
is to figurefigura out how to deliverentregar these genesgenes to the cellsCélulas that you want
180
425000
2000
es darse cuenta cómo entregar estos genes a las células que uno quiere
07:22
and not all the other neighborsvecinos.
181
427000
2000
y no a todas sus otras vecinas.
07:24
And you can do that; you can tweakretocar the virusesvirus
182
429000
2000
Y puede hacerse; se puede ajustar el virus
07:26
so they hitgolpear just some cellsCélulas and not othersotros.
183
431000
2000
para que impacte en algunas células y no en otras.
07:28
And there's other geneticgenético trickstrucos you can playjugar
184
433000
2000
Y hay otros trucos genéticos a los que recurrir
07:30
in orderorden to get light-activatedactivado por la luz cellsCélulas.
185
435000
3000
para obtener células foto-activadas.
07:33
This fieldcampo has now come to be knownconocido as optogeneticsoptogenética.
186
438000
4000
Ese campo se ha dado en llamar optogenética.
07:37
And just as one exampleejemplo of the kindtipo of thing you can do,
187
442000
2000
Y, a modo de ejemplo de las cosas que se pueden hacer,
07:39
you can take a complexcomplejo networkred,
188
444000
2000
puede tomarse una red compleja
07:41
use one of these virusesvirus to deliverentregar the genegene
189
446000
2000
y usar uno de estos virus para entregar el gen
07:43
just to one kindtipo of cellcelda in this densedenso networkred.
190
448000
3000
a un solo tipo de célula en esta densa red.
07:46
And then when you shinebrillar lightligero on the entiretodo networkred,
191
451000
2000
Y luego cuando uno ilumine toda la red
07:48
just that cellcelda typetipo will be activatedactivado.
192
453000
2000
sólo se activará ese tipo de célula.
07:50
So for exampleejemplo, letsdeja sortordenar of considerconsiderar that basketcesta cellcelda I told you about earliermás temprano --
193
455000
3000
Por ejemplo, consideremos esa célula en cesta que les mencioné antes,
07:53
the one that's atrophiedatrofiado in schizophreniaesquizofrenia
194
458000
2000
la que se atrofia en la esquizofrenia
07:55
and the one that is inhibitoryinhibitorio.
195
460000
2000
y que es inhibitoria.
07:57
If we can deliverentregar that genegene to these cellsCélulas --
196
462000
2000
Si podemos llevar ese gen a esas células
07:59
and they're not going to be alteredalterado by the expressionexpresión of the genegene, of coursecurso --
197
464000
3000
-y no se verá alterada por la expresión de ese gen, por supuesto-
08:02
and then flashdestello blueazul lightligero over the entiretodo braincerebro networkred,
198
467000
3000
y luego iluminamos de azul toda la red cerebral
08:05
just these cellsCélulas are going to be drivenimpulsado.
199
470000
2000
sólo serán dirigidas estas células.
08:07
And when the lightligero turnsvueltas off, these cellsCélulas go back to normalnormal,
200
472000
2000
Y cuando se apague la luz estas células vuelven a la normalidad
08:09
so they don't seemparecer to be aversecontrario againsten contra that.
201
474000
3000
por lo que no parece haber aversión a eso.
08:12
Not only can you use this to studyestudiar what these cellsCélulas do,
202
477000
2000
No solo puede usarse para estudiar el funcionamiento celular,
08:14
what theirsu powerpoder is in computinginformática in the braincerebro,
203
479000
2000
su poder de cómputo dentro del cerebro,
08:16
but you can alsoademás use this to try to figurefigura out --
204
481000
2000
sino que puede usarse para tratar de averiguar...
08:18
well maybe we could jazzjazz up the activityactividad of these cellsCélulas,
205
483000
2000
bueno, quizá podríamos avivar la actividad de estas células
08:20
if indeeden efecto they're atrophiedatrofiado.
206
485000
2000
si realmente están atrofiadas.
08:22
Now I want to tell you a couplePareja of shortcorto storiescuentos
207
487000
2000
Ahora quiero contarles un par de historias breves
08:24
about how we're usingutilizando this,
208
489000
2000
sobre el uso que hacemos de esto
08:26
bothambos at the scientificcientífico, clinicalclínico and pre-clinicalpre-clínico levelsniveles.
209
491000
3000
a nivel científico, clínico y pre-clínico.
08:29
One of the questionspreguntas we'venosotros tenemos confrontedconfrontado
210
494000
2000
Una de las preguntas que hemos enfrentado
08:31
is, what are the signalsseñales in the braincerebro that mediatemediar the sensationsensación of rewardrecompensa?
211
496000
3000
es: ¿Cuáles son las señales involucradas en la sensación de recompensa?
08:34
Because if you could find those,
212
499000
2000
Porque si se las puede encontrar
08:36
those would be some of the signalsseñales that could drivemanejar learningaprendizaje.
213
501000
2000
serían algunas de las señales que podrían guiar el aprendizaje.
08:38
The braincerebro will do more of whateverlo que sea got that rewardrecompensa.
214
503000
2000
El cerebro va a hacer más de eso que obtuvo la recompensa.
08:40
And alsoademás these are signalsseñales that go awrytorcido in disorderstrastornos suchtal as addictionadiccion.
215
505000
3000
y también son señales que funcionan mal en trastornos como las adicciones.
08:43
So if we could figurefigura out what cellsCélulas they are,
216
508000
2000
Así, si pudiéramos darnos cuenta qué células son
08:45
we could maybe find newnuevo targetsobjetivos
217
510000
2000
quizá podríamos encontrar nuevos objetivos
08:47
for whichcual drugsdrogas could be designeddiseñado or screenedproyectado againsten contra,
218
512000
2000
para el diseño y empleo de medicamentos
08:49
or maybe placeslugares where electrodeselectrodos could be put in
219
514000
2000
o quizá lugares en los que podríamos colocar electrodos
08:51
for people who have very severegrave disabilitydiscapacidad.
220
516000
3000
para personas con discapacidades muy severas.
08:54
So to do that, we camevino up with a very simplesencillo paradigmparadigma
221
519000
2000
Para esto se nos ocurrió un paradigma muy simple
08:56
in collaborationcolaboración with the FiorellaFiorella groupgrupo,
222
521000
2000
en colaboración con el grupo Fiorella,
08:58
where one sidelado of this little boxcaja,
223
523000
2000
en el que en un lado de esta pequeña caja
09:00
if the animalanimal goesva there, the animalanimal getsse pone a pulselegumbres of lightligero
224
525000
2000
si el animal va allí, recibe un pulso de luz
09:02
in orderorden to make differentdiferente cellsCélulas in the braincerebro sensitivesensible to lightligero.
225
527000
2000
para hacer foto-sensibles a distintas células del cerebro.
09:04
So if these cellsCélulas can mediatemediar rewardrecompensa,
226
529000
2000
Así, si estas células participan en la recompensa
09:06
the animalanimal should go there more and more.
227
531000
2000
el animal debería ir allí cada vez más.
09:08
And so that's what happenssucede.
228
533000
2000
Y eso es lo que sucede.
09:10
This animal'sanimal going to go to the right-handmano derecha sidelado and pokemeter his nosenariz there,
229
535000
2000
Este animal va a ir a la derecha a meter la nariz por ahí,
09:12
and he getsse pone a flashdestello of blueazul lightligero everycada time he does that.
230
537000
2000
y cada vez que lo hace recibe un destello de luz azul.
09:14
And he'llinfierno do that hundredscientos and hundredscientos of timesveces.
231
539000
2000
Y hará lo mismo cientos y cientos de veces.
09:16
These are the dopaminedopamina neuronsneuronas,
232
541000
2000
Estas son las neuronas dopaminas
09:18
whichcual some of you maymayo have heardoído about, in some of the pleasurePlacer centerscentros in the braincerebro.
233
543000
2000
que alguno habrá oído que forman parte de los centros de placer del cerebro.
09:20
Now we'venosotros tenemos shownmostrado that a briefbreve activationactivación of these
234
545000
2000
Nosotros hemos demostrado que una breve activación de éstas
09:22
is enoughsuficiente, indeeden efecto, to drivemanejar learningaprendizaje.
235
547000
2000
es suficiente para guiar el aprendizaje.
09:24
Now we can generalizegeneralizar the ideaidea.
236
549000
2000
Ahora podemos generalizar la idea.
09:26
InsteadEn lugar of one pointpunto in the braincerebro,
237
551000
2000
En vez de un punto del cerebro
09:28
we can deviseidear devicesdispositivos that spanlapso the braincerebro,
238
553000
2000
podemos diseñar dispositivos que abarquen el cerebro,
09:30
that can deliverentregar lightligero into three-dimensionaltridimensional patternspatrones --
239
555000
2000
que puedan llevar luz en patrones tridimensionales
09:32
arraysmatrices of opticalóptico fibersfibras,
240
557000
2000
-matrices de fibra óptica,
09:34
eachcada coupledacoplado to its ownpropio independentindependiente miniatureminiatura lightligero sourcefuente.
241
559000
2000
cada una con su propia mini-fuente lumínica independiente.
09:36
And then we can try to do things in vivovivo
242
561000
2000
Y luego podemos tratar de hacer cosas en vivo
09:38
that have only been donehecho to-datehasta la fecha in a dishplato --
243
563000
3000
que hasta hoy se han hecho sólo en un plato
09:41
like high-throughputalto rendimiento screeningcribado throughouten todo the entiretodo braincerebro
244
566000
2000
como la visualización de alto rendimiento de todo el cerebro
09:43
for the signalsseñales that can causeporque certaincierto things to happenocurrir.
245
568000
2000
para las señales que pueden hacer que sucedan ciertas cosas.
09:45
Or that could be good clinicalclínico targetsobjetivos
246
570000
2000
O podrían ser buenos objetivos clínicos
09:47
for treatingtratar braincerebro disorderstrastornos.
247
572000
2000
para el tratamiento de trastornos cerebrales.
09:49
And one storyhistoria I want to tell you about
248
574000
2000
Y una historia que quiero contarles
09:51
is how can we find targetsobjetivos for treatingtratar post-traumaticpostraumático stressestrés disordertrastorno --
249
576000
3000
es cómo podemos encontrar objetivos para el tratamiento del trastorno de estrés post-traumático,
09:54
a formformar of uncontrolledsin control anxietyansiedad and fearmiedo.
250
579000
3000
una forma de ansiedad y miedo descontrolados.
09:57
And one of the things that we did
251
582000
2000
Y para esto adoptamos
09:59
was to adoptadoptar a very classicalclásico modelmodelo of fearmiedo.
252
584000
3000
un modelo muy clásico del miedo.
10:02
This goesva back to the PavlovianPavloviano daysdías.
253
587000
3000
Se remonta a los días pavlovianos.
10:05
It's calledllamado PavlovianPavloviano fearmiedo conditioningacondicionamiento --
254
590000
2000
Se denomina miedo condicionado pavloviano
10:07
where a tonetono endstermina with a briefbreve shockchoque.
255
592000
2000
en el que un tono termina con una breve descarga.
10:09
The shockchoque isn't painfuldoloroso, but it's a little annoyingmolesto.
256
594000
2000
La descarga no duele pero molesta un poco.
10:11
And over time -- in this casecaso, a mouseratón,
257
596000
2000
Y con el tiempo, en este caso un ratón,
10:13
whichcual is a good animalanimal modelmodelo, commonlycomúnmente used in suchtal experimentsexperimentos --
258
598000
2000
que es un buen modelo animal y se usa comúnmente en estos experimentos,
10:15
the animalanimal learnsaprende to fearmiedo the tonetono.
259
600000
2000
el animal aprende a temerle al tono.
10:17
The animalanimal will reactreaccionar by freezingcongelación,
260
602000
2000
El animal reaccionará paralizándose
10:19
sortordenar of like a deerciervo in the headlightsfaros.
261
604000
2000
como un ciervo ante los faros.
10:21
Now the questionpregunta is, what targetsobjetivos in the braincerebro can we find
262
606000
3000
Ahora, la pregunta es: ¿Qué objetivos podemos encontrar en el cerebro
10:24
that allowpermitir us to overcomesuperar this fearmiedo?
263
609000
2000
que nos permitan superar ese temor?
10:26
So what we do is we playjugar that tonetono again
264
611000
2000
Para eso reproducimos ese tono nuevamente
10:28
after it's been associatedasociado with fearmiedo.
265
613000
2000
después que ha sido asociado con el miedo.
10:30
But we activateactivar targetsobjetivos in the braincerebro, differentdiferente onesunos,
266
615000
2000
Pero activamos objetivos en el cerebro, otros diferentes,
10:32
usingutilizando that opticalóptico fiberfibra arrayformación I told you about in the previousanterior slidediapositiva,
267
617000
3000
usando esa matriz de fibra óptica que les dije en la diapositiva anterior
10:35
in orderorden to try and figurefigura out whichcual targetsobjetivos
268
620000
2000
para tratar de averiguar qué objetivos
10:37
can causeporque the braincerebro to overcomesuperar that memorymemoria of fearmiedo.
269
622000
3000
hacen que el cerebro supere esa memoria del miedo.
10:40
And so this briefbreve videovídeo
270
625000
2000
Este breve video
10:42
showsmuestra you one of these targetsobjetivos that we're workingtrabajando on now.
271
627000
2000
muestra uno de estos objetivos en los que trabajamos ahora.
10:44
This is an areazona in the prefrontalprefrontal cortexcorteza,
272
629000
2000
Es un área de la corteza prefrontal,
10:46
a regionregión where we can use cognitioncognición to try to overcomesuperar aversiveaversivo emotionalemocional statesestados.
273
631000
3000
una región en la que se puede usar el conocimiento para superar estados emocionales de aversión.
10:49
And the animal'sanimal going to hearoír a tonetono -- and a flashdestello of lightligero occurredocurrió there.
274
634000
2000
El animal va a oír un tono y se produce un destello luminoso.
10:51
There's no audioaudio on this, but you can see the animal'sanimal freezingcongelación.
275
636000
2000
No hay audio pero pueden ver que el animal se paraliza.
10:53
This tonetono used to mean badmalo newsNoticias.
276
638000
2000
Este tono solía significar malas noticias.
10:55
And there's a little clockreloj in the lowerinferior left-handmano izquierda corneresquina,
277
640000
2000
Y hay un pequeño reloj en la esquina inferior izquierda
10:57
so you can see the animalanimal is about two minutesminutos into this.
278
642000
3000
para que puedan ver que el animal queda así unos 2 minutos.
11:00
And now this nextsiguiente clipacortar
279
645000
2000
Y ahora el siguiente video
11:02
is just eightocho minutesminutos laterluego.
280
647000
2000
es de sólo 8 minutos después.
11:04
And the samemismo tonetono is going to playjugar, and the lightligero is going to flashdestello again.
281
649000
3000
Se va a reproducir el mismo tono y se va a disparar otra vez la luz.
11:07
Okay, there it goesva. Right now.
282
652000
3000
Bien, ahí va. Ahora mismo.
11:10
And now you can see, just 10 minutesminutos into the experimentexperimentar,
283
655000
3000
Y ahora pueden ver, en sólo 10 minutos de experimento,
11:13
that we'venosotros tenemos equippedequipado the braincerebro by photoactivatingfotoactivación this areazona
284
658000
3000
que hemos equipado al cerebro foto-activando esta zona
11:16
to overcomesuperar the expressionexpresión
285
661000
2000
para superar la expresión
11:18
of this fearmiedo memorymemoria.
286
663000
2000
de esta memoria del miedo.
11:20
Now over the last couplePareja of yearsaños, we'venosotros tenemos goneido back to the treeárbol of life
287
665000
3000
Durante los últimos dos años hemos vuelto al árbol de la vida
11:23
because we wanted to find waysformas to turngiro circuitscircuitos in the braincerebro off.
288
668000
3000
porque queríamos encontrar maneras de apagar los circuitos del cerebro.
11:26
If we could do that, this could be extremelyextremadamente powerfulpoderoso.
289
671000
3000
Si pudiéramos hacerlo sería algo muy poderoso.
11:29
If you can deleteborrar cellsCélulas just for a fewpocos millisecondsmilisegundos or secondssegundos,
290
674000
3000
Si puedes eliminar células por unos milisegundos o segundos
11:32
you can figurefigura out what necessarynecesario rolepapel they playjugar
291
677000
2000
puedes darte cuenta del papel que desempeñan
11:34
in the circuitscircuitos in whichcual they're embeddedincrustado.
292
679000
2000
dentro de los circuitos en los que están insertas.
11:36
And we'venosotros tenemos now surveyedencuestado organismsorganismos from all over the treeárbol of life --
293
681000
2000
Y ahora hemos investigado organismos de todo el árbol de la vida
11:38
everycada kingdomReino of life exceptexcepto for animalsanimales, we see slightlyligeramente differentlydiferentemente.
294
683000
3000
de cada reino de la vida salvo el animal, que vemos levemente diferente.
11:41
And we foundencontró all sortstipo of moleculesmoléculas, they're calledllamado halorhodopsinshalorhodopsins or archaerhodopsinsarchaerhodopsins,
295
686000
3000
Y hallamos todo tipo de moléculas, que se llaman halorodopsinas o arqueorodopsinas,
11:44
that respondresponder to greenverde and yellowamarillo lightligero.
296
689000
2000
que responden a la luz verde y amarilla.
11:46
And they do the oppositeopuesto thing of the moleculemolécula I told you about before
297
691000
2000
Y hacen lo opuesto de la molécula que les conté antes,
11:48
with the blueazul lightligero activatoractivador channelrhodopsinchannelrhodopsin.
298
693000
3000
la del activador de luz azul, la canalrodopsina.
11:52
Let's give an exampleejemplo of where we think this is going to go.
299
697000
3000
Veamos un ejemplo de hacia dónde pensamos que va esto.
11:55
ConsiderConsiderar, for exampleejemplo, a conditioncondición like epilepsyepilepsia,
300
700000
3000
Consideren, por ejemplo, una condición como la epilepsia
11:58
where the braincerebro is overactivehiperactiva.
301
703000
2000
en la que el cerebro es hiperactivo.
12:00
Now if drugsdrogas failfallar in epilepticepiléptico treatmenttratamiento,
302
705000
2000
Ahora si fallan los medicamentos en el tratamiento de epilepsia,
12:02
one of the strategiesestrategias is to removeretirar partparte of the braincerebro.
303
707000
2000
una de las estrategias es eliminar parte del cerebro.
12:04
But that's obviouslyobviamente irreversibleirreversible, and there could be sidelado effectsefectos.
304
709000
2000
Pero eso, obviamente, es irreversible y podría tener efectos secundarios.
12:06
What if we could just turngiro off that braincerebro for a briefbreve amountcantidad of time,
305
711000
3000
¿Qué pasaría si pudiéramos apagar ese cerebro por un breve instante
12:09
untilhasta the seizureincautación diesmuere away,
306
714000
3000
hasta que el ataque se disipe
12:12
and causeporque the braincerebro to be restoredrestaurado to its initialinicial stateestado --
307
717000
3000
y hacer que el cerebro vuelva a su estado inicial?
12:15
sortordenar of like a dynamicaldinámico systemsistema that's beingsiendo coaxedpersuadido down into a stableestable stateestado.
308
720000
3000
Algo así como engatusar a un sistema dinámico hacia un estado estable.
12:18
So this animationanimación just triesintentos to explainexplique this conceptconcepto
309
723000
3000
Asi que esta animación solo trata de explicar este concepto:
12:21
where we madehecho these cellsCélulas sensitivesensible to beingsiendo turnedconvertido off with lightligero,
310
726000
2000
donde hicimos que estas células fotosensibles se apaguen con la luz,
12:23
and we beamhaz lightligero in,
311
728000
2000
encendimos la luz,
12:25
and just for the time it takes to shutcerrar down a seizureincautación,
312
730000
2000
y solo durante el tiempo que tarda en terminar el ataque
12:27
we're hopingesperando to be ablepoder to turngiro it off.
313
732000
2000
esperamos que se pueda apagar.
12:29
And so we don't have datadatos to showespectáculo you on this frontfrente,
314
734000
2000
No tenemos datos para mostrarles en este frente
12:31
but we're very excitedemocionado about this.
315
736000
2000
pero estamos muy entusiasmados con esto.
12:33
Now I want to closecerca on one storyhistoria,
316
738000
2000
Ahora yo quiero cerrar con una historia
12:35
whichcual we think is anotherotro possibilityposibilidad --
317
740000
2000
que creemos es otra posibilidad
12:37
whichcual is that maybe these moleculesmoléculas, if you can do ultra-preciseultra preciso controlcontrolar,
318
742000
2000
y es que estas moléculas, tal vez, si se puede lograr un control ultra-preciso,
12:39
can be used in the braincerebro itselfsí mismo
319
744000
2000
puedan usarse en el cerebro mismo
12:41
to make a newnuevo kindtipo of prostheticprotésico, an opticalóptico prostheticprotésico.
320
746000
3000
para hacer un nuevo tipo de prótesis, una prótesis óptica.
12:44
I alreadyya told you that electricaleléctrico stimulatorsestimuladores are not uncommonpoco común.
321
749000
3000
Ya les dije que los estimuladores eléctricos son ahora comunes.
12:47
Seventy-fiveSetenta y cinco thousandmil people have Parkinson'sParkinson deep-braincerebro profundo stimulatorsestimuladores implantedimplantado.
322
752000
3000
Hay 75 mil personas con implantes de estimuladores cerebrales para el Parkinson.
12:50
Maybe 100,000 people have CochlearCoclear implantsimplantes,
323
755000
2000
Quizá 100 mil personas con implantes cocleares
12:52
whichcual allowpermitir them to hearoír.
324
757000
2000
que les permiten oír.
12:54
There's anotherotro thing, whichcual is you've got to get these genesgenes into cellsCélulas.
325
759000
3000
Otro tema es que hay que llevar estos genes a las células.
12:57
And newnuevo hopeesperanza in genegene therapyterapia has been developeddesarrollado
326
762000
3000
Y ha surgido una nueva esperanza en terapia génica
13:00
because virusesvirus like the adeno-associatedadeno-asociado virusvirus,
327
765000
2000
debido a un virus como el virus adeno-asociado
13:02
whichcual probablyprobablemente mostmás of us around this roomhabitación have,
328
767000
2000
que probablemente la mayoría de los presentes tiene
13:04
and it doesn't have any symptomssíntomas,
329
769000
2000
y no presenta síntomas;
13:06
whichcual have been used in hundredscientos of patientspacientes
330
771000
2000
se ha usado en cientos de pacientes
13:08
to deliverentregar genesgenes into the braincerebro or the bodycuerpo.
331
773000
2000
para transportar genes al cerebro o al cuerpo.
13:10
And so farlejos, there have not been seriousgrave adverseadverso eventseventos
332
775000
2000
Y hasta ahora no ha habido efectos adversos graves
13:12
associatedasociado with the virusvirus.
333
777000
2000
asociados con el virus.
13:14
There's one last elephantelefante in the roomhabitación, the proteinsproteínas themselvessí mismos,
334
779000
3000
Hay un último elefante en la habitación, las propias proteínas,
13:17
whichcual come from algaealgas and bacteriabacteria and fungihongos,
335
782000
2000
procedentes de algas, bacterias y hongos,
13:19
and all over the treeárbol of life.
336
784000
2000
presentes en todo el árbol de la vida.
13:21
MostMás of us don't have fungihongos or algaealgas in our brainssesos,
337
786000
2000
Muchos de nosotros no tenemos hongos ni algas en el cerebro
13:23
so what is our braincerebro going to do if we put that in?
338
788000
2000
así que, ¿qué va a hacer el cerebro si le colocamos eso?
13:25
Are the cellsCélulas going to toleratetolerar it? Will the immuneinmune systemsistema reactreaccionar?
339
790000
2000
¿Las células lo van a tolerar? ¿Reaccionará el sistema inmunológico?
13:27
In its earlytemprano daysdías -- these have not been donehecho on humanshumanos yettodavía --
340
792000
2000
Está en fase preliminar, todavía no se ha probado en humanos,
13:29
but we're workingtrabajando on a varietyvariedad of studiesestudios
341
794000
2000
pero estamos trabajando en varios estudios
13:31
to try and examineexaminar this,
342
796000
2000
tratando de examinarlo.
13:33
and so farlejos we haven'tno tiene seenvisto overtabierto reactionsreacciones of any severitygravedad
343
798000
3000
Y hasta el momento no hemos visto reacciones de alguna severidad
13:36
to these moleculesmoléculas
344
801000
2000
a estas moléculas
13:38
or to the illuminationiluminación of the braincerebro with lightligero.
345
803000
3000
o a la iluminación del cerebro con luz.
13:41
So it's earlytemprano daysdías, to be upfronten la delantera, but we're excitedemocionado about it.
346
806000
3000
Para ser franco, estamos en una etapa preliminar pero estamos emocionados al respecto
13:44
I wanted to closecerca with one storyhistoria,
347
809000
2000
Quiero terminar con una historia
13:46
whichcual we think could potentiallypotencialmente
348
811000
2000
que creemos podría potencialmente
13:48
be a clinicalclínico applicationsolicitud.
349
813000
2000
ser una aplicación clínica.
13:50
Now there are manymuchos formsformularios of blindnessceguera
350
815000
2000
Ahora hay muchas formas de ceguera
13:52
where the photoreceptorsfotorreceptores,
351
817000
2000
en la que los fotorreceptores,
13:54
our lightligero sensorssensores that are in the back of our eyeojo, are goneido.
352
819000
3000
los sensores de luz que estan en el fondo del ojo, se han perdido
13:57
And the retinaretina, of coursecurso, is a complexcomplejo structureestructura.
353
822000
2000
Y la retina, por supuesto, es una estructura compleja.
13:59
Now let's zoomenfocar in on it here, so we can see it in more detaildetalle.
354
824000
2000
Ahora bien, ampliemos un poco para verlo con más detalle.
14:01
The photoreceptorfotorreceptor cellsCélulas are shownmostrado here at the topparte superior,
355
826000
3000
Las células fotorreceptoras se muestras aquí arriba
14:04
and then the signalsseñales that are detecteddetectado by the photoreceptorsfotorreceptores
356
829000
2000
y las señales que son detectadas por los fotorreceptores
14:06
are transformedtransformado by variousvarios computationscálculos
357
831000
2000
son transformadas por varios cálculos
14:08
untilhasta finallyfinalmente that layercapa of cellsCélulas at the bottomfondo, the ganglionganglio cellsCélulas,
358
833000
3000
hasta que al final esa capa de células de abajo, las células ganglionares,
14:11
relayrelé the informationinformación to the braincerebro,
359
836000
2000
transmite la información al cerebro,
14:13
where we see that as perceptionpercepción.
360
838000
2000
donde vemos eso como percepción.
14:15
In manymuchos formsformularios of blindnessceguera, like retinitisretinitis pigmentosapigmentosa,
361
840000
3000
En muchas formas de ceguera, como la a retinitis pigmentosa,
14:18
or macularmacular degenerationdegeneración,
362
843000
2000
o la degeneración macular,
14:20
the photoreceptorfotorreceptor cellsCélulas have atrophiedatrofiado or been destroyeddestruido.
363
845000
3000
las células fotorreceptoras están atrofiadas o destruidas.
14:23
Now how could you repairreparar this?
364
848000
2000
Ahora ¿Cómo puedes reparar esto?
14:25
It's not even clearclaro that a drugdroga could causeporque this to be restoredrestaurado,
365
850000
3000
Ni siquiera está claro que una medicina pueda hacer que esto se reestablezca
14:28
because there's nothing for the drugdroga to bindenlazar to.
366
853000
2000
porque no hay nada a donde se ligue el medicamento.
14:30
On the other handmano, lightligero can still get into the eyeojo.
367
855000
2000
Por otro lado, la luz aún puede entrar al ojo.
14:32
The eyeojo is still transparenttransparente and you can get lightligero in.
368
857000
3000
El ojo todavía es todavía transparente y la luz puede entrar.
14:35
So what if we could just take these channelrhodopsinschannelrhodopsins and other moleculesmoléculas
369
860000
3000
Asi que ¿Que tal si pudiéramos solo tomar estas canalrodopsinas y otras moléculas
14:38
and installinstalar them on some of these other sparede repuesto cellsCélulas
370
863000
2000
e instalarlas en alguna de estas otras células libres
14:40
and convertconvertir them into little camerascámaras.
371
865000
2000
y convertirlas en pequeñas cámaras?
14:42
And because there's so manymuchos of these cellsCélulas in the eyeojo,
372
867000
2000
Y dado que hay muchas de estas células en el ojo
14:44
potentiallypotencialmente, they could be very high-resolutionalta resolución camerascámaras.
373
869000
3000
podrían llegar a ser cámaras de muy alta definición.
14:47
So this is some work that we're doing.
374
872000
2000
Asi que esto es algo eel trabajo que estamos realizando.
14:49
It's beingsiendo led by one of our collaboratorscolaboradores,
375
874000
2000
Está siendo dirigido por uno de nuestros colaboradores,
14:51
AlanAlan HorsagerHorsager at USCUSC,
376
876000
2000
Alan Horsager en la USC,
14:53
and beingsiendo soughtbuscado to be commercializedcomercializado by a start-uppuesta en marcha companyempresa EosEos NeuroscienceNeurociencia,
377
878000
3000
y se procura que sea comercializado por una empresa nueva, Eos Neuroscience,
14:56
whichcual is fundedfundado by the NIHNIH.
378
881000
2000
financiada por el NIH.
14:58
And what you see here is a mouseratón tryingmolesto to solveresolver a mazelaberinto.
379
883000
2000
Y aquí vemos un ratón tratando de salir del laberinto.
15:00
It's a six-armseis brazos mazelaberinto. And there's a bitpoco of wateragua in the mazelaberinto
380
885000
2000
Es un laberinto de 6 brazos. Y tiene un poco de agua
15:02
to motivatemotivar the mouseratón to movemovimiento, or he'llinfierno just sitsentar there.
381
887000
2000
para motivar al ratón a moverse, o se quedaría allí sentado.
15:04
And the goalGol, of coursecurso, of this mazelaberinto
382
889000
2000
El objetivo del laberinto, por supuesto,
15:06
is to get out of the wateragua and go to a little platformplataforma
383
891000
2000
es salir del agua e ir a una pequeña plataforma
15:08
that's underdebajo the litiluminado topparte superior portPuerto.
384
893000
2000
que está en el puerto superior iluminada.
15:10
Now miceratones are smartinteligente, so this mouseratón solvesresuelve the mazelaberinto eventuallyfinalmente,
385
895000
3000
Ahora, los ratones son inteligentes, asi que este ratón al final sale del laberinto
15:13
but he does a brute-forcefuerza bruta searchbuscar.
386
898000
2000
pero hace una búsqueda por fuerza bruta.
15:15
He's swimmingnadando down everycada avenueavenida untilhasta he finallyfinalmente getsse pone to the platformplataforma.
387
900000
3000
Nada por todas las vías hasta que finalmente llega a la plataforma.
15:18
So he's not usingutilizando visionvisión to do it.
388
903000
2000
Asi que no está usando la visión para lograrlo.
15:20
These differentdiferente miceratones are differentdiferente mutationsmutaciones
389
905000
2000
Estos ratones son mutaciones diferentes
15:22
that recapitulaterecapitular differentdiferente kindsclases of blindnessceguera that affectafectar humanshumanos.
390
907000
3000
que semejan distintos tipos de ceguera que afectan a los humanos.
15:25
And so we're beingsiendo carefulcuidadoso in tryingmolesto to look at these differentdiferente modelsmodelos
391
910000
3000
Por eso somos cuidadosos en tratar de observar los distintos modelos
15:28
so we come up with a generalizedgeneralizado approachenfoque.
392
913000
2000
asi que llegamos a un enfoque generalizado.
15:30
So how are we going to solveresolver this?
393
915000
2000
Asi que ¿Cómo vamos a resolver esto?
15:32
We're going to do exactlyexactamente what we outlinedbosquejado in the previousanterior slidediapositiva.
394
917000
2000
Vamos a hacer exactamente lo que esbozamos en la diapositiva anterior.
15:34
We're going to take these blueazul lightligero photosensorsfotosensores
395
919000
2000
Vamos a tomar estos fotosensores de luz azul
15:36
and installinstalar them on a layercapa of cellsCélulas
396
921000
2000
y los vamos a instalar en una capa de células
15:38
in the middlemedio of the retinaretina in the back of the eyeojo
397
923000
3000
en el medio de la retina en la parte posterior del ojo
15:41
and convertconvertir them into a cameracámara --
398
926000
2000
para convertirlo en una cámara.
15:43
just like installinginstalando solarsolar cellsCélulas all over those neuronsneuronas
399
928000
2000
Es como instalar celdas solares en esas neuronas
15:45
to make them lightligero sensitivesensible.
400
930000
2000
para hacerlas sensibles a la luz.
15:47
LightLigero is convertedconvertido to electricityelectricidad on them.
401
932000
2000
En ellos la luz se convierte en electricidad.
15:49
So this mouseratón was blindciego a couplePareja weekssemanas before this experimentexperimentar
402
934000
3000
Asi que este ratón era ciego un par de semanas antes de este experimento
15:52
and receivedrecibido one dosedosis of this photosensitivefotosensible moleculemolécula in a virusvirus.
403
937000
3000
y recibió una dosis de esta molécula fotosensible en un virus.
15:55
And now you can see, the animalanimal can indeeden efecto avoidevitar wallsmuros
404
940000
2000
Ahora pueden ver, el animal puede de hecho evitar paredes
15:57
and go to this little platformplataforma
405
942000
2000
e ir a esta pequeña plataforma
15:59
and make cognitivecognitivo use of its eyesojos again.
406
944000
3000
y hacer un uso cognitivo de sus ojos nuevamente.
16:02
And to pointpunto out the powerpoder of this:
407
947000
2000
Y para destacar el poder que tiene esto:
16:04
these animalsanimales are ablepoder to get to that platformplataforma
408
949000
2000
estos animales son capaces de llegar a esa plataforma
16:06
just as fastrápido as animalsanimales that have seenvisto theirsu entiretodo livesvive.
409
951000
2000
justo tan rápido como los animales que han visto toda la vida.
16:08
So this pre-clinicalpre-clínico studyestudiar, I think,
410
953000
2000
Por eso creo que este estudio pre-clínico
16:10
bodesbodes hopeesperanza for the kindsclases of things
411
955000
2000
es un buen presagio para el tipo de cosas
16:12
we're hopingesperando to do in the futurefuturo.
412
957000
2000
que esperamos hacer en el futuro.
16:14
To closecerca, I want to pointpunto out that we're alsoademás exploringexplorador
413
959000
3000
Para terminar, quiero señalar que también estamos explorando
16:17
newnuevo businessnegocio modelsmodelos for this newnuevo fieldcampo of neurotechnologyneurotecnología.
414
962000
2000
nuevos modelos de negocio para este nuevo campo de la neurotecnología.
16:19
We're developingdesarrollando these toolsherramientas,
415
964000
2000
Estamos desarrollando estas herramientas
16:21
but we sharecompartir them freelylibremente with hundredscientos of groupsgrupos all over the worldmundo,
416
966000
2000
pero las compartimos en forma gratuita con cientos de grupos de todo el mundo
16:23
so people can studyestudiar and try to treattratar differentdiferente disorderstrastornos.
417
968000
2000
de tal manera que la gente pueda estudiar y tratar diferentes trastornos.
16:25
And our hopeesperanza is that, by figuringfigurando out braincerebro circuitscircuitos
418
970000
3000
Y esperamos que al entender los circuitos cerebrales
16:28
at a levelnivel of abstractionabstracción that letsdeja us repairreparar them and engineeringeniero them,
419
973000
3000
a un nivel de abstracción tal que nos permita repararlos y diseñarlos
16:31
we can take some of these intractableintratable disorderstrastornos that I told you about earliermás temprano,
420
976000
3000
podamos tomar alguno de estos trastornos intratables que les mencioné antes,
16:34
practicallyprácticamente noneninguna of whichcual are curedcurado,
421
979000
2000
que prácticamente no tienen cura,
16:36
and in the 21stst centurysiglo make them historyhistoria.
422
981000
2000
y hacer que en el siglo XXI sean historia.
16:38
Thank you.
423
983000
2000
Gracias.
16:40
(ApplauseAplausos)
424
985000
13000
(Aplausos)
16:53
JuanJuan EnriquezEnríquez: So some of the stuffcosas is a little densedenso.
425
998000
3000
Juan Enriquez: Algunas de las cosas son un poco densas.
16:56
(LaughterRisa)
426
1001000
2000
(Risas)
16:58
But the implicationstrascendencia
427
1003000
2000
Pero las consecuencias
17:00
of beingsiendo ablepoder to controlcontrolar seizuresconvulsiones or epilepsyepilepsia
428
1005000
3000
de poder controlar las convulsiones o la epilepsia
17:03
with lightligero insteaden lugar of drugsdrogas,
429
1008000
2000
con luz en vez de medicamentos
17:05
and beingsiendo ablepoder to targetobjetivo those specificallyespecíficamente
430
1010000
3000
y poder identificar eso específicamente
17:08
is a first steppaso.
431
1013000
2000
es un primer paso.
17:10
The secondsegundo thing that I think I heardoído you say
432
1015000
2000
Otra cosa que creo haber oído
17:12
is you can now controlcontrolar the braincerebro in two colorscolores,
433
1017000
3000
es que ahora tu puedes controlar el cerebro con dos colores.
17:15
like an on/off switchcambiar.
434
1020000
2000
Como un interruptor encendido/apagado.
17:17
EdEd BoydenBoyden: That's right.
435
1022000
2000
Ed Boyden: Correcto.
17:19
JEJE: WhichCual makeshace everycada impulseimpulso going throughmediante the braincerebro a binarybinario codecódigo.
436
1024000
3000
JE: Lo que hace de todo impulso que va al cerebro un código binario.
17:22
EBEB: Right, yeah.
437
1027000
2000
EB: Correcto, sí.
17:24
So with blueazul lightligero, we can drivemanejar informationinformación, and it's in the formformar of a one.
438
1029000
3000
Con la luz azul podemos conducir la información, en forma de uno.
17:27
And by turningtorneado things off, it's more or lessMenos a zerocero.
439
1032000
2000
Y atenuándola, sería como un cero.
17:29
So our hopeesperanza is to eventuallyfinalmente buildconstruir braincerebro coprocessorscoprocesadores
440
1034000
2000
Así esperamos, al final, construir coprocesadores del cerebro
17:31
that work with the braincerebro
441
1036000
2000
que funcionen con éste
17:33
so we can augmentaumentar functionsfunciones in people with disabilitiesdiscapacidades.
442
1038000
3000
para poder aumentar las funciones de las personas con discapacidad.
17:36
JEJE: And in theoryteoría, that meansmedio that,
443
1041000
2000
JE: Y, en teoría, eso significa que
17:38
as a mouseratón feelssiente, smellsolores,
444
1043000
2000
la forma en que el ratón siente, huele,
17:40
hearsescucha, touchestoques,
445
1045000
2000
oye, toca,
17:42
you can modelmodelo it out as a stringcuerda of onesunos and zerosceros.
446
1047000
3000
tu puedes modelar eso como una cadena de unos y ceros.
17:45
EBEB: Sure, yeah. We're hopingesperando to use this as a way of testingpruebas
447
1050000
2000
EB: Sí, claro. Esperamos usar esto como una manera de probar
17:47
what neuralneural codescódigos can drivemanejar certaincierto behaviorscomportamientos
448
1052000
2000
qué códigos neurales guían determinados comportamientos,
17:49
and certaincierto thoughtspensamientos and certaincierto feelingssentimientos,
449
1054000
2000
determinados pensamientos y sentimientos,
17:51
and use that to understandentender more about the braincerebro.
450
1056000
3000
y usar eso para entender más al cerebro.
17:54
JEJE: Does that mean that some day you could downloaddescargar memoriesrecuerdos
451
1059000
3000
JE: ¿Significa eso que algún día se podrán descargar memorias
17:57
and maybe uploadsubir them?
452
1062000
2000
y quizá cargar memorias?©
17:59
EBEB: Well that's something we're startingcomenzando to work on very harddifícil.
453
1064000
2000
EB: Bueno, eso es algo en lo que estamos empezando a trabajar arduamente.
18:01
We're now workingtrabajando on some work
454
1066000
2000
Ahora estamos trabajando en un trabajo
18:03
where we're tryingmolesto to tileazulejo the braincerebro with recordinggrabación elementselementos too.
455
1068000
2000
para revestir el cerebro con elementos que registren tambien.
18:05
So we can recordgrabar informationinformación and then drivemanejar informationinformación back in --
456
1070000
3000
Así, podemos grabar información y luego recuperarla;
18:08
sortordenar of computinginformática what the braincerebro needsnecesariamente
457
1073000
2000
es como calcular qué necesita el cerebro
18:10
in orderorden to augmentaumentar its informationinformación processingtratamiento.
458
1075000
2000
para aumentar su procesamiento de información.
18:12
JEJE: Well, that mightpodría changecambio a couplePareja things. Thank you. (EBEB: Thank you.)
459
1077000
3000
JE: Bueno, eso podría cambiar un par de cosas. Gracias. (EB: Gracias).
18:15
(ApplauseAplausos)
460
1080000
3000
(Aplausos)
Translated by Sebastian Betti
Reviewed by Gabriel Orozco Hoyuela

▲Back to top

ABOUT THE SPEAKER
Ed Boyden - Neuroengineer
Ed Boyden is a professor of biological engineering and brain and cognitive sciences at the MIT Media Lab and the MIT McGovern Institute.

Why you should listen

Ed Boyden leads the Synthetic Neurobiology Group, which develops tools for analyzing and repairing complex biological systems such as the brain. His group applies these tools in a systematic way in order to reveal ground truth scientific understandings of biological systems, which in turn reveal radical new approaches for curing diseases and repairing disabilities. These technologies include expansion microscopy, which enables complex biological systems to be imaged with nanoscale precision, and optogenetic tools, which enable the activation and silencing of neural activity with light (TED Talk: A light switch for neurons). Boyden also co-directs the MIT Center for Neurobiological Engineering, which aims to develop new tools to accelerate neuroscience progress.

Amongst other recognitions, Boyden has received the Breakthrough Prize in Life Sciences (2016), the BBVA Foundation Frontiers of Knowledge Award (2015), the Carnegie Prize in Mind and Brain Sciences (2015), the Jacob Heskel Gabbay Award (2013), the Grete Lundbeck Brain Prize (2013) and the NIH Director's Pioneer Award (2013). He was also named to the World Economic Forum Young Scientist list (2013) and the Technology Review World's "Top 35 Innovators under Age 35" list (2006). His group has hosted hundreds of visitors to learn how to use new biotechnologies and spun out several companies to bring inventions out of his lab and into the world. Boyden received his Ph.D. in neurosciences from Stanford University as a Hertz Fellow, where he discovered that the molecular mechanisms used to store a memory are determined by the content to be learned. Before that, he received three degrees in electrical engineering, computer science and physics from MIT. He has contributed to over 300 peer-reviewed papers, current or pending patents and articles, and he has given over 300 invited talks on his group's work.

More profile about the speaker
Ed Boyden | Speaker | TED.com