ABOUT THE SPEAKER
Greg Gage - Neuroscientist
TED Fellow Greg Gage helps kids investigate the neuroscience in their own backyards.

Why you should listen

As half of Backyard Brains, neuroscientist and engineer Greg Gage builds the SpikerBox -- a small rig that helps kids understand the electrical impulses that control the nervous system. He's passionate about helping students understand (viscerally) how our brains and our neurons work, because, as he said onstage at TED2012, we still know very little about how the brain works -- and we need to start inspiring kids early to want to know more.

Before becoming a neuroscientist, Gage worked as an electrical engineer making touchscreens. As he told the Huffington Post: "Scientific equipment in general is pretty expensive, but it's silly because before [getting my PhD in neuroscience] I was an electrical engineer, and you could see that you could make it yourself. So we started as a way to have fun, to show off to our colleagues, but we were also going into classrooms around that time and we thought, wouldn't it be cool if you could bring these gadgets with us so the stuff we were doing in advanced Ph.D. programs in neuroscience, you could also do in fifth grade?" His latest pieces of gear: the Roboroach, a cockroach fitted with an electric backpack that makes it turn on command, and BYB SmartScope, a smartphone-powered microscope.

More profile about the speaker
Greg Gage | Speaker | TED.com
DIY Neuroscience

Greg Gage: This computer is learning to read your mind

Filmed:
339,691 views

Modern technology lets neuroscientists peer into the human brain, but can it also read minds? Armed with the device known as an electroencephalogram, or EEG, and some computing wizardry, our intrepid neuroscientists attempt to peer into a subject's thoughts.
- Neuroscientist
TED Fellow Greg Gage helps kids investigate the neuroscience in their own backyards. Full bio

Double-click the English transcript below to play the video.

00:12
GregGreg GageCalibrar: Mind-readingLectura de la mente.
You've seenvisto this in sci-ficiencia ficción moviespelículas:
0
203
2859
Greg Gage: La lectura del pensamiento.
Se ve en películas de ciencia ficción,
00:15
machinesmáquinas that can readleer our thoughtspensamientos.
1
3086
1857
las máquinas que nos leen la mente.
00:16
Howeversin embargo, there are devicesdispositivos todayhoy
2
4967
1798
Pero existen aparatos hoy
que pueden leer la actividad eléctrica
00:18
that can readleer the electricaleléctrico
activityactividad from our brainssesos.
3
6789
2524
del cerebro.
00:21
We call this the EEGEEG.
4
9337
1272
Lo llamamos el EEG.
00:23
Is there informationinformación
containedcontenido in these brainwavesondas cerebrales?
5
11695
2829
¿Hay información contenida
en estas ondas cerebrales?
00:26
And if so, could we traintren a computercomputadora
to readleer our thoughtspensamientos?
6
14548
2813
¿Podríamos programar una computadora
para leer los pensamientos?
00:29
My buddycompañero NathanNathan
has been workingtrabajando to hackcortar the EEGEEG
7
17385
2904
Mi amigo Nathan
está intentando hackear el EEG
00:32
to buildconstruir a mind-readinglectura de la mente machinemáquina.
8
20313
1676
para construir una máquina
que pueda leer la mente.
00:34
[DIYDIY NeuroscienceNeurociencia]
9
22013
2457
[Neurociencia casera]
00:36
So this is how the EEGEEG workstrabajos.
10
24939
1561
Así funciona el EEG:
00:38
InsideDentro your headcabeza is a braincerebro,
11
26524
1844
dentro de la cabeza está el cerebro,
00:40
and that braincerebro is madehecho
out of billionsmiles de millones of neuronsneuronas.
12
28392
2558
y el cerebro se compone de
miles de millones de neuronas.
00:42
EachCada of those neuronsneuronas sendsenvía
an electricaleléctrico messagemensaje to eachcada other.
13
30974
3007
Cada neurona transmite
un mensaje eléctrico la una a la otra.
Estos pequeños mensajes pueden combinarse
para formar una onda eléctrica
00:46
These smallpequeña messagesmensajes can combinecombinar
to make an electricaleléctrico waveola
14
34005
2814
00:48
that we can detectdetectar on a monitormonitor.
15
36843
1570
que se detecta en un monitor.
00:50
Now traditionallytradicionalmente, the EEGEEG
can tell us large-scaleGran escala things,
16
38437
2724
Tradicionalmente, el EEG
nos puede decir cosas generales,
00:53
for exampleejemplo if you're asleepdormido
or if you're alertalerta.
17
41185
2350
por ejemplo, si uno está
dormido o despierto.
00:55
But can it tell us anything elsemás?
18
43559
1594
Pero ¿nos puede decir algo más?
00:57
Can it actuallyactualmente readleer our thoughtspensamientos?
19
45177
1702
¿Puede realmente leer los pensamientos?
00:58
We're going to testprueba this,
20
46903
1219
Lo vamos a comprobar.
01:00
and we're not going to startcomienzo
with some complexcomplejo thoughtspensamientos.
21
48146
2623
No empezaremos con pensamientos complejos;
haremos algo muy sencillo.
01:02
We're going to do something very simplesencillo.
22
50793
1977
¿Podemos interpretar lo que alguien ve
utilizando solo sus ondas cerebrales?
01:04
Can we interpretinterpretar what someonealguien is seeingviendo
usingutilizando only theirsu brainwavesondas cerebrales?
23
52794
3253
Nathan empezará por pegar electrodos
en la cabeza de Christy.
01:08
Nathan'sDe Nathan going to beginempezar by placingcolocación
electrodeselectrodos on Christy'sDe Christy headcabeza.
24
56071
3000
Nathan: Mi vida está enredada.
01:11
NathanNathan: My life is tangledenredado.
25
59095
1523
01:12
(LaughterRisa)
26
60642
1150
(Risas)
01:14
GGGG: And then he's going to showespectáculo her
a bunchmanojo of picturesimágenes
27
62152
2584
GG: Luego le mostrará
una serie de imágenes
de cuatro categorías diferentes.
01:16
from fourlas cuatro differentdiferente categoriescategorías.
28
64760
1521
Nathan: Una cara, una casa,
un paisaje e imágenes raras.
01:18
NathanNathan: FaceCara, housecasa, scenerypaisaje
and weirdextraño picturesimágenes.
29
66305
2654
01:20
GGGG: As we showespectáculo ChristyChristy
hundredscientos of these imagesimágenes,
30
68983
2498
GG: Mientras le mostramos a Christy
centenares de estas imágenes,
01:23
we are alsoademás capturingcapturando the electricaleléctrico wavesolas
ontosobre Nathan'sDe Nathan computercomputadora.
31
71505
3543
se están registrando las ondas eléctricas
en la computadora de Nathan.
01:27
We want to see if we can detectdetectar
any visualvisual informationinformación about the photosfotos
32
75072
3386
Queremos ver si podemos detectar
información visual sobre las fotos
contenida en las ondas cerebrales,
01:30
containedcontenido in the brainwavesondas cerebrales,
33
78482
1352
así que al terminar, sabremos
si el EEG nos puede decir
01:31
so when we're donehecho,
we're going to see if the EEGEEG
34
79858
2331
01:34
can tell us what kindtipo of pictureimagen
ChristyChristy is looking at,
35
82213
2598
qué tipo de imagen Christy está mirando.
Y si este es el caso,
01:36
and if it does, eachcada categorycategoría
should triggerdesencadenar a differentdiferente braincerebro signalseñal.
36
84835
3584
cada categoría debe desencadenar
una señal diferente del cerebro.
01:40
OK, so we collectedrecogido all the rawcrudo EEGEEG datadatos,
37
88443
2628
Bien, recolectamos todos los datos
sin procesar del EEG,
01:43
and this is what we got.
38
91095
1150
y estos son los resultados.
01:45
It all looksmiradas prettybonita messysucio,
so let's arrangeorganizar them by pictureimagen.
39
93389
2938
Se ven bastante desorganizados,
entonces ordenémoslos por imagen.
Aún está demasiado caótico
para ver alguna diferencia,
01:48
Now, still a bitpoco too noisyruidoso
to see any differencesdiferencias,
40
96826
2656
01:51
but if we averagepromedio the EEGEEG
acrossa través de all imageimagen typestipos
41
99506
3040
pero si igualamos el EEG
entre todos los tipos de imágenes
01:54
by aligningalineando them
to when the imageimagen first appearedapareció,
42
102570
2436
y las alineamos según el momento
en que la imagen apareció
01:57
we can removeretirar this noiseruido,
43
105030
1617
podemos normalizar el caos,
y dentro de poco,
01:58
and prettybonita soonpronto, we can see
some dominantdominante patternspatrones
44
106671
2334
vemos que unas tendencias principales
emergen para cada categoría.
02:01
emergesurgir for eachcada categorycategoría.
45
109029
1564
02:02
Now the signalsseñales all
still look prettybonita similarsimilar.
46
110617
2156
Las señales todavía se ven
bastante similares.
02:04
Let's take a closercerca look.
47
112797
1215
Mirémoslas más de cerca.
02:06
About a hundredcien millisecondsmilisegundos
after the imageimagen comesproviene on,
48
114036
2525
Como a cien milisegundos
después de que sale la imagen,
02:08
we see a positivepositivo bumpbache in all fourlas cuatro casescasos,
49
116585
2628
vemos un aumento positivo
en cada uno de los cuarto casos.
02:11
and we call this the P100,
and what we think that is
50
119237
2789
Lo llamamos el P100,
y creemos que eso es
lo que pasa en el cerebro
02:14
is what happenssucede in your braincerebro
when you recognizereconocer an objectobjeto.
51
122050
3075
cuando reconoces un objeto.
Pero ¡guau!, mira la señal para la cara.
02:17
But damnMaldita sea, look at
that signalseñal for the facecara.
52
125149
2086
02:19
It looksmiradas differentdiferente than the othersotros.
53
127259
1711
Parece diferente de las otras.
02:20
There's a negativenegativo dipinmersión
about 170 millisecondsmilisegundos
54
128994
2890
Hay una baja a unos 170 milisegundos
después de que sale la imagen.
02:23
after the imageimagen comesproviene on.
55
131908
1540
02:25
What could be going on here?
56
133472
1750
¿Qué estará pasando aquí?
02:27
ResearchInvestigación showsmuestra that our braincerebro
has a lot of neuronsneuronas that are dedicateddedicado
57
135246
3240
Los estudios demuestran que
el cerebro tiene muchas neuronas
dedicadas al reconocimiento
de caras humanas.
02:30
to recognizingreconociendo humanhumano facescaras,
58
138510
1459
02:31
so this N170 spikeespiga could be
all those neuronsneuronas
59
139993
2844
Entonces esta caída de N170
podrían ser todas esas neuronas
02:34
firingdisparo at onceuna vez in the samemismo locationubicación,
60
142861
1985
que se activan a la vez en el mismo sitio,
02:36
and we can detectdetectar that in the EEGEEG.
61
144870
1634
Y podemos detectarlo en el EEG.
Hay dos puntos claves aquí.
02:39
So there are two takeawayscomida para llevar here.
62
147083
1820
02:40
One, our eyesojos can't really detectdetectar
the differencesdiferencias in patternspatrones
63
148927
3085
Uno: los ojos no pueden detectar
diferencias en los patrones
02:44
withoutsin averagingpromediando out the noiseruido,
64
152036
1571
sin que se iguale el ruido.
02:45
and two, even after removingeliminar the noiseruido,
65
153631
2237
Y dos: aun después de que
se elimina el ruido,
02:47
our eyesojos can only pickrecoger up
the signalsseñales associatedasociado with facescaras.
66
155892
3001
los ojos solo pueden detectar
las señales asociadas con las caras.
02:50
So this is where we turngiro
to machinemáquina learningaprendizaje.
67
158917
2268
Entonces, recurrimos
al aprendizaje automático.
02:53
Now, our eyesojos are not very good
at pickingcosecha up patternspatrones in noisyruidoso datadatos,
68
161209
3976
Los ojos no son muy buenos
para identificar patrones
entre datos caóticos,
02:57
but machinemáquina learningaprendizaje algorithmsAlgoritmos
are designeddiseñado to do just that,
69
165209
2946
pero los algoritmos
de aprendizaje automático
están precisamente para eso.
03:00
so could we take a lot of picturesimágenes
and a lot of datadatos
70
168179
3201
Entonces, ¿podríamos tomar
muchas imágenes y datos
y entrarlos a una computadora
03:03
and feedalimentar it in and traintren a computercomputadora
71
171404
1790
para programarla a interpretar
lo que Christy está viendo en tiempo real?
03:05
to be ablepoder to interpretinterpretar
what ChristyChristy is looking at in realreal time?
72
173218
3381
03:09
We're tryingmolesto to codecódigo the informationinformación
that's comingviniendo out of her EEGEEG
73
177088
4117
Tratamos de escribir la información
que sale de su EEG
03:13
in realreal time
74
181229
1175
en tiempo real,
03:14
and predictpredecir what it is
that her eyesojos are looking at.
75
182428
2461
y predecir lo que sus ojos están viendo.
03:16
And if it workstrabajos, what we should see
76
184913
1727
Y si funciona, entonces cada vez
que le toca una imagen del paisaje,
03:18
is everycada time that she getsse pone
a pictureimagen of scenerypaisaje,
77
186664
2381
debe decir: paisaje, paisaje,
paisaje, paisaje.
03:21
it should say scenerypaisaje,
scenerypaisaje, scenerypaisaje, scenerypaisaje.
78
189069
2286
Y cuando es una cara:
cara, cara, cara, cara.
03:23
A facecara -- facecara, facecara, facecara, facecara,
79
191379
1957
03:25
but it's not quitebastante workingtrabajando that way,
is what we're discoveringdescubriendo.
80
193360
3531
Pero no está funcionando exactamente así,
aparentemente.
03:33
(LaughterRisa)
81
201385
3548
(Risas)
03:36
OK.
82
204957
1151
Muy bien.
03:38
DirectorDirector: So what's going on here?
GGGG: We need a newnuevo careercarrera, I think.
83
206132
3382
Christy: ¿Qué está pasando aquí?
GG: Necesitamos una nueva carrera, creo.
03:41
(LaughterRisa)
84
209538
1070
(Risas)
03:42
OK, so that was a massivemasivo failurefracaso.
85
210632
2444
GG: Bien, eso fue un enorme fracaso.
03:45
But we're still curiouscurioso:
How farlejos could we pushempujar this technologytecnología?
86
213100
3212
Pero seguimos curiosos:
¿Hasta dónde podríamos
llevar esta tecnología?
03:48
And we lookedmirado back at what we did.
87
216336
1640
Revisamos lo que habíamos hecho.
03:50
We noticednotado that the datadatos was comingviniendo
into our computercomputadora very quicklycon rapidez,
88
218000
3143
Notamos que los datos entraban
a la computadora muy rápido,
sin indicar dónde ocurrían
los intervalos entre imágenes.
03:53
withoutsin any timingsincronización
of when the imagesimágenes camevino on,
89
221167
2241
03:55
and that's the equivalentequivalente
of readingleyendo a very long sentencefrase
90
223432
2876
Eso sería el equivalente de leer
una oración muy larga
sin espacios entre las palabras.
03:58
withoutsin spacesespacios betweenEntre the wordspalabras.
91
226332
1605
Algo así sería difícil de leer,
03:59
It would be harddifícil to readleer,
92
227961
1438
04:01
but onceuna vez we addañadir the spacesespacios,
individualindividual wordspalabras appearAparecer
93
229423
3713
pero una vez que insertemos los espacios,
aparecen las palabras individuales
04:05
and it becomesse convierte a lot more understandablecomprensible.
94
233160
2044
y es mucho más comprensible.
04:07
But what if we cheatengañar a little bitpoco?
95
235228
1847
Pero ¿qué pasa si hacemos trampa?
Utilizando un sensor, podemos
decirle a la computadora
04:09
By usingutilizando a sensorsensor, we can tell
the computercomputadora when the imageimagen first appearsaparece.
96
237099
3537
el momento en que sale la imagen.
04:12
That way, the brainwaveonda cerebral stopsparadas beingsiendo
a continuouscontinuo streamcorriente of informationinformación,
97
240660
3602
De ese modo, la onda cerebral deja de ser
un flujo continuo de información,
04:16
and insteaden lugar becomesse convierte
individualindividual packetspaquetes of meaningsentido.
98
244286
2711
y en cambio se vuelven unidades
individuales de significado.
04:19
Alsotambién, we're going
to cheatengañar a little bitpoco more,
99
247021
2368
Vamos a hacer un poquito más de trampa,
04:21
by limitinglimitando the categoriescategorías to two.
100
249413
1812
usando solo dos de las categorías.
04:23
Let's see if we can do
some real-timetiempo real mind-readinglectura de la mente.
101
251249
2383
Veamos si podemos leer la mente
en tiempo real.
En este nuevo experimento,
lo restringimos un poco más
04:25
In this newnuevo experimentexperimentar,
102
253656
1235
04:26
we're going to constrictapretar it
a little bitpoco more
103
254915
2097
04:29
so that we know the onsetcomienzo of the imageimagen
104
257036
2252
para saber el momento
en que sale la imagen,
04:31
and we're going to limitlímite
the categoriescategorías to "facecara" or "scenerypaisaje."
105
259312
3382
y limitamos las categorías
a solo "cara" y "paisaje".
04:35
NathanNathan: FaceCara. CorrectCorrecto.
106
263097
1511
Nathan: Cara. Correcto.
04:37
SceneryPaisaje. CorrectCorrecto.
107
265780
1351
Paisaje. Correcto.
04:40
GGGG: So right now,
everycada time the imageimagen comesproviene on,
108
268251
2373
GG: Así que cada vez
que aparece la imagen,
04:42
we're takingtomando a pictureimagen
of the onsetcomienzo of the imageimagen
109
270648
2266
sacamos una foto del momento en que sale
04:44
and decodingdescodificación the EEGEEG.
110
272938
1695
y desciframos las ondas del EEG.
04:46
It's gettingconsiguiendo correctcorrecto.
111
274657
1256
Está mejorando.
04:47
NathanNathan: Yes. FaceCara. CorrectCorrecto.
112
275937
1579
Nathan: Sí. Cara. Correcto.
04:49
GGGG: So there is informationinformación
in the EEGEEG signalseñal, whichcual is coolguay.
113
277540
2859
GG: Entonces sí, hay información
en la señal del EEG,
nada más la tuvimos que alinear
con la apariencia de la imagen.
04:52
We just had to alignalinear it
to the onsetcomienzo of the imageimagen.
114
280423
2537
04:55
NathanNathan: SceneryPaisaje. CorrectCorrecto.
115
283307
1311
Nathan: Paisaje. Correcto.
04:59
FaceCara. Yeah.
116
287344
1150
Cara. Sí.
05:00
GGGG: This meansmedio there is some
informationinformación there,
117
288518
2288
GG: Esto significa que sí,
hay información presente,
05:02
so if we know at what time
the pictureimagen camevino on,
118
290830
2913
y si sabemos el momento
en que apareció la imagen,
05:05
we can tell what typetipo of pictureimagen it was,
119
293767
1999
podemos determinar qué tipo de imagen era,
05:07
possiblyposiblemente, at leastmenos on averagepromedio,
by looking at these evokedevocado potentialspotenciales.
120
295790
5096
posiblemente, o por lo menos en promedio,
observando estos potenciales activados.
05:12
NathanNathan: ExactlyExactamente.
121
300910
1325
Nathan: Exactamente.
05:14
GGGG: If you had told me at the beginningcomenzando
of this projectproyecto this was possibleposible,
122
302259
3521
GG: Si me hubieras dicho al principio
que esto era posible,
habría dicho que no hay manera.
05:17
I would have said no way.
123
305804
1251
No creí que fuera posible.
05:19
I literallyliteralmente did not think
we could do this.
124
307079
2000
¿De verdad funcionó nuestro experimento
de lectura del pensamiento?
05:21
Did our mind-readinglectura de la mente
experimentexperimentar really work?
125
309103
2066
05:23
Yes, but we had to do a lot of cheatingengañando.
126
311193
1975
Sí, pero tuvimos que hacer mucha trampa.
05:25
It turnsvueltas out you can find
some interestinginteresante things in the EEGEEG,
127
313192
2905
Al final, puedes encontrar
algunas cosas interesantes en el EEG,
05:28
for exampleejemplo if you're
looking at someone'sde alguien facecara,
128
316121
2290
por ejemplo, si estás mirando
la cara de alguien.
05:30
but it does have a lot of limitationslimitaciones.
129
318435
2157
Pero está bastante limitado.
05:32
PerhapsQuizás advancesavances in machinemáquina learningaprendizaje
will make hugeenorme stridespasos,
130
320616
2946
Quizás se harán grandes avances
en el aprendizaje automático
05:35
and one day we will be ablepoder to decodedescodificar
what's going on in our thoughtspensamientos.
131
323586
3390
y algún día podremos descifrar
lo que pasa en nuestros pensamientos.
05:39
But for now, the nextsiguiente time a companyempresa saysdice
that they can harnessaprovechar your brainwavesondas cerebrales
132
327000
4077
Pero por ahora, cuando una compañía dice
que pueden emplear tus ondas cerebrales
05:43
to be ablepoder to controlcontrolar devicesdispositivos,
133
331101
1750
para poder controlar aparatos,
05:44
it is your right, it is your dutydeber
to be skepticalescéptico.
134
332875
3310
es tu derecho --es tu obligación--
ser escéptico.
Translated by Camille Martínez
Reviewed by Sebastian Betti

▲Back to top

ABOUT THE SPEAKER
Greg Gage - Neuroscientist
TED Fellow Greg Gage helps kids investigate the neuroscience in their own backyards.

Why you should listen

As half of Backyard Brains, neuroscientist and engineer Greg Gage builds the SpikerBox -- a small rig that helps kids understand the electrical impulses that control the nervous system. He's passionate about helping students understand (viscerally) how our brains and our neurons work, because, as he said onstage at TED2012, we still know very little about how the brain works -- and we need to start inspiring kids early to want to know more.

Before becoming a neuroscientist, Gage worked as an electrical engineer making touchscreens. As he told the Huffington Post: "Scientific equipment in general is pretty expensive, but it's silly because before [getting my PhD in neuroscience] I was an electrical engineer, and you could see that you could make it yourself. So we started as a way to have fun, to show off to our colleagues, but we were also going into classrooms around that time and we thought, wouldn't it be cool if you could bring these gadgets with us so the stuff we were doing in advanced Ph.D. programs in neuroscience, you could also do in fifth grade?" His latest pieces of gear: the Roboroach, a cockroach fitted with an electric backpack that makes it turn on command, and BYB SmartScope, a smartphone-powered microscope.

More profile about the speaker
Greg Gage | Speaker | TED.com