ABOUT THE SPEAKER
Tan Le - Entrepreneur
Tan Le is the founder & CEO of Emotiv, a bioinformatics company that's working on identifying biomarkers for mental and other neurological conditions using electroencephalography (EEG).

Why you should listen

Tan Le is the co-founder and president of Emotiv. Before this, she headed a firm that worked on a new form of remote control that uses brainwaves to control digital devices and digital media. It's long been a dream to bypass the mechanical (mouse, keyboard, clicker) and have our digital devices respond directly to what we think. Emotiv's EPOC headset uses 16 sensors to listen to activity across the entire brain. Software "learns" what each user's brain activity looks like when one, for instance, imagines a left turn or a jump.

Le herself has an extraordinary story -- a refugee from Vietnam at age 4, she entered college at 16 and has since become a vital young leader in her home country of Australia.

More profile about the speaker
Tan Le | Speaker | TED.com
TEDGlobal 2010

Tan Le: A headset that reads your brainwaves

Tan Le: Um fone que lê as suas ondas cerebrais

Filmed:
2,732,929 views

O novo e impressionante dispositivo para computador de Tan Le lê suas ondas cerebrais, tornando possível controlar objetos virtuais, e até mesmo aparelhos eletrônicos reais, apenas com o pensamento (e um pouco de concentração). Ela demonstra o aparelho, e fala sobre suas inúmeras aplicações.
- Entrepreneur
Tan Le is the founder & CEO of Emotiv, a bioinformatics company that's working on identifying biomarkers for mental and other neurological conditions using electroencephalography (EEG). Full bio

Double-click the English transcript below to play the video.

00:16
Up until now, our communication with machines
0
1000
2000
Até agora, nossa comunicação com máquinas
00:18
has always been limited
1
3000
2000
tem sido sempre limitada
00:20
to conscious and direct forms.
2
5000
2000
a formas conscientes e diretas.
00:22
Whether it's something simple
3
7000
2000
Seja algo simples
00:24
like turning on the lights with a switch,
4
9000
2000
como ligar as luzes no interruptor,
00:26
or even as complex as programming robotics,
5
11000
3000
ou complexo como programação robótica,
00:29
we have always had to give a command to a machine,
6
14000
3000
tivemos sempre que dar um comando para uma máquina,
00:32
or even a series of commands,
7
17000
2000
ou mesmo uma série de comandos,
00:34
in order for it to do something for us.
8
19000
3000
para que ela faça algo por nós.
00:37
Communication between people, on the other hand,
9
22000
2000
Comunicação entre pessoas por outro lado,
00:39
is far more complex and a lot more interesting
10
24000
3000
é ainda mais complexa e bem mais interessante,
00:42
because we take into account
11
27000
2000
porque levamos em conta
00:44
so much more than what is explicitly expressed.
12
29000
3000
muito mais do que está explicitamente expresso.
00:47
We observe facial expressions, body language,
13
32000
3000
Observamos expressões faciais, linguagem corporal,
00:50
and we can intuit feelings and emotions
14
35000
2000
e podemos intuir sentimentos e emoções
00:52
from our dialogue with one another.
15
37000
3000
de nosso diálogo com o outro.
00:55
This actually forms a large part
16
40000
2000
Na verdade isto forma grande parte
00:57
of our decision-making process.
17
42000
2000
de nosso processo decisório.
00:59
Our vision is to introduce
18
44000
2000
Nossa visão é introduzir
01:01
this whole new realm of human interaction
19
46000
3000
toda esta nova realidade da interação humana
01:04
into human-computer interaction
20
49000
2000
para a interação homem-máquina,
01:06
so that computers can understand
21
51000
2000
para que os computadores possam entender
01:08
not only what you direct it to do,
22
53000
2000
não só o que você lhes ordena,
01:10
but it can also respond
23
55000
2000
mas também respondam
01:12
to your facial expressions
24
57000
2000
a suas expressões faciais
01:14
and emotional experiences.
25
59000
2000
e experiências emocionais.
01:16
And what better way to do this
26
61000
2000
E qual jeito melhor de fazê-lo
01:18
than by interpreting the signals
27
63000
2000
do que interpretando os sinais
01:20
naturally produced by our brain,
28
65000
2000
naturalmente produzidos pelo nosso cérebro,
01:22
our center for control and experience.
29
67000
3000
nosso centro de controle e experiência.
01:25
Well, it sounds like a pretty good idea,
30
70000
2000
Bom, parece ser uma ideia muito boa,
01:27
but this task, as Bruno mentioned,
31
72000
2000
mas a tarefa, como Bruno mencionou,
01:29
isn't an easy one for two main reasons:
32
74000
3000
não é fácil por dois motivos:
01:32
First, the detection algorithms.
33
77000
3000
Primeiro, os algoritmos de detecção.
01:35
Our brain is made up of
34
80000
2000
Nosso cérebro é feito de
01:37
billions of active neurons,
35
82000
2000
bilhões de neurônios ativos,
01:39
around 170,000 km
36
84000
3000
cerca de 170.000 Km
01:42
of combined axon length.
37
87000
2000
da extensão combinada dos axônios.
01:44
When these neurons interact,
38
89000
2000
Quando estes neurônios interagem,
01:46
the chemical reaction emits an electrical impulse,
39
91000
2000
a reação química emite um impulso elétrico
01:48
which can be measured.
40
93000
2000
que pode ser medido.
01:50
The majority of our functional brain
41
95000
3000
A maior parte de nosso cérebro funcional
01:53
is distributed over
42
98000
2000
é distribuída pela
01:55
the outer surface layer of the brain,
43
100000
2000
superfície exterior do cérebro.
01:57
and to increase the area that's available for mental capacity,
44
102000
3000
E para aumentar a área disponível para a capacidade mental,
02:00
the brain surface is highly folded.
45
105000
3000
a superfície cerebral é toda dobrada.
02:03
Now this cortical folding
46
108000
2000
E essas dobras do córtex
02:05
presents a significant challenge
47
110000
2000
apresentam um desafio significativo
02:07
for interpreting surface electrical impulses.
48
112000
3000
na interpretação dos impulsos elétricos da superfície.
02:10
Each individual's cortex
49
115000
2000
Todo córtex de um invíduo
02:12
is folded differently,
50
117000
2000
é dobrado diferentemente,
02:14
very much like a fingerprint.
51
119000
2000
quase como uma digital.
02:16
So even though a signal
52
121000
2000
Assim, mesmo que um sinal
02:18
may come from the same functional part of the brain,
53
123000
3000
venha de uma mesma parte funcional do cérebro,
02:21
by the time the structure has been folded,
54
126000
2000
na época que a estrutura se dobrou,
02:23
its physical location
55
128000
2000
sua localização física
02:25
is very different between individuals,
56
130000
2000
é bem diferente entre indivíduos,
02:27
even identical twins.
57
132000
3000
mesmo gêmeos idênticos.
02:30
There is no longer any consistency
58
135000
2000
Não existe mais qualquer consistência
02:32
in the surface signals.
59
137000
2000
nos sinais da superfície.
02:34
Our breakthrough was to create an algorithm
60
139000
2000
Nosso avanço foi criar um algoritmo
02:36
that unfolds the cortex,
61
141000
2000
que estenda o córtex,
02:38
so that we can map the signals
62
143000
2000
para que possamos mapear os sinais
02:40
closer to its source,
63
145000
2000
mais próximos de sua origem,
02:42
and therefore making it capable of working across a mass population.
64
147000
3000
e portanto possibilitar trabalhar toda uma população em massa.
02:46
The second challenge
65
151000
2000
O segundo desafio
02:48
is the actual device for observing brainwaves.
66
153000
3000
é o dispositivo atual para observar ondas cerebrais.
02:51
EEG measurements typically involve
67
156000
2000
Medições de EEG tipicamente incluem
02:53
a hairnet with an array of sensors,
68
158000
3000
uma rede com vários sensores,
02:56
like the one that you can see here in the photo.
69
161000
3000
como essa que vocês podem ver na foto.
02:59
A technician will put the electrodes
70
164000
2000
Um técnico colocará os eletrodos
03:01
onto the scalp
71
166000
2000
sobre o couro cabeludo
03:03
using a conductive gel or paste
72
168000
2000
usando um gel ou pasta condutora
03:05
and usually after a procedure of preparing the scalp
73
170000
3000
e normalmente após uma preparação do couro cabeludo
03:08
by light abrasion.
74
173000
2000
com um abrasivo leve.
03:10
Now this is quite time consuming
75
175000
2000
Hoje esse processo consome tempo
03:12
and isn't the most comfortable process.
76
177000
2000
e não é dos mais confortáveis.
03:14
And on top of that, these systems
77
179000
2000
E acima de tudo, estes sistemas
03:16
actually cost in the tens of thousands of dollars.
78
181000
3000
na verdade custam dezenas de milhares de dólares.
03:20
So with that, I'd like to invite onstage
79
185000
3000
Assim, gostaria de convidar ao palco
03:23
Evan Grant, who is one of last year's speakers,
80
188000
2000
Evan Grant, que foi um dos oradores no ano passado
03:25
who's kindly agreed
81
190000
2000
que gentilmente concordou
03:27
to help me to demonstrate
82
192000
2000
em me ajudar a demonstrar
03:29
what we've been able to develop.
83
194000
2000
o que conseguimos desenvolver.
03:31
(Applause)
84
196000
6000
(Aplausos)
03:37
So the device that you see
85
202000
2000
O dispositivo que vêem
03:39
is a 14-channel, high-fidelity
86
204000
2000
é um sistema de 14 canais, com alta-fidelidade
03:41
EEG acquisition system.
87
206000
2000
para leitura de EEG.
03:43
It doesn't require any scalp preparation,
88
208000
3000
Não necessita nenhuma preparação para o couro cabeludo,
03:46
no conductive gel or paste.
89
211000
2000
nem gel ou pasta condutora.
03:48
It only takes a few minutes to put on
90
213000
3000
Leva apenas alguns minutos para colocá-lo
03:51
and for the signals to settle.
91
216000
2000
e prepará-lo para os sinais.
03:53
It's also wireless,
92
218000
2000
Também não usa fios,
03:55
so it gives you the freedom to move around.
93
220000
3000
o que dá a liberdade de se movimentar.
03:58
And compared to the tens of thousands of dollars
94
223000
3000
E comparado com as dezenas de milhares de dólares
04:01
for a traditional EEG system,
95
226000
3000
de um sistema tradicional de EEG,
04:04
this headset only costs
96
229000
2000
este aparelho custa somente
04:06
a few hundred dollars.
97
231000
2000
algumas centenas de dólares.
04:08
Now on to the detection algorithms.
98
233000
3000
Agora sobre os algoritmos de detecção.
04:11
So facial expressions --
99
236000
2000
As expressões faciais...
04:13
as I mentioned before in emotional experiences --
100
238000
2000
como mencionei antes em experiências emocionais...
04:15
are actually designed to work out of the box
101
240000
2000
na verdade foram projetadas para funcionar de imediato
04:17
with some sensitivity adjustments
102
242000
2000
com alguns ajustes de sensibilidade
04:19
available for personalization.
103
244000
3000
disponíveis para personalização.
04:22
But with the limited time we have available,
104
247000
2000
Com o tempo limitado que temos,
04:24
I'd like to show you the cognitive suite,
105
249000
2000
gostaria de mostrar a vocês o módulo cognitivo,
04:26
which is the ability for you
106
251000
2000
que é a habilidade de você
04:28
to basically move virtual objects with your mind.
107
253000
3000
basicamente mover objetos virtuais com a mente.
04:32
Now, Evan is new to this system,
108
257000
2000
Agora, Evan é novo para o sistema,
04:34
so what we have to do first
109
259000
2000
então temos que primeiro
04:36
is create a new profile for him.
110
261000
2000
criar um novo perfil para ele.
04:38
He's obviously not Joanne -- so we'll "add user."
111
263000
3000
Ele obviamente não é Joanne... então "Incluir usuário."
04:41
Evan. Okay.
112
266000
2000
Evan. Pronto.
04:43
So the first thing we need to do with the cognitive suite
113
268000
3000
A primeira coisa que temos de fazer com o módulo cognitivo
04:46
is to start with training
114
271000
2000
é iniciar com o treinamento
04:48
a neutral signal.
115
273000
2000
de um sinal neutro.
04:50
With neutral, there's nothing in particular
116
275000
2000
Para o neutro, não há nada de especial
04:52
that Evan needs to do.
117
277000
2000
que o Evan precise fazer.
04:54
He just hangs out. He's relaxed.
118
279000
2000
Ele só aguarda. Relaxado.
04:56
And the idea is to establish a baseline
119
281000
2000
A ideia é estabelecer uma linha inicial
04:58
or normal state for his brain,
120
283000
2000
ou um estado normal para seu cérebro,
05:00
because every brain is different.
121
285000
2000
porque cada cérebro é diferente.
05:02
It takes eight seconds to do this,
122
287000
2000
Leva oito segundos para fazer.
05:04
and now that that's done,
123
289000
2000
E agora que está feito,
05:06
we can choose a movement-based action.
124
291000
2000
podemos escolher uma ação relacionada a movimento.
05:08
So Evan, choose something
125
293000
2000
Então Evan escolha algo
05:10
that you can visualize clearly in your mind.
126
295000
2000
que possa visualizar com clareza em sua mente.
05:12
Evan Grant: Let's do "pull."
127
297000
2000
Evan Grant: Vamos de "puxar".
05:14
Tan Le: Okay, so let's choose "pull."
128
299000
2000
Tan Le: Certo, Vamos escolher "puxar".
05:16
So the idea here now
129
301000
2000
Agora a ideia aqui
05:18
is that Evan needs to
130
303000
2000
é que Evan precisa
05:20
imagine the object coming forward
131
305000
2000
imaginar o objeto avançando
05:22
into the screen,
132
307000
2000
na tela.
05:24
and there's a progress bar that will scroll across the screen
133
309000
3000
Há uma barra de progresso que se preencherá
05:27
while he's doing that.
134
312000
2000
enquanto ele faz isso.
05:29
The first time, nothing will happen,
135
314000
2000
A primeira vez, nada irá acontecer,
05:31
because the system has no idea how he thinks about "pull."
136
316000
3000
porque o sistema não tem ideia de como ele pensa "puxar".
05:34
But maintain that thought
137
319000
2000
Mas mantenha esse pensamento
05:36
for the entire duration of the eight seconds.
138
321000
2000
pela duração de oito segundos.
05:38
So: one, two, three, go.
139
323000
3000
Assim: um, dois, três, vai.
05:49
Okay.
140
334000
2000
Certo.
05:51
So once we accept this,
141
336000
2000
Uma vez que gravarmos isso,
05:53
the cube is live.
142
338000
2000
o cubo está vivo.
05:55
So let's see if Evan
143
340000
2000
Vamos ver se Evan
05:57
can actually try and imagine pulling.
144
342000
3000
pode mesmo tentar e imaginar puxando.
06:00
Ah, good job!
145
345000
2000
Ah, bom trabalho!
06:02
(Applause)
146
347000
3000
(Aplausos)
06:05
That's really amazing.
147
350000
2000
Isso foi incrível.
06:07
(Applause)
148
352000
4000
(Aplausos)
06:11
So we have a little bit of time available,
149
356000
2000
Temos mais um tempinho disponível,
06:13
so I'm going to ask Evan
150
358000
2000
então pedirei ao Evan
06:15
to do a really difficult task.
151
360000
2000
para fazer uma tarefa difícil de verdade.
06:17
And this one is difficult
152
362000
2000
E é difícil
06:19
because it's all about being able to visualize something
153
364000
3000
porque é sobre visualizar algo
06:22
that doesn't exist in our physical world.
154
367000
2000
que não existe em nosso mundo físico.
06:24
This is "disappear."
155
369000
2000
Esta é "desaparecer".
06:26
So what you want to do -- at least with movement-based actions,
156
371000
2000
O que você tem... pelo menos com ações baseadas em movimento,
06:28
we do that all the time, so you can visualize it.
157
373000
3000
que fazemos todo o tempo, você pode visualizar.
06:31
But with "disappear," there's really no analogies --
158
376000
2000
Mas com "desaparecer", não existem analogias.
06:33
so Evan, what you want to do here
159
378000
2000
Evan, o que você vai fazer aqui
06:35
is to imagine the cube slowly fading out, okay.
160
380000
3000
é imaginar o cubo lentamente desaparecendo.
06:38
Same sort of drill. So: one, two, three, go.
161
383000
3000
Algum tipo de ralo. Então: um, dois, três, vai.
06:50
Okay. Let's try that.
162
395000
3000
Certo. Vamos tentar assim.
06:53
Oh, my goodness. He's just too good.
163
398000
3000
Nossa, Ele é muito bom.
06:57
Let's try that again.
164
402000
2000
Vamos tentar de novo.
07:04
EG: Losing concentration.
165
409000
2000
EG: Perdendo concentração.
07:06
(Laughter)
166
411000
2000
(Risos)
07:08
TL: But we can see that it actually works,
167
413000
2000
TL: Mas podemos ver que funciona mesmo,
07:10
even though you can only hold it
168
415000
2000
mesmo que você consiga por
07:12
for a little bit of time.
169
417000
2000
apenas pouco tempo.
07:14
As I said, it's a very difficult process
170
419000
3000
Como eu disse, é um processo difícil
07:17
to imagine this.
171
422000
2000
imaginar isso.
07:19
And the great thing about it is that
172
424000
2000
E o melhor disso é que
07:21
we've only given the software one instance
173
426000
2000
nós somente oferecemos ao software um único exemplo
07:23
of how he thinks about "disappear."
174
428000
3000
do que ele pensa sobre "desaparecer".
07:26
As there is a machine learning algorithm in this --
175
431000
3000
Como há um algoritmo de aprendizado mecanizado nisto...
07:29
(Applause)
176
434000
4000
(Aplausos)
07:33
Thank you.
177
438000
2000
Obrigada.
07:35
Good job. Good job.
178
440000
3000
Bom trabalho, Bom trabalho.
07:38
(Applause)
179
443000
2000
(Aplausos)
07:40
Thank you, Evan, you're a wonderful, wonderful
180
445000
3000
Obrigada, Evan, você é um maravilhoso
07:43
example of the technology.
181
448000
3000
exemplo de tecnologia.
07:46
So, as you can see, before,
182
451000
2000
Como puderam ver,
07:48
there is a leveling system built into this software
183
453000
3000
existe um sistema de aprimoramento interno neste sofware
07:51
so that as Evan, or any user,
184
456000
2000
para que Evan, ou qualquer usuário
07:53
becomes more familiar with the system,
185
458000
2000
torne-se mais familiar com o sistema,
07:55
they can continue to add more and more detections,
186
460000
3000
eles podem continuar a adicionar mais e mais detecções,
07:58
so that the system begins to differentiate
187
463000
2000
para que o sistema comece a diferenciar
08:00
between different distinct thoughts.
188
465000
3000
entre diferentes e distintos pensamentos.
08:04
And once you've trained up the detections,
189
469000
2000
E uma vez que você tenha treinado as detecções,
08:06
these thoughts can be assigned or mapped
190
471000
2000
estes pensamentos podem ser associados ou mapeados
08:08
to any computing platform,
191
473000
2000
para qualquer plataforma computacional,
08:10
application or device.
192
475000
2000
aplicação ou dispositivo.
08:12
So I'd like to show you a few examples,
193
477000
2000
Gostaria de mostrar alguns poucos exemplos,
08:14
because there are many possible applications
194
479000
2000
porque existem muitas aplicações possíveis
08:16
for this new interface.
195
481000
2000
para esta nova interface.
08:19
In games and virtual worlds, for example,
196
484000
2000
Nos jogos e mundos virtuais, por exemplo,
08:21
your facial expressions
197
486000
2000
suas expressões faciais
08:23
can naturally and intuitively be used
198
488000
2000
podem naturalmente e intuitivamente ser usadas
08:25
to control an avatar or virtual character.
199
490000
3000
para controlar um avatar ou personagem virtual.
08:29
Obviously, you can experience the fantasy of magic
200
494000
2000
Obviamente, você pode experimentar a magia
08:31
and control the world with your mind.
201
496000
3000
de controlar o mundo com sua mente.
08:36
And also, colors, lighting,
202
501000
3000
E também, cores, luzes,
08:39
sound and effects
203
504000
2000
som e efeitos,
08:41
can dynamically respond to your emotional state
204
506000
2000
podem responder dinamicamente ao seu estado emocional
08:43
to heighten the experience that you're having, in real time.
205
508000
3000
e aprofundar a experiência que você está tendo, em tempo real.
08:47
And moving on to some applications
206
512000
2000
E indo para algumas outras aplicações
08:49
developed by developers and researchers around the world,
207
514000
3000
feitas por desenvolvedores e pesquisadores ao redor do mundo,
08:52
with robots and simple machines, for example --
208
517000
3000
com robôs e máquinas simples, por exemplo...
08:55
in this case, flying a toy helicopter
209
520000
2000
neste caso, voar com um helicóptero de brinquedo
08:57
simply by thinking "lift" with your mind.
210
522000
3000
só pensando em decolar com sua mente.
09:00
The technology can also be applied
211
525000
2000
A tecnologia pode também ser utilizada
09:02
to real world applications --
212
527000
2000
em aplicações do mundo real...
09:04
in this example, a smart home.
213
529000
2000
neste exemplo, uma casa inteligente.
09:06
You know, from the user interface of the control system
214
531000
3000
Sabe, a partir da interface de usuário do sistema de controle
09:09
to opening curtains
215
534000
2000
para abrir cortinas
09:11
or closing curtains.
216
536000
3000
ou fechar cortinas.
09:22
And of course, also to the lighting --
217
547000
3000
E é claro também as luzes...
09:25
turning them on
218
550000
3000
ligando-as
09:28
or off.
219
553000
2000
ou desligando.
09:30
And finally,
220
555000
2000
E finalmente,
09:32
to real life-changing applications,
221
557000
2000
aplicações que mudam a vida real
09:34
such as being able to control an electric wheelchair.
222
559000
3000
como ser capaz de controlar uma cadeira de rodas elétrica.
09:37
In this example,
223
562000
2000
Neste exemplo,
09:39
facial expressions are mapped to the movement commands.
224
564000
3000
expressões faciais são mapeadas para comandos de movimentação.
09:42
Man: Now blink right to go right.
225
567000
3000
Homem: Pisque o olho direito para ir à direita.
09:50
Now blink left to turn back left.
226
575000
3000
Agora o esquerdo para virar à esquerda.
10:02
Now smile to go straight.
227
587000
3000
Agora sorria para ir em frente.
10:08
TL: We really -- Thank you.
228
593000
2000
TL: De verdade... Muito obrigada.
10:10
(Applause)
229
595000
5000
(Aplausos)
10:15
We are really only scratching the surface of what is possible today,
230
600000
3000
Na verdade estamos apenas no começo do que é possível hoje.
10:18
and with the community's input,
231
603000
2000
E com o auxílio da comunidade,
10:20
and also with the involvement of developers
232
605000
2000
e também com o envolvimento de desenvolvedores
10:22
and researchers from around the world,
233
607000
3000
e pesquisadores de todo o mundo,
10:25
we hope that you can help us to shape
234
610000
2000
esperamos que vocês possam nos ajudar a moldar
10:27
where the technology goes from here. Thank you so much.
235
612000
3000
onde a tecnologia vai daqui para a frente. Muito obrigada mesmo.
Translated by Lisangelo Berti
Reviewed by Belucio Haibara

▲Back to top

ABOUT THE SPEAKER
Tan Le - Entrepreneur
Tan Le is the founder & CEO of Emotiv, a bioinformatics company that's working on identifying biomarkers for mental and other neurological conditions using electroencephalography (EEG).

Why you should listen

Tan Le is the co-founder and president of Emotiv. Before this, she headed a firm that worked on a new form of remote control that uses brainwaves to control digital devices and digital media. It's long been a dream to bypass the mechanical (mouse, keyboard, clicker) and have our digital devices respond directly to what we think. Emotiv's EPOC headset uses 16 sensors to listen to activity across the entire brain. Software "learns" what each user's brain activity looks like when one, for instance, imagines a left turn or a jump.

Le herself has an extraordinary story -- a refugee from Vietnam at age 4, she entered college at 16 and has since become a vital young leader in her home country of Australia.

More profile about the speaker
Tan Le | Speaker | TED.com