ABOUT THE SPEAKER
Tan Le - Entrepreneur
Tan Le is the founder & CEO of Emotiv, a bioinformatics company that's working on identifying biomarkers for mental and other neurological conditions using electroencephalography (EEG).

Why you should listen

Tan Le is the co-founder and president of Emotiv. Before this, she headed a firm that worked on a new form of remote control that uses brainwaves to control digital devices and digital media. It's long been a dream to bypass the mechanical (mouse, keyboard, clicker) and have our digital devices respond directly to what we think. Emotiv's EPOC headset uses 16 sensors to listen to activity across the entire brain. Software "learns" what each user's brain activity looks like when one, for instance, imagines a left turn or a jump.

Le herself has an extraordinary story -- a refugee from Vietnam at age 4, she entered college at 16 and has since become a vital young leader in her home country of Australia.

More profile about the speaker
Tan Le | Speaker | TED.com
TEDGlobal 2010

Tan Le: A headset that reads your brainwaves

Tan Le: un casque qui lit vos ondes cérébrales

Filmed:
2,732,929 views

L'étonnante nouvelle interface informatique de Tan Le lit les ondes cérébrales de son utilisateur, offrant la possibilité de contrôler des objets virtuels, et même de l'électronique physique, par la simple pensée (et un peu de concentration). Elle fait la démonstration du casque et nous parle de ses applications possibles, qui sont d'une étendue considérable.
- Entrepreneur
Tan Le is the founder & CEO of Emotiv, a bioinformatics company that's working on identifying biomarkers for mental and other neurological conditions using electroencephalography (EEG). Full bio

Double-click the English transcript below to play the video.

00:16
Up until now, our communication with machines
0
1000
2000
Jusqu'à maintenant, notre communication avec les machines
00:18
has always been limited
1
3000
2000
a toujours été limitée
00:20
to conscious and direct forms.
2
5000
2000
à des formes conscientes et directes.
00:22
Whether it's something simple
3
7000
2000
Que ce soit quelque chose de simple
00:24
like turning on the lights with a switch,
4
9000
2000
comme allumer les lumières à l'aide d'un interrupteur
00:26
or even as complex as programming robotics,
5
11000
3000
ou quelque chose de plus complexe, comme la programmation d'un robot
00:29
we have always had to give a command to a machine,
6
14000
3000
il nous a toujours fallu donner une commande à une machine
00:32
or even a series of commands,
7
17000
2000
ou même une série de commandes
00:34
in order for it to do something for us.
8
19000
3000
pour qu'elle fasse quelque chose pour nous.
00:37
Communication between people, on the other hand,
9
22000
2000
Par contre, la communication entre personnes
00:39
is far more complex and a lot more interesting
10
24000
3000
est beaucoup plus complexe et beaucoup plus intéressante,
00:42
because we take into account
11
27000
2000
parce que nous prenons en compte
00:44
so much more than what is explicitly expressed.
12
29000
3000
beaucoup plus que ce qui est exprimé de façon explicite.
00:47
We observe facial expressions, body language,
13
32000
3000
Nous observons les expressions faciales, le language corporel,
00:50
and we can intuit feelings and emotions
14
35000
2000
et nous pouvons deviner intuitivement des sentiments et des émotions
00:52
from our dialogue with one another.
15
37000
3000
en dialoguant avec l'autre.
00:55
This actually forms a large part
16
40000
2000
Cela constitue en fait une grande partie
00:57
of our decision-making process.
17
42000
2000
de notre processus décisionnel.
00:59
Our vision is to introduce
18
44000
2000
Notre vision est d'introduire
01:01
this whole new realm of human interaction
19
46000
3000
ces interactions humaines
01:04
into human-computer interaction
20
49000
2000
dans l'intéraction homme-machine,
01:06
so that computers can understand
21
51000
2000
afin que l'ordinateur puisse comprendre
01:08
not only what you direct it to do,
22
53000
2000
non seulement ce que vous lui demandez de faire,
01:10
but it can also respond
23
55000
2000
mais il pour qu'il puisse également réagir
01:12
to your facial expressions
24
57000
2000
à vos expressions faciales
01:14
and emotional experiences.
25
59000
2000
et vos expressions émotionelles.
01:16
And what better way to do this
26
61000
2000
Et la meilleure façon de le faire
01:18
than by interpreting the signals
27
63000
2000
est d'interpréter les signaux
01:20
naturally produced by our brain,
28
65000
2000
que notre cerveau produit naturellement,
01:22
our center for control and experience.
29
67000
3000
notre cerveau qui est notre centre de contrôle et d'expériences.
01:25
Well, it sounds like a pretty good idea,
30
70000
2000
Eh bien, ça semble une bonne idée,
01:27
but this task, as Bruno mentioned,
31
72000
2000
mais cette tâche, comme Bruno l'a mentionné,
01:29
isn't an easy one for two main reasons:
32
74000
3000
n'est pas facile, pour deux raisons principales:
01:32
First, the detection algorithms.
33
77000
3000
Tout d'abord, les algorithmes de détection.
01:35
Our brain is made up of
34
80000
2000
Notre cerveau est composé de
01:37
billions of active neurons,
35
82000
2000
milliards de neurones actifs,
01:39
around 170,000 km
36
84000
3000
d'environs 170 000 km
01:42
of combined axon length.
37
87000
2000
de long si on met les axones bout à bout.
01:44
When these neurons interact,
38
89000
2000
Lorsque ces neurones interagissent,
01:46
the chemical reaction emits an electrical impulse,
39
91000
2000
la réaction chimique émet une impulsion électrique
01:48
which can be measured.
40
93000
2000
qui peut être mesurée.
01:50
The majority of our functional brain
41
95000
3000
Notre cerveau fonctionnel est principalement
01:53
is distributed over
42
98000
2000
situé
01:55
the outer surface layer of the brain,
43
100000
2000
sur la couche superficielle du cerveau.
01:57
and to increase the area that's available for mental capacity,
44
102000
3000
Et pour augmenter la superficie disponible pour la capacité mentale,
02:00
the brain surface is highly folded.
45
105000
3000
la surface du cerveau comporte un grand nombre de plis.
02:03
Now this cortical folding
46
108000
2000
Ce plissement cortical
02:05
presents a significant challenge
47
110000
2000
représente un défi de taille
02:07
for interpreting surface electrical impulses.
48
112000
3000
pour l'interprétation des impulsions électriques superficielles.
02:10
Each individual's cortex
49
115000
2000
Le cortex de chaque individu
02:12
is folded differently,
50
117000
2000
est plié différemment,
02:14
very much like a fingerprint.
51
119000
2000
un peu comme une empreinte digitale.
02:16
So even though a signal
52
121000
2000
Alors même si un signal
02:18
may come from the same functional part of the brain,
53
123000
3000
peut provenir de la même zone fonctionnelle du cerveau,
02:21
by the time the structure has been folded,
54
126000
2000
au moment où cette zone a été pliée,
02:23
its physical location
55
128000
2000
son emplacement physique
02:25
is very different between individuals,
56
130000
2000
est très différent d'un individu à un autre,
02:27
even identical twins.
57
132000
3000
même chez des jumeaux identiques.
02:30
There is no longer any consistency
58
135000
2000
In n'y a donc pas d'uniformité
02:32
in the surface signals.
59
137000
2000
dans les signaux de surface.
02:34
Our breakthrough was to create an algorithm
60
139000
2000
Notre découverte a été de créer un algorithme
02:36
that unfolds the cortex,
61
141000
2000
qiu déplie le cortex,
02:38
so that we can map the signals
62
143000
2000
afin que nous puissions cartographier les signaux
02:40
closer to its source,
63
145000
2000
plus près de leur source,
02:42
and therefore making it capable of working across a mass population.
64
147000
3000
et d'ainsi pouvoir travailler sur une entière population.
02:46
The second challenge
65
151000
2000
Le deuxième défi
02:48
is the actual device for observing brainwaves.
66
153000
3000
réside dans la conception du casque pour mesurer les ondes cérébrales.
02:51
EEG measurements typically involve
67
156000
2000
La mesure d'un EEG implique généralement
02:53
a hairnet with an array of sensors,
68
158000
3000
une résille avec un réseau de capteurs,
02:56
like the one that you can see here in the photo.
69
161000
3000
comme celui que vous pouvez voir ici sur cette photo.
02:59
A technician will put the electrodes
70
164000
2000
Un technicien va poser les électrodes
03:01
onto the scalp
71
166000
2000
sur le cuir chevelu
03:03
using a conductive gel or paste
72
168000
2000
en utilisant un gel ou une pâte conductrice
03:05
and usually after a procedure of preparing the scalp
73
170000
3000
et généralement, le cuir chevelu devra d'abord subir à cet endroit
03:08
by light abrasion.
74
173000
2000
une légère abrasion.
03:10
Now this is quite time consuming
75
175000
2000
Tout ceci prends bien du temps
03:12
and isn't the most comfortable process.
76
177000
2000
et n'est pas très confortable.
03:14
And on top of that, these systems
77
179000
2000
Et pour couronner le tout, ces systèmes
03:16
actually cost in the tens of thousands of dollars.
78
181000
3000
coûtent en fait des dizaines de milliers de dollars.
03:20
So with that, I'd like to invite onstage
79
185000
3000
J'aimerais maintenant inviter sur la scène
03:23
Evan Grant, who is one of last year's speakers,
80
188000
2000
Evan Grant, un présentateur de l'année dernière,
03:25
who's kindly agreed
81
190000
2000
qui a gentiment accepté
03:27
to help me to demonstrate
82
192000
2000
de m'aider à faire la démonstration
03:29
what we've been able to develop.
83
194000
2000
ce que nous avons été en mesure de développer.
03:31
(Applause)
84
196000
6000
(Applaudissements)
03:37
So the device that you see
85
202000
2000
Le dispositif que vous voyez
03:39
is a 14-channel, high-fidelity
86
204000
2000
a 14 canaux et est un système
03:41
EEG acquisition system.
87
206000
2000
d'acquisition EEG de haute fidelité.
03:43
It doesn't require any scalp preparation,
88
208000
3000
Il ne nécessite aucune préparation du cuir chevelu,
03:46
no conductive gel or paste.
89
211000
2000
pas de gel ou de pâtes conductrice.
03:48
It only takes a few minutes to put on
90
213000
3000
Il faut seulement quelques minutes pour l'installer
03:51
and for the signals to settle.
91
216000
2000
et pour que les signaux se règlent.
03:53
It's also wireless,
92
218000
2000
Il est également sans fil,
03:55
so it gives you the freedom to move around.
93
220000
3000
il permet donc de se déplacer.
03:58
And compared to the tens of thousands of dollars
94
223000
3000
Et par rapport aux dizaines de milliers de dollars
04:01
for a traditional EEG system,
95
226000
3000
pour un système d'EEG traditionnel
04:04
this headset only costs
96
229000
2000
celui-ci coûte seulement
04:06
a few hundred dollars.
97
231000
2000
quelques centaines de dollars.
04:08
Now on to the detection algorithms.
98
233000
3000
Parlons maintenant des algorithmes de détection.
04:11
So facial expressions --
99
236000
2000
Les expressions du visage
04:13
as I mentioned before in emotional experiences --
100
238000
2000
lors d'expérience émotionnelle, comme je l'ai déjà mentionné,
04:15
are actually designed to work out of the box
101
240000
2000
sont en fait conçues pour fonctionner immédiatement
04:17
with some sensitivity adjustments
102
242000
2000
avec quelques ajustements pour la sensibilité
04:19
available for personalization.
103
244000
3000
qui peuvent être personalisés.
04:22
But with the limited time we have available,
104
247000
2000
Étant donné le temps limité dont nous disposons,
04:24
I'd like to show you the cognitive suite,
105
249000
2000
j'aimerais vous montrer la suite cognitive,
04:26
which is the ability for you
106
251000
2000
qui vous permettra
04:28
to basically move virtual objects with your mind.
107
253000
3000
d'essentiellement bouger des objects virtuels avec votre esprit.
04:32
Now, Evan is new to this system,
108
257000
2000
Evan débute avec ce système
04:34
so what we have to do first
109
259000
2000
alors ce que l'on doit d'abord faire
04:36
is create a new profile for him.
110
261000
2000
c'est de lui créer un nouveau profil.
04:38
He's obviously not Joanne -- so we'll "add user."
111
263000
3000
Il n,es tévidemment pas Joanne, alors nous allons "ajouter un utilisateur"
04:41
Evan. Okay.
112
266000
2000
Evan. OK.
04:43
So the first thing we need to do with the cognitive suite
113
268000
3000
La première chose que l'on doit faire avec la suite cognitive
04:46
is to start with training
114
271000
2000
est de commencer par définir
04:48
a neutral signal.
115
273000
2000
ce qu'est un signal neutre.
04:50
With neutral, there's nothing in particular
116
275000
2000
Au neutre, il n'y a rien de particulier
04:52
that Evan needs to do.
117
277000
2000
qu'Evan doit faire.
04:54
He just hangs out. He's relaxed.
118
279000
2000
Il se contente d'être la et de relaxer.
04:56
And the idea is to establish a baseline
119
281000
2000
L'idée c'est détablir une mesure de référence
04:58
or normal state for his brain,
120
283000
2000
de l'état normal de son cerveau
05:00
because every brain is different.
121
285000
2000
parce que chaque cerveau est différent.
05:02
It takes eight seconds to do this,
122
287000
2000
Cela prends 8 secondes.
05:04
and now that that's done,
123
289000
2000
Maintenant que c'est fait,
05:06
we can choose a movement-based action.
124
291000
2000
on peut choisir une action à base de mouvement.
05:08
So Evan, choose something
125
293000
2000
Alors Evan, choisissez quelque chose
05:10
that you can visualize clearly in your mind.
126
295000
2000
que vous pouvez visualiser dans votre esprit de façon très claire.
05:12
Evan Grant: Let's do "pull."
127
297000
2000
Evan Grant: je prendrais "tirer".
05:14
Tan Le: Okay, so let's choose "pull."
128
299000
2000
Tan Le: D'accord, alors choisissons "tirer".
05:16
So the idea here now
129
301000
2000
Alors l'idée maintenant
05:18
is that Evan needs to
130
303000
2000
c'est qu'Evan doit
05:20
imagine the object coming forward
131
305000
2000
imaginer un object qui avance vers lui
05:22
into the screen,
132
307000
2000
à partir de l'écran
05:24
and there's a progress bar that will scroll across the screen
133
309000
3000
Et il y a une barre de progression sur l'écran
05:27
while he's doing that.
134
312000
2000
pendant qu'il le fait.
05:29
The first time, nothing will happen,
135
314000
2000
La première fois, il ne se passe rien,
05:31
because the system has no idea how he thinks about "pull."
136
316000
3000
parce que le système ne sait pas comment il pense l'action "tirer".
05:34
But maintain that thought
137
319000
2000
Il fait conserver cette idée
05:36
for the entire duration of the eight seconds.
138
321000
2000
pendant les 8 secondes entières.
05:38
So: one, two, three, go.
139
323000
3000
Alors: un, deux, trois, go.
05:49
Okay.
140
334000
2000
OK.
05:51
So once we accept this,
141
336000
2000
Maintenant que l'on a fait OK
05:53
the cube is live.
142
338000
2000
le cube est prêt à bouger.
05:55
So let's see if Evan
143
340000
2000
Alors voyons si Evan
05:57
can actually try and imagine pulling.
144
342000
3000
peut effectivement penser à l'action de "tirer".
06:00
Ah, good job!
145
345000
2000
Ah! Bravo!
06:02
(Applause)
146
347000
3000
(Applaudissements)
06:05
That's really amazing.
147
350000
2000
C'est vraiment fantastique.
06:07
(Applause)
148
352000
4000
(Applaudissements)
06:11
So we have a little bit of time available,
149
356000
2000
Il nous reste un peu de temps
06:13
so I'm going to ask Evan
150
358000
2000
alors je vais demander à Evan
06:15
to do a really difficult task.
151
360000
2000
d'accomplir une tâche très difficile.
06:17
And this one is difficult
152
362000
2000
Et celle-ci est difficile
06:19
because it's all about being able to visualize something
153
364000
3000
parce qu'il faut visualiser quelque chose
06:22
that doesn't exist in our physical world.
154
367000
2000
qui n'existe pas dans notre monde physique.
06:24
This is "disappear."
155
369000
2000
Il s'agit de faire "disparaître"
06:26
So what you want to do -- at least with movement-based actions,
156
371000
2000
Alors ce que l'on veut, du moins avec des actions basées sur les mouvements,
06:28
we do that all the time, so you can visualize it.
157
373000
3000
on le fait tout le temps, alors c'est facile à visualiser.
06:31
But with "disappear," there's really no analogies --
158
376000
2000
Mais "disparaître", on n'a pas d'analogie.
06:33
so Evan, what you want to do here
159
378000
2000
Donc Evan, ce que vous voulez faire ici
06:35
is to imagine the cube slowly fading out, okay.
160
380000
3000
c'est d'imaginer un cube qui s'efface doucement, ok?
06:38
Same sort of drill. So: one, two, three, go.
161
383000
3000
Même genre d'exercice. Alors, un, deux, trois, go.
06:50
Okay. Let's try that.
162
395000
3000
OK. On va essayer.
06:53
Oh, my goodness. He's just too good.
163
398000
3000
Oh mon dieu! Il est vraiment trop bon!
06:57
Let's try that again.
164
402000
2000
Essayons à nouveau.
07:04
EG: Losing concentration.
165
409000
2000
EG: Perte de concentration.
07:06
(Laughter)
166
411000
2000
(Rires)
07:08
TL: But we can see that it actually works,
167
413000
2000
TL: Mais nous pouvons voir que ça fonctionne vraiment,
07:10
even though you can only hold it
168
415000
2000
même si vous ne pouvez tenir
07:12
for a little bit of time.
169
417000
2000
que peu de temps.
07:14
As I said, it's a very difficult process
170
419000
3000
Comme je le disais, c'est un processus difficile
07:17
to imagine this.
171
422000
2000
d'imaginer cela.
07:19
And the great thing about it is that
172
424000
2000
Et ce qui est génial c'est que
07:21
we've only given the software one instance
173
426000
2000
nous avons seulement donné au logiciel un exemple
07:23
of how he thinks about "disappear."
174
428000
3000
de la façon dont il pense au concept "disparaître".
07:26
As there is a machine learning algorithm in this --
175
431000
3000
Puisqu'il y a un algorithme d'apprentissage automatique dans ce ...
07:29
(Applause)
176
434000
4000
(Applaudissements)
07:33
Thank you.
177
438000
2000
Merci.
07:35
Good job. Good job.
178
440000
3000
Bravo. Bravo.
07:38
(Applause)
179
443000
2000
(Applaudissements)
07:40
Thank you, Evan, you're a wonderful, wonderful
180
445000
3000
Merci Evan, vous êtes un merveilleux, merveilleux
07:43
example of the technology.
181
448000
3000
exemple de cette technologie.
07:46
So, as you can see, before,
182
451000
2000
Comme vous avez pu le voir précedemment,
07:48
there is a leveling system built into this software
183
453000
3000
il y a un système de mise à niveau intégré dans ce logiciel
07:51
so that as Evan, or any user,
184
456000
2000
pour qu'Evan, ou n'importe quel autre utilisateur,
07:53
becomes more familiar with the system,
185
458000
2000
se familiarise avec le système,
07:55
they can continue to add more and more detections,
186
460000
3000
ils peuvent ajouter de plus en plus de détections,
07:58
so that the system begins to differentiate
187
463000
2000
pour que le système commence à distinguer
08:00
between different distinct thoughts.
188
465000
3000
des pensées distinctes qui sont différentes.
08:04
And once you've trained up the detections,
189
469000
2000
Et une fois que l'on a entrainé ces détections,
08:06
these thoughts can be assigned or mapped
190
471000
2000
ces pensées peuvent être cartographiées et transférées
08:08
to any computing platform,
191
473000
2000
à n'importe quelle plate-forme informatique,
08:10
application or device.
192
475000
2000
logiciel ou périphérique.
08:12
So I'd like to show you a few examples,
193
477000
2000
Alors j'aimerais vous montrez quelques exemples,
08:14
because there are many possible applications
194
479000
2000
parce qu'il y a beaucoup d'applications possibles
08:16
for this new interface.
195
481000
2000
pour cette nouvelle interface.
08:19
In games and virtual worlds, for example,
196
484000
2000
Dans les jeux et les mondes virtuels, par exemple,
08:21
your facial expressions
197
486000
2000
vos expressions faciales
08:23
can naturally and intuitively be used
198
488000
2000
peuvent naturellement et intuitivement être utilisées
08:25
to control an avatar or virtual character.
199
490000
3000
pour contrôler un avatar ou un pesonnage virtuel.
08:29
Obviously, you can experience the fantasy of magic
200
494000
2000
Vous pouvez évidemment expérimenter le monde fantastique de la magie
08:31
and control the world with your mind.
201
496000
3000
et contrôler le monde avec votre esprit.
08:36
And also, colors, lighting,
202
501000
3000
Et aussi les couleurs et l'éclairage,
08:39
sound and effects
203
504000
2000
les sons et les effets sonores,
08:41
can dynamically respond to your emotional state
204
506000
2000
peuvent répondre de façon dynamique à votre état émotionnel
08:43
to heighten the experience that you're having, in real time.
205
508000
3000
pour améliorer l'expérience que vous vivez, en temps réel.
08:47
And moving on to some applications
206
512000
2000
Passons maintenant à certaines applications
08:49
developed by developers and researchers around the world,
207
514000
3000
mises au point par des programmeurs et des chercheurs du monde entier,
08:52
with robots and simple machines, for example --
208
517000
3000
avec des robots et des machines simples, par exemple,
08:55
in this case, flying a toy helicopter
209
520000
2000
ici, le pilotage d'un hélicoptère jouet
08:57
simply by thinking "lift" with your mind.
210
522000
3000
simplement en pensant à "décoller" avec votre esprit
09:00
The technology can also be applied
211
525000
2000
La technologie peut aussi être appliquée
09:02
to real world applications --
212
527000
2000
dans le monde réel
09:04
in this example, a smart home.
213
529000
2000
dans cet exemple, une maison intelligente.
09:06
You know, from the user interface of the control system
214
531000
3000
De l'interface du système de contrôle
09:09
to opening curtains
215
534000
2000
à l'ouverture des rideaux
09:11
or closing curtains.
216
536000
3000
ou la fermeture des rideaux.
09:22
And of course, also to the lighting --
217
547000
3000
Et aussi évidemment à l'éclairage
09:25
turning them on
218
550000
3000
allumer
09:28
or off.
219
553000
2000
ou éteindre.
09:30
And finally,
220
555000
2000
Et enfin,
09:32
to real life-changing applications,
221
557000
2000
des applications qui changent vraiment la vie
09:34
such as being able to control an electric wheelchair.
222
559000
3000
comme de pouvoir contrôler une chaise roulante électrique.
09:37
In this example,
223
562000
2000
Dans cet exemple,
09:39
facial expressions are mapped to the movement commands.
224
564000
3000
les expressions faciales sont traduites en commandes de mouvement.
09:42
Man: Now blink right to go right.
225
567000
3000
Homme: Maintenant cligne l'oeil droit pour aller à droite
09:50
Now blink left to turn back left.
226
575000
3000
Maintenant cligne l'oeil gauche pour retourner à gauche.
10:02
Now smile to go straight.
227
587000
3000
Maintenant souris pour aller tout droit.
10:08
TL: We really -- Thank you.
228
593000
2000
TL: En fait nous ... merci.
10:10
(Applause)
229
595000
5000
(Applaudissements)
10:15
We are really only scratching the surface of what is possible today,
230
600000
3000
Ces exemples étaient une infime partie de tout ce qui serait possible.
10:18
and with the community's input,
231
603000
2000
Et avec la participation de la communauté
10:20
and also with the involvement of developers
232
605000
2000
et l'implication des développeurs
10:22
and researchers from around the world,
233
607000
3000
et chercheurs du monde entier
10:25
we hope that you can help us to shape
234
610000
2000
nous espérons que vous nous aiderez à décider
10:27
where the technology goes from here. Thank you so much.
235
612000
3000
dans quelle direction ira cette technologie. Merci beaucoup.
Translated by Laurence Mercier
Reviewed by Antoniu Gugu

▲Back to top

ABOUT THE SPEAKER
Tan Le - Entrepreneur
Tan Le is the founder & CEO of Emotiv, a bioinformatics company that's working on identifying biomarkers for mental and other neurological conditions using electroencephalography (EEG).

Why you should listen

Tan Le is the co-founder and president of Emotiv. Before this, she headed a firm that worked on a new form of remote control that uses brainwaves to control digital devices and digital media. It's long been a dream to bypass the mechanical (mouse, keyboard, clicker) and have our digital devices respond directly to what we think. Emotiv's EPOC headset uses 16 sensors to listen to activity across the entire brain. Software "learns" what each user's brain activity looks like when one, for instance, imagines a left turn or a jump.

Le herself has an extraordinary story -- a refugee from Vietnam at age 4, she entered college at 16 and has since become a vital young leader in her home country of Australia.

More profile about the speaker
Tan Le | Speaker | TED.com