ABOUT THE SPEAKER
Tan Le - Entrepreneur
Tan Le is the founder & CEO of Emotiv, a bioinformatics company that's working on identifying biomarkers for mental and other neurological conditions using electroencephalography (EEG).

Why you should listen

Tan Le is the co-founder and president of Emotiv. Before this, she headed a firm that worked on a new form of remote control that uses brainwaves to control digital devices and digital media. It's long been a dream to bypass the mechanical (mouse, keyboard, clicker) and have our digital devices respond directly to what we think. Emotiv's EPOC headset uses 16 sensors to listen to activity across the entire brain. Software "learns" what each user's brain activity looks like when one, for instance, imagines a left turn or a jump.

Le herself has an extraordinary story -- a refugee from Vietnam at age 4, she entered college at 16 and has since become a vital young leader in her home country of Australia.

More profile about the speaker
Tan Le | Speaker | TED.com
TEDGlobal 2010

Tan Le: A headset that reads your brainwaves

Tan Le: Căşti care îţi citesc undele creierului

Filmed:
2,732,929 views

Uimitoarea nouă interfaţă computerizată a lui Tan Le citeşte undele emise de creierul utilizatorului, făcând posibil controlul obiectelor virtuale şi chiar al aparatelor electronice fizice doar prin intermediul gândurilor (şi cu puţină concentrare). Ea foloseşte căştile pentru o demonstraţie şi vorbeşte despre extinsa lor aplicabilitate.
- Entrepreneur
Tan Le is the founder & CEO of Emotiv, a bioinformatics company that's working on identifying biomarkers for mental and other neurological conditions using electroencephalography (EEG). Full bio

Double-click the English transcript below to play the video.

00:16
Up untilpana cand now, our communicationcomunicare with machinesmaşini
0
1000
2000
Până acum, comunicarea noastră cu aparatele
00:18
has always been limitedlimitat
1
3000
2000
a fost întotdeauna limitată
00:20
to consciousconştient and directdirect formsformulare.
2
5000
2000
la forme conştiente şi directe.
00:22
WhetherDacă it's something simplesimplu
3
7000
2000
Fie că este vorba despre ceva simplu
00:24
like turningcotitură on the lightslumini with a switchintrerupator,
4
9000
2000
precum aprinderea luminii folosind un întrerupător,
00:26
or even as complexcomplex as programmingprogramare roboticsRobotica,
5
11000
3000
sau chiar ceva atât de complex precum programarea roboţilor
00:29
we have always had to give a commandcomanda to a machinemaşină,
6
14000
3000
întotdeauna i-am dat aparatului o comandă
00:32
or even a seriesserie of commandscomenzi,
7
17000
2000
sau chiar o serie de comenzi
00:34
in orderOrdin for it to do something for us.
8
19000
3000
pentru a face ceva pentru noi.
00:37
CommunicationComunicare betweenîntre people, on the other handmână,
9
22000
2000
Pe de altă parte, comunicarea între oameni
00:39
is fardeparte more complexcomplex and a lot more interestinginteresant
10
24000
3000
este cu mult mai complexă şi mai interesantă
00:42
because we take into accountcont
11
27000
2000
pentru că luăm în calcul
00:44
so much more than what is explicitlyexplicit expressedexprimate.
12
29000
3000
mult mai multe aspecte decât ce se exprimă explicit.
00:47
We observeobserva facialtratament facial expressionsexpresii, bodycorp languagelimba,
13
32000
3000
Observăm expresiile feţei, limbajul trupului
00:50
and we can intuitIntuit feelingssentimente and emotionsemoții
14
35000
2000
şi putem intui sentimente şi emoţii
00:52
from our dialoguedialog with one anothero alta.
15
37000
3000
din dialogul dintre noi.
00:55
This actuallyde fapt formsformulare a largemare partparte
16
40000
2000
De fapt, acestea constituie o mare parte
00:57
of our decision-makingluarea deciziilor processproces.
17
42000
2000
din procesul nostru de luare a deciziilor.
00:59
Our visionviziune is to introduceintroduce
18
44000
2000
Viziunea noastră este să introducem
01:01
this wholeîntreg newnou realmtărâm of humanuman interactioninteracţiune
19
46000
3000
tot acest nou tărâm al interacţiunii umane
01:04
into human-computerom-calculator interactioninteracţiune
20
49000
2000
în interacţiunea om-computer,
01:06
so that computerscalculatoare can understanda intelege
21
51000
2000
astfel încât computerele să poată înţelege
01:08
not only what you directdirect it to do,
22
53000
2000
nu doar ce îi comanzi să facă
01:10
but it can alsode asemenea respondrăspunde
23
55000
2000
ci şi să poată răspunde
01:12
to your facialtratament facial expressionsexpresii
24
57000
2000
expresiilor feţei tale
01:14
and emotionalemoţional experiencesexperiențe.
25
59000
2000
şi experienţelor emoţionale.
01:16
And what better way to do this
26
61000
2000
Şi cum faci mai bine asta
01:18
than by interpretingInterpretariat the signalssemnalele
27
63000
2000
decât interpretând semnalele
01:20
naturallynatural producedprodus by our braincreier,
28
65000
2000
produse natural de creierul nostru,
01:22
our centercentru for controlControl and experienceexperienţă.
29
67000
3000
centrul nostru al controlului şi al experienţei.
01:25
Well, it soundssunete like a prettyfrumos good ideaidee,
30
70000
2000
Ei bine, pare a fi o idee destul de bună,
01:27
but this tasksarcină, as BrunoBruno mentionedmenționat,
31
72000
2000
dar, aşa cum a menţionat Bruno, această misiune
01:29
isn't an easyuşor one for two mainprincipal reasonsmotive:
32
74000
3000
nu este una uşoară din două motive principale:
01:32
First, the detectiondetectare algorithmsalgoritmi.
33
77000
3000
Mai întâi, algoritmii de detecţie.
01:35
Our braincreier is madefăcut up of
34
80000
2000
Creierul nostru este format din
01:37
billionsmiliarde of activeactiv neuronsneuroni,
35
82000
2000
miliarde de neuroni activi,
01:39
around 170,000 kmkm
36
84000
3000
în jur de 170,000 km
01:42
of combinedcombinate axonAxon lengthlungime.
37
87000
2000
este lungimea cumulată a axonilor.
01:44
When these neuronsneuroni interactinteracționa,
38
89000
2000
Când aceşti neuroni interacţionează,
01:46
the chemicalchimic reactionreacţie emitsemite an electricalelectric impulseimpuls,
39
91000
2000
reacţia chimică emite un impuls electric
01:48
whichcare can be measuredmăsurat.
40
93000
2000
care poate fi măsurat.
01:50
The majoritymajoritate of our functionalfuncţional braincreier
41
95000
3000
Mare parte din creierul nostru funcţional
01:53
is distributeddistribuite over
42
98000
2000
este distribuită spre
01:55
the outerexterior surfacesuprafaţă layerstrat of the braincreier,
43
100000
2000
stratul de suprafaţă al creierului.
01:57
and to increasecrește the areazonă that's availabledisponibil for mentalmental capacitycapacitate,
44
102000
3000
Iar pentru a creşte zona disponibilă capacităţii mentale,
02:00
the braincreier surfacesuprafaţă is highlyextrem de foldedpliat.
45
105000
3000
suprafaţa creierului este extrem de cutată.
02:03
Now this corticalcorticale foldingpliere
46
108000
2000
Acum, această pliere corticală
02:05
presentscadouri a significantsemnificativ challengeprovocare
47
110000
2000
reprezintă o provocare semnificativă
02:07
for interpretingInterpretariat surfacesuprafaţă electricalelectric impulsesimpulsuri.
48
112000
3000
pentru interpretarea impulsurilor electrice de suprafaţă.
02:10
EachFiecare individual'sindivid pe cortexcortex
49
115000
2000
Cortexul fiecărui individ
02:12
is foldedpliat differentlydiferit,
50
117000
2000
este cutat diferit,
02:14
very much like a fingerprintamprentă digitală.
51
119000
2000
aduce foarte mult cu o amprentă.
02:16
So even thoughdeşi a signalsemnal
52
121000
2000
Astfel, chiar dacă un semnal
02:18
mayMai come from the samela fel functionalfuncţional partparte of the braincreier,
53
123000
3000
poate veni din aceeaşi parte funcţională a creierului,
02:21
by the time the structurestructura has been foldedpliat,
54
126000
2000
după ce structura a fost pliată,
02:23
its physicalfizic locationLocație
55
128000
2000
localizarea fizică a semnalului
02:25
is very differentdiferit betweenîntre individualspersoane fizice,
56
130000
2000
diferă foarte mult de la un individ la altul
02:27
even identicalidentic twinsgemeni.
57
132000
3000
chiar şi la gemeni identici.
02:30
There is no longermai lung any consistencyconsistență
58
135000
2000
Nu mai există nicio consistenţă
02:32
in the surfacesuprafaţă signalssemnalele.
59
137000
2000
a semnalelor de suprafaţă.
02:34
Our breakthroughdescoperire was to createcrea an algorithmAlgoritmul
60
139000
2000
Progresul marcat de noi a fost crearea unui algoritm
02:36
that unfoldsse desfasoara the cortexcortex,
61
141000
2000
care netezeşte cortexul
02:38
so that we can mapHartă the signalssemnalele
62
143000
2000
astfel încât să putem marca semnalele
02:40
closermai aproape to its sourcesursă,
63
145000
2000
mai aproape de sursa lor
02:42
and thereforeprin urmare makingluare it capablecapabil of workinglucru acrosspeste a massmasa populationpopulație.
64
147000
3000
şi astfel făcând posibilă funcţionarea la nivelul întregii populaţii.
02:46
The secondal doilea challengeprovocare
65
151000
2000
A doua provocare
02:48
is the actualreal devicedispozitiv for observingobservarea brainwavesundele cerebrale.
66
153000
3000
este chiar aparatul pentru observarea undelor emise de creier.
02:51
EEGEEG measurementsmăsurători typicallytipic involveimplica
67
156000
2000
Măsurătorilor prin electroencefalogramă implică de obicei
02:53
a hairnethairnet with an arraymulțime of sensorssenzori,
68
158000
3000
o reţea fină cu un şir de senzori
02:56
like the one that you can see here in the photofotografie.
69
161000
3000
precum cea pe care o puteţi vedea aici în imagine.
02:59
A techniciantehnician will put the electrodeselectrozi
70
164000
2000
Un tehnician va pune electrozii
03:01
ontope the scalpscalp
71
166000
2000
pe scalp
03:03
usingutilizând a conductiveconductoare gelgel or pastepastă
72
168000
2000
folosind un gel sau o pastă conductibilă
03:05
and usuallyde obicei after a procedureprocedură of preparingpregătirea the scalpscalp
73
170000
3000
şi, de obicei, după o procedură de pregătire a scalpului
03:08
by lightușoară abrasionabraziune.
74
173000
2000
printr-o frecare uşoară.
03:10
Now this is quitedestul de time consumingconsumatoare de
75
175000
2000
Ia destul de mult timp
03:12
and isn't the mostcel mai comfortableconfortabil processproces.
76
177000
2000
şi nu e nici pe departe cel mai confortabil proces.
03:14
And on toptop of that, these systemssisteme
77
179000
2000
Şi mai mult, aceste sisteme
03:16
actuallyde fapt costa costat in the tenszeci of thousandsmii of dollarsdolari.
78
181000
3000
costă de fapt în jurul a câteva zeci de mii de dolari.
03:20
So with that, I'd like to invitea invita onstagepe scena
79
185000
3000
Aşa că, vreau să-l invit pe scenă
03:23
EvanEvan GrantGrant, who is one of last year'sani speakersdifuzoare,
80
188000
2000
pe Evan Grant, unul dintre vorbitorii de anul trecut,
03:25
who'scine kindlyVă rugăm să agreedde acord
81
190000
2000
care a fost de acord
03:27
to help me to demonstratedemonstra
82
192000
2000
să mă ajute să demonstrez
03:29
what we'vene-am been ablecapabil to developdezvolta.
83
194000
2000
ceea ce am reuşit să dezvoltăm.
03:31
(ApplauseAplauze)
84
196000
6000
(Aplauze)
03:37
So the devicedispozitiv that you see
85
202000
2000
Aşadar, aparatul pe care îl vedeţi
03:39
is a 14-channel-canal, high-fidelityînaltă fidelitate
86
204000
2000
este un sistem cu 14 canale şi de înaltă fidelitate
03:41
EEGEEG acquisitionachizitie systemsistem.
87
206000
2000
în recepţia electroencefalogramelor.
03:43
It doesn't requirenecesita any scalpscalp preparationpreparare,
88
208000
3000
Nu necesită deloc pregătirea scalpului,
03:46
no conductiveconductoare gelgel or pastepastă.
89
211000
2000
nici gel sau pastă conductibilă.
03:48
It only takes a fewpuțini minutesminute to put on
90
213000
3000
Durează doar câteva minute să-l pregăteşti
03:51
and for the signalssemnalele to settleSettle.
91
216000
2000
şi ca semnalele să se stabilizeze.
03:53
It's alsode asemenea wirelessfără fir,
92
218000
2000
De asemenea, este wireless,
03:55
so it gives you the freedomlibertate to movemișcare around.
93
220000
3000
deci îţi dă libertate de mişcare.
03:58
And comparedcomparativ to the tenszeci of thousandsmii of dollarsdolari
94
223000
3000
Iar comparativ cu zecile de mii de dolari
04:01
for a traditionaltradiţional EEGEEG systemsistem,
95
226000
3000
pentru un sistem tradiţional de electroencefalogramă
04:04
this headsetcăști only costscheltuieli
96
229000
2000
aceste căşti costă doar
04:06
a fewpuțini hundredsută dollarsdolari.
97
231000
2000
câteva sute de dolari.
04:08
Now on to the detectiondetectare algorithmsalgoritmi.
98
233000
3000
Acum legat de algoritmii de detecţie.
04:11
So facialtratament facial expressionsexpresii --
99
236000
2000
Expresiile feţei --
04:13
as I mentionedmenționat before in emotionalemoţional experiencesexperiențe --
100
238000
2000
aşa cum am precizat mai devreme referitor la experienţele emoţionale --
04:15
are actuallyde fapt designedproiectat to work out of the boxcutie
101
240000
2000
sunt de fapt proiectate să funcţioneze atipic
04:17
with some sensitivitysensibilitate adjustmentsajustări
102
242000
2000
prin câteva ajustări legate de senzitivitate
04:19
availabledisponibil for personalizationPersonalizare.
103
244000
3000
şi care sunt disponibile spre personalizare.
04:22
But with the limitedlimitat time we have availabledisponibil,
104
247000
2000
Mai având puţin timp la dispoziţie,
04:24
I'd like to showspectacol you the cognitivecognitiv suiteSuită,
105
249000
2000
vreau să vă arăt întregul echipament cognitiv
04:26
whichcare is the abilityabilitate for you
106
251000
2000
care vă dă posibilitatea
04:28
to basicallype scurt movemișcare virtualvirtual objectsobiecte with your mindminte.
107
253000
3000
în esenţă, să mişcaţi obiecte virtual cu mintea.
04:32
Now, EvanEvan is newnou to this systemsistem,
108
257000
2000
Acum, Evan n-a mai folosit sistemul,
04:34
so what we have to do first
109
259000
2000
aşa că, mai întâi trebuie
04:36
is createcrea a newnou profileprofilul for him.
110
261000
2000
să-i creăm un nou profil.
04:38
He's obviouslyevident not JoanneJoanne -- so we'llbine "addadăuga userutilizator."
111
263000
3000
În mod evident, nu este Joanne -- aşa că vom "adăuga un utilizator".
04:41
EvanEvan. Okay.
112
266000
2000
Evan. În regulă.
04:43
So the first thing we need to do with the cognitivecognitiv suiteSuită
113
268000
3000
Primul lucru pe care trebuie să-l facem cu echipamentul cognitiv
04:46
is to startstart with trainingpregătire
114
271000
2000
este să începem antrenamentul
04:48
a neutralneutru signalsemnal.
115
273000
2000
cu un semnal neutru.
04:50
With neutralneutru, there's nothing in particularspecial
116
275000
2000
Nu e nimic special
04:52
that EvanEvan needsare nevoie to do.
117
277000
2000
ce trebuie să facă Evan.
04:54
He just hangsatîrnă out. He's relaxedrelaxat.
118
279000
2000
Doar stă. Este relaxat.
04:56
And the ideaidee is to establisha stabili a baselinede bază
119
281000
2000
Iar ideea este să se stabilească un reper
04:58
or normalnormal statestat for his braincreier,
120
283000
2000
sau o stare normală a creierului lui.
05:00
because everyfiecare braincreier is differentdiferit.
121
285000
2000
pentru că fiecare creier este diferit.
05:02
It takes eightopt secondssecunde to do this,
122
287000
2000
Durează opt secunde.
05:04
and now that that's doneTerminat,
123
289000
2000
Acum că am terminat,
05:06
we can choosealege a movement-basedbazate pe libera actionacțiune.
124
291000
2000
putem alege o acţiune bazată pe mişcare.
05:08
So EvanEvan, choosealege something
125
293000
2000
Aşadar, Evan alege ceva
05:10
that you can visualizeimagina clearlyclar in your mindminte.
126
295000
2000
ce poţi vizualiza cu claritate în minte.
05:12
EvanEvan GrantGrant: Let's do "pullTrage."
127
297000
2000
Evan Grant: Să zicem "trage".
05:14
TanTan LeLe: Okay, so let's choosealege "pullTrage."
128
299000
2000
Tan Le: Ok. Să alegem "trage".
05:16
So the ideaidee here now
129
301000
2000
Acum ideea
05:18
is that EvanEvan needsare nevoie to
130
303000
2000
este că Evan trebuie
05:20
imagineimagina the objectobiect comingvenire forwardredirecţiona
131
305000
2000
să-şi imagineze obiectul venind în faţă
05:22
into the screenecran,
132
307000
2000
înspre ecran.
05:24
and there's a progressprogres barbar that will scrollsul acrosspeste the screenecran
133
309000
3000
Şi avem pe ecran o bară care marchează progresul
05:27
while he's doing that.
134
312000
2000
în timp ce face asta.
05:29
The first time, nothing will happenîntâmpla,
135
314000
2000
Prima dată nu se întâmplă nimic
05:31
because the systemsistem has no ideaidee how he thinkscrede about "pullTrage."
136
316000
3000
pentru că sistemul habar n-are cum gândeşte el când "trage".
05:34
But maintainmenţine that thought
137
319000
2000
Dar gândul este menţinut
05:36
for the entireîntreg durationdurată of the eightopt secondssecunde.
138
321000
2000
pe întreaga durată de opt secunde.
05:38
So: one, two, threeTrei, go.
139
323000
3000
Aşadar: unu, doi, trei, începe.
05:49
Okay.
140
334000
2000
În regulă.
05:51
So onceo singura data we acceptAccept this,
141
336000
2000
De îndată ce acceptăm
05:53
the cubecub is livetrăi.
142
338000
2000
cubul prinde viaţă.
05:55
So let's see if EvanEvan
143
340000
2000
Să vedem dacă Evan
05:57
can actuallyde fapt try and imagineimagina pullingtrăgând.
144
342000
3000
chiar poate încerca şi să-şi imagineze că trage obiectul.
06:00
AhAh, good jobloc de munca!
145
345000
2000
Ah, foarte bine!
06:02
(ApplauseAplauze)
146
347000
3000
(Aplauze)
06:05
That's really amazinguimitor.
147
350000
2000
E destul de uimitor.
06:07
(ApplauseAplauze)
148
352000
4000
(Aplauze)
06:11
So we have a little bitpic of time availabledisponibil,
149
356000
2000
Mai avem puţin timp la dispoziţie,
06:13
so I'm going to askcere EvanEvan
150
358000
2000
aşa că îl voi ruga pe Evan
06:15
to do a really difficultdificil tasksarcină.
151
360000
2000
să facă ceva foarte dificil.
06:17
And this one is difficultdificil
152
362000
2000
Şi este greu
06:19
because it's all about beingfiind ablecapabil to visualizeimagina something
153
364000
3000
pentru că ţine exclusiv de abilitatea de a vizualiza ceva
06:22
that doesn't existexista in our physicalfizic worldlume.
154
367000
2000
ce nu există în lumea noastră fizică.
06:24
This is "disappeardispărea."
155
369000
2000
Şi anume, "să dispară".
06:26
So what you want to do -- at leastcel mai puţin with movement-basedbazate pe libera actionsacţiuni,
156
371000
2000
Ceea ce vrem -- cel puţin prin acţiuni bazate pe mişcare,
06:28
we do that all the time, so you can visualizeimagina it.
157
373000
3000
facem tot timpul, deci putem vizualiza.
06:31
But with "disappeardispărea," there's really no analogiesanalogii --
158
376000
2000
Dar cu a face ceva "să dispară", nu prea avem analogii.
06:33
so EvanEvan, what you want to do here
159
378000
2000
Aşadar, Evan, ceea ce trebuie să faci
06:35
is to imagineimagina the cubecub slowlyîncet fadingdecolorare out, okay.
160
380000
3000
este să-ţi imaginezi cubul dispărând treptat. În regulă?
06:38
SameAcelaşi sortfel of drillburghiu. So: one, two, threeTrei, go.
161
383000
3000
Acelaşi tip de exerciţiu. Deci: unu, doi, trei, începe.
06:50
Okay. Let's try that.
162
395000
3000
Ok. Să încercăm.
06:53
Oh, my goodnessbunătate. He's just too good.
163
398000
3000
Oh, doamne. Este mult prea bun.
06:57
Let's try that again.
164
402000
2000
Să mai încercăm o dată.
07:04
EGEXEMPLU: LosingA pierde concentrationconcentraţie.
165
409000
2000
EG: Îmi pierd concentrarea.
07:06
(LaughterRâs)
166
411000
2000
(Râsete)
07:08
TLTL: But we can see that it actuallyde fapt workslucrări,
167
413000
2000
TL: Dar putem vedea că funcţionează
07:10
even thoughdeşi you can only holddeține it
168
415000
2000
chiar dacă
07:12
for a little bitpic of time.
169
417000
2000
pentru puţin timp.
07:14
As I said, it's a very difficultdificil processproces
170
419000
3000
După cum am spus, este un proces foarte dificil
07:17
to imagineimagina this.
171
422000
2000
să-ţi imaginezi aşa ceva.
07:19
And the great thing about it is that
172
424000
2000
Şi este excepţional că
07:21
we'vene-am only givendat the softwaresoftware-ul one instanceinstanță
173
426000
2000
software-ul a avut acces doar pentru câteva momente
07:23
of how he thinkscrede about "disappeardispărea."
174
428000
3000
la felul în care el se gândeşte să facă ceva "să dispară".
07:26
As there is a machinemaşină learningînvăţare algorithmAlgoritmul in this --
175
431000
3000
Pentru vorbim despre un algoritm care permite aparatului să înveţe.
07:29
(ApplauseAplauze)
176
434000
4000
(Aplauze)
07:33
Thank you.
177
438000
2000
Mulţumesc.
07:35
Good jobloc de munca. Good jobloc de munca.
178
440000
3000
Foarte bine. Foarte bine.
07:38
(ApplauseAplauze)
179
443000
2000
(Aplauze)
07:40
Thank you, EvanEvan, you're a wonderfulminunat, wonderfulminunat
180
445000
3000
Mulţumesc, Evan, eşti minunat, excelent
07:43
exampleexemplu of the technologytehnologie.
181
448000
3000
exemplu al tehnologiei.
07:46
So, as you can see, before,
182
451000
2000
Aşa cum aţi văzut mai devreme,
07:48
there is a levelingnivelare systemsistem builtconstruit into this softwaresoftware-ul
183
453000
3000
software-ul are construit un sistem de etalonare
07:51
so that as EvanEvan, or any userutilizator,
184
456000
2000
astfel încât, pe măsură ce Evan sau oricare alt utilizator
07:53
becomesdevine more familiarfamiliar with the systemsistem,
185
458000
2000
se obişnuieşte cu sistemul
07:55
they can continuecontinua to addadăuga more and more detectionsdetectii,
186
460000
3000
ei pot continua să adauge tot mai multe detecţii
07:58
so that the systemsistem beginsîncepe to differentiatese diferenția
187
463000
2000
astfel încât sistemul începe să diferenţieze
08:00
betweenîntre differentdiferit distinctdistinct thoughtsgânduri.
188
465000
3000
între gânduri distincte.
08:04
And onceo singura data you've traineddresat up the detectionsdetectii,
189
469000
2000
Iar odată ce detecţiile au fost repetate,
08:06
these thoughtsgânduri can be assignedalocate or mappedmapate
190
471000
2000
aceste gânduri pot fi atribuite sau marcate
08:08
to any computingtehnica de calcul platformplatformă,
191
473000
2000
în orice platformă de calcul,
08:10
applicationcerere or devicedispozitiv.
192
475000
2000
aplicaţie sau aparat.
08:12
So I'd like to showspectacol you a fewpuțini examplesexemple,
193
477000
2000
Vreau să vă arăt câteva exemple
08:14
because there are manymulți possibleposibil applicationsaplicații
194
479000
2000
pentru că există multe posibile aplicaţii
08:16
for this newnou interfaceinterfață.
195
481000
2000
ale acestei noi interfeţe.
08:19
In gamesjocuri and virtualvirtual worldslumi, for exampleexemplu,
196
484000
2000
De exemplu, în jocuri şi lumi virtuale,
08:21
your facialtratament facial expressionsexpresii
197
486000
2000
expresiile feţei tale
08:23
can naturallynatural and intuitivelyîn mod intuitiv be used
198
488000
2000
pot fi folosite natural şi intuitiv
08:25
to controlControl an avatarAvatar or virtualvirtual charactercaracter.
199
490000
3000
pentru a controla un avatar sau un personaj virtual.
08:29
ObviouslyÎn mod evident, you can experienceexperienţă the fantasyfantezie of magicmagie
200
494000
2000
Evident, puteţi experimenta fantezia magiei
08:31
and controlControl the worldlume with your mindminte.
201
496000
3000
şi puteţi controla lumea cu mintea.
08:36
And alsode asemenea, colorscolorate, lightingiluminat,
202
501000
3000
Şi, de asemenea, culorile, lumina,
08:39
soundsunet and effectsefecte
203
504000
2000
sunetul şi efectele
08:41
can dynamicallydinamic respondrăspunde to your emotionalemoţional statestat
204
506000
2000
pot răspunde dinamic stărilor voastre emoţionale
08:43
to heightenintensifica the experienceexperienţă that you're havingavând, in realreal time.
205
508000
3000
pentru a intensifica experienţa pe care o trăiţi, în timp real.
08:47
And movingin miscare on to some applicationsaplicații
206
512000
2000
Trecând la câteva aplicaţii
08:49
developeddezvoltat by developersdezvoltatorii and researcherscercetători around the worldlume,
207
514000
3000
realizate de dezvoltatori şi cercetători din întreaga lume,
08:52
with robotsroboți and simplesimplu machinesmaşini, for exampleexemplu --
208
517000
3000
cu roboţi şi aparate simple, de exemplu --
08:55
in this casecaz, flyingzbor a toyjucărie helicopterelicopter
209
520000
2000
în acest caz, puteţi controla zborul unul elicopter de jucărie
08:57
simplypur şi simplu by thinkinggândire "liftlift" with your mindminte.
210
522000
3000
doar gândindu-vă cum se ridică.
09:00
The technologytehnologie can alsode asemenea be appliedaplicat
211
525000
2000
Tehnologia poate fi aplicată
09:02
to realreal worldlume applicationsaplicații --
212
527000
2000
şi pentru aplicaţiile din lumea reală --
09:04
in this exampleexemplu, a smartinteligent home.
213
529000
2000
în acest exemplu, o casă inteligentă.
09:06
You know, from the userutilizator interfaceinterfață of the controlControl systemsistem
214
531000
3000
Ştiţi, de la interfaţa sistemului de control pe care o vede utilizatorul
09:09
to openingdeschidere curtainsperdele
215
534000
2000
la deschiderea draperiilor
09:11
or closingînchidere curtainsperdele.
216
536000
3000
sau închiderea draperiilor.
09:22
And of coursecurs, alsode asemenea to the lightingiluminat --
217
547000
3000
Bineînţeles, şi pentru lumină --
09:25
turningcotitură them on
218
550000
3000
aprinderea ei
09:28
or off.
219
553000
2000
şi stingerea ei.
09:30
And finallyin sfarsit,
220
555000
2000
Şi, în cele din urmă,
09:32
to realreal life-changinga schimbat viata applicationsaplicații,
221
557000
2000
în cazul aplicaţiilor care chiar pot schimba cu adevărat viaţa
09:34
suchastfel de as beingfiind ablecapabil to controlControl an electricelectric wheelchairscaun cu rotile.
222
559000
3000
precum posibilitatea de a controla un scaun pe rotile electric.
09:37
In this exampleexemplu,
223
562000
2000
În acest exemplu,
09:39
facialtratament facial expressionsexpresii are mappedmapate to the movementcirculaţie commandscomenzi.
224
564000
3000
expresiile feţei sunt corelate cu comenzile de mişcare.
09:42
Man: Now blinkclipi din ochi right to go right.
225
567000
3000
Bărbat: Acum clipeşte din ochiul drept ca să mergi la dreapta.
09:50
Now blinkclipi din ochi left to turnviraj back left.
226
575000
3000
Acum clipeşte din ochiul stâng ca să te întorci prin partea stângă.
10:02
Now smilezâmbet to go straightdrept.
227
587000
3000
Acum zâmbeşte ca să mergi drept înainte.
10:08
TLTL: We really -- Thank you.
228
593000
2000
TL: Doar -- Mulţumesc.
10:10
(ApplauseAplauze)
229
595000
5000
(Aplauze)
10:15
We are really only scratchingzgarieturi the surfacesuprafaţă of what is possibleposibil todayastăzi,
230
600000
3000
Doar tangenţial atingem adevăratul potenţial al acestei tehnologii, astăzi.
10:18
and with the community'scomunității inputintrare,
231
603000
2000
Iar prin părerile venite din partea comunităţii
10:20
and alsode asemenea with the involvementimplicare of developersdezvoltatorii
232
605000
2000
şi, de asemenea, cu implicarea dezvoltatorilor
10:22
and researcherscercetători from around the worldlume,
233
607000
3000
şi a cercetătorilor din întreaga lume
10:25
we hopesperanţă that you can help us to shapeformă
234
610000
2000
sperăm că ne puteţi ajuta să modelăm
10:27
where the technologytehnologie goesmerge from here. Thank you so much.
235
612000
3000
viitorul acestei tehnologii. Vă mulţumesc foarte mult.
Translated by Sebastian Hubati
Reviewed by Dana Milea

▲Back to top

ABOUT THE SPEAKER
Tan Le - Entrepreneur
Tan Le is the founder & CEO of Emotiv, a bioinformatics company that's working on identifying biomarkers for mental and other neurological conditions using electroencephalography (EEG).

Why you should listen

Tan Le is the co-founder and president of Emotiv. Before this, she headed a firm that worked on a new form of remote control that uses brainwaves to control digital devices and digital media. It's long been a dream to bypass the mechanical (mouse, keyboard, clicker) and have our digital devices respond directly to what we think. Emotiv's EPOC headset uses 16 sensors to listen to activity across the entire brain. Software "learns" what each user's brain activity looks like when one, for instance, imagines a left turn or a jump.

Le herself has an extraordinary story -- a refugee from Vietnam at age 4, she entered college at 16 and has since become a vital young leader in her home country of Australia.

More profile about the speaker
Tan Le | Speaker | TED.com