ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com
TEDWomen 2015

Rana el Kaliouby: This app knows how you feel -- from the look on your face

Rana el Kaliouby: O aplicație care știe cum te simți analizându-ți fața

Filmed:
1,613,290 views

Emoțiile ne influențează fiecare aspect al vieții – cum învățăm, cum comunicăm, cum luăm decizii. Totuși emoțiile sunt absente din lumea digitală. Aplicațiile și dispozitivele cu care interacționăm nu au cum să știe ce simțim. Cercetătoarea Rana el Kaliouby și-a propus să schimbe lucrurile. Ea prezintă o nouă tehnologie care citește expresiile faciale și le transpune în emoții. Acest sistem are implicații mari și poate schimba atât modul în care interacționăm cu mașinile, cât și unii cu alții.
- Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware. Full bio

Double-click the English transcript below to play the video.

00:12
Our emotionsemoții influenceinfluență
everyfiecare aspectaspect of our livesvieți,
0
556
4017
Emoțiile influențează fiecare
aspect al vieții noastre,
00:16
from our healthsănătate and how we learnînvăța,
to how we do businessAfaceri and make decisionsdeciziile,
1
4573
3576
de la sănătate și învățătură,
la cum facem afaceri și cum luăm decizii,
00:20
bigmare onescele and smallmic.
2
8149
1773
mari sau mici.
00:22
Our emotionsemoții alsode asemenea influenceinfluență
how we connectconectați with one anothero alta.
3
10672
3490
Emoțiile influențează modul în care
relaționăm unii cu ceilalți.
00:27
We'veNe-am evolvedevoluat to livetrăi
in a worldlume like this,
4
15132
3976
Am evoluat pentru a trăi
într-o lume ca aceasta.
Dar în loc viețile noastre
arată tot mai mult așa
00:31
but insteadin schimb, we're livingviaţă
more and more of our livesvieți like this --
5
19108
4319
00:35
this is the texttext messagemesaj
from my daughterfiică last night --
6
23427
3134
– e un mesaj primit
de la fiica mea aseară –
00:38
in a worldlume that's devoidlipsit of emotionemoţie.
7
26561
2740
o lume lipsită de emoții.
00:41
So I'm on a missionmisiune to changeSchimbare that.
8
29301
1951
Misiunea mea e să schimb asta.
00:43
I want to bringaduce emotionsemoții
back into our digitaldigital experiencesexperiențe.
9
31252
4091
Vreau să aduc emoțiile înapoi
în lumea digitală.
00:48
I starteda început on this pathcale 15 yearsani agoîn urmă.
10
36223
3077
Am început acest drum acum 15 ani.
Lucram în informatică, în Egipt,
00:51
I was a computercomputer scientistom de stiinta in EgyptEgipt,
11
39300
2066
00:53
and I had just gottenajuns acceptedadmis to
a PhPH-ul.D. programprogram at CambridgeCambridge UniversityUniversitatea.
12
41366
4505
și tocmai fusesem acceptată la un doctorat
la Universitatea Cambridge.
00:57
So I did something quitedestul de unusualneobișnuit
13
45871
2113
Așa că am făcut ceva neobișnuit
00:59
for a youngtineri newlywedproaspăt căsătorit MuslimMusulmane EgyptianEgiptean wifesoție:
14
47984
4225
pentru o proaspăt căsătorită
tânără musulmană din Egipt:
(Râsete)
01:05
With the supporta sustine of my husbandsoț,
who had to staystau in EgyptEgipt,
15
53599
2999
cu ajutorul soțului meu,
care a trebuit să rămână în Egipt,
01:08
I packedbătătorit my bagssaci and I movedmutat to EnglandAnglia.
16
56598
3018
mi-am făcut bagajele
și m-am mutat în Anglia.
01:11
At CambridgeCambridge, thousandsmii of milesmile
away from home,
17
59616
3228
La Cambridge,
mii de kilometri departe de casă,
01:14
I realizedrealizat I was spendingcheltuire
more hoursore with my laptoplaptop
18
62844
3413
am observat că petrec
mai multe ore cu laptopul meu
decât cu alți oameni.
01:18
than I did with any other humanuman.
19
66257
2229
01:20
YetÎncă despitein ciuda this intimacyintimitate, my laptoplaptop
had absolutelyabsolut no ideaidee how I was feelingsentiment.
20
68486
4853
Dar în ciuda acestei intimități,
laptopul n-avea idee cum mă simt.
01:25
It had no ideaidee if I was happyfericit,
21
73339
3211
Nu știa dacă sunt fericită,
01:28
havingavând a badrău day, or stresseda subliniat, confusedconfuz,
22
76550
2988
dacă am o zi proastă,
dacă sunt stresată sau dezorientată,
01:31
and so that got frustratingfrustrant.
23
79538
2922
iar asta era enervant.
Mai rău, când comunicam pe internet
cu familia mea rămasă acasă
01:35
Even worsemai rau, as I communicatedcomunicate
onlinepe net with my familyfamilie back home,
24
83600
5231
simțeam că toate emoțiile mele
dispar în spațiul virtual.
01:41
I feltsimțit that all my emotionsemoții
disappeareddispărut in cyberspacespațiul cibernetic.
25
89421
3282
01:44
I was homesickdor de casa, I was lonelysinguratic,
and on some dayszi I was actuallyde fapt cryingplâns,
26
92703
5155
Îmi era dor de casă, mă simțeam singură
și în unele zile chiar plângeam,
01:49
but all I had to communicatecomunica
these emotionsemoții was this.
27
97858
4928
dar tot ce puteam folosi pentru a-mi
comunica emoțiile era... asta.
01:54
(LaughterRâs)
28
102786
2020
(Râsete)
01:56
Today'sAstăzi technologytehnologie
has lots of I.Q., but no E.Q.;
29
104806
4974
Tehnologia de azi e foarte inteligentă,
dar nu și emoțională;
multă inteligență cognitivă,
dar nu și inteligență emoțională.
02:01
lots of cognitivecognitiv intelligenceinteligență,
but no emotionalemoţional intelligenceinteligență.
30
109780
3176
02:04
So that got me thinkinggândire,
31
112956
2197
Asta m-a pus pe gânduri:
ce-ar fi dacă tehnologia
ne-ar putea simți emoțiile?
02:07
what if our technologytehnologie
could sensesens our emotionsemoții?
32
115153
3624
02:10
What if our devicesdispozitive could sensesens
how we feltsimțit and reacteda reacţionat accordinglyîn consecinţă,
33
118777
4076
Ce-ar fi dacă dispozitivele ar ști ce simțim
și ar reacționa în concordanță,
02:14
just the way an emotionallyemoțional
intelligentinteligent friendprieten would?
34
122853
3013
la fel ca un prieten
cu inteligență emoțională?
02:18
Those questionsîntrebări led me and my teamechipă
35
126666
3564
Aceste întrebări ne-au impulsionat
pe mine și echipa mea
să creăm tehnologii care să citească
și să răspundă la emoțiile noastre.
02:22
to createcrea technologiestehnologii that can readcitit
and respondrăspunde to our emotionsemoții,
36
130230
4377
02:26
and our startingpornire pointpunct was the humanuman facefață.
37
134607
3090
Iar punctul nostru de start
a fost chipul uman.
02:30
So our humanuman facefață happensse întâmplă to be
one of the mostcel mai powerfulputernic channelscanale
38
138577
3173
Chipul nostru e cel mai bun canal
02:33
that we all use to communicatecomunica
socialsocial and emotionalemoţional statesstatele,
39
141750
4016
cu care transmitem
stări sociale și emoționale,
02:37
everything from enjoymentbucurie, surprisesurprinde,
40
145766
3010
totul: bucurie, surpriză,
02:40
empathyempatie and curiositycuriozitate.
41
148776
4203
empatie și curiozitate.
02:44
In emotionemoţie scienceştiinţă, we call eachfiecare
facialtratament facial musclemuşchi movementcirculaţie an actionacțiune unitunitate.
42
152979
4928
În știința emoțiilor, fiecare mișcare
a mușchilor feței e o unitate de acțiune.
02:49
So for exampleexemplu, actionacțiune unitunitate 12,
43
157907
2925
De exemplu, unitatea de acțiune 12
– nu garantează succesul la Hollywood –
02:52
it's not a HollywoodHollywood blockbusterBlockbuster,
44
160832
2038
e o ridicare a colțului buzei,
componenta principală a zâmbetului.
02:54
it is actuallyde fapt a lipbuza cornercolţ pullTrage,
whichcare is the mainprincipal componentcomponent of a smilezâmbet.
45
162870
3442
Încercați. Hai să vedem niște zâmbete.
02:58
Try it everybodytoata lumea. Let's get
some smileszâmbete going on.
46
166312
2988
Un alt exemplu e unitatea 4:
ridurile frunții.
03:01
AnotherUn alt exampleexemplu is actionacțiune unitunitate 4.
It's the browfruntea furrowbrazdă.
47
169300
2654
03:03
It's when you drawa desena your eyebrowssprancene togetherîmpreună
48
171954
2238
E atunci când îți apropii sprâncenele
și creezi textura aceea ridată.
03:06
and you createcrea all
these texturestexturi and wrinklesridurile.
49
174192
2267
Nu ne place, dar este un indicator
puternic a unei emoții negative.
03:08
We don't like them, but it's
a strongputernic indicatorindicator of a negativenegativ emotionemoţie.
50
176459
4295
Avem vreo 45 de astfel de unități,
03:12
So we have about 45 of these actionacțiune unitsUnități,
51
180754
2206
care se combină pentru a exprima
sute de emoții.
03:14
and they combinecombina to expressexpres
hundredssute of emotionsemoții.
52
182960
3390
03:18
TeachingPredare a computercomputer to readcitit
these facialtratament facial emotionsemoții is hardgreu,
53
186350
3901
E greu să înveți un calculator
să recunoască emoțiile,
03:22
because these actionacțiune unitsUnități,
they can be fastrapid, they're subtlesubtil,
54
190251
2972
deoarece aceste unități
pot fi rapide, subtile,
03:25
and they combinecombina in manymulți differentdiferit waysmoduri.
55
193223
2554
și se combină în multe moduri.
Spre exemplu, zâmbetul și strâmbătura.
03:27
So take, for exampleexemplu,
the smilezâmbet and the smirkrânjet.
56
195777
3738
03:31
They look somewhatoarecum similarasemănător,
but they mean very differentdiferit things.
57
199515
3753
Seamănă cumva, dar reprezintă
lucruri foarte diferite.
03:35
(LaughterRâs)
58
203268
1718
(Râsete)
03:36
So the smilezâmbet is positivepozitiv,
59
204986
3004
Zâmbetul e pozitiv,
strâmbătura e adesea negativă.
03:39
a smirkrânjet is oftende multe ori negativenegativ.
60
207990
1270
Uneori strâmbătura te poate face celebru.
03:41
SometimesUneori a smirkrânjet
can make you becomedeveni famouscelebru.
61
209260
3876
03:45
But seriouslySerios, it's importantimportant
for a computercomputer to be ablecapabil
62
213136
2824
Dar e important pentru un calculator
să poată face diferența între cele două.
03:47
to tell the differencediferență
betweenîntre the two expressionsexpresii.
63
215960
2855
Cum facem asta?
03:50
So how do we do that?
64
218815
1812
Oferim algoritmilor noștri
03:52
We give our algorithmsalgoritmi
65
220627
1787
zeci de mii de exemple de oameni
despre care știm că zâmbesc,
03:54
tenszeci of thousandsmii of examplesexemple
of people we know to be smilingzâmbitor,
66
222414
4110
03:58
from differentdiferit ethnicitiesetniile, agesvârstele, genderssexe,
67
226524
3065
din diferite etnii, vârste, sexe,
04:01
and we do the samela fel for smirkssmirks.
68
229589
2811
și la fel pentru strâmbături.
Apoi, folosind învățarea profundă,
04:04
And then, usingutilizând deepadâncime learningînvăţare,
69
232400
1554
algoritmul caută aceste texturi și riduri
04:05
the algorithmAlgoritmul looksarată for all these
texturestexturi and wrinklesridurile
70
233954
2856
04:08
and shapeformă changesschimbări on our facefață,
71
236810
2580
și schimbările de formă
de pe fața noastră,
învățând astfel că toate zâmbetele
au caracteristici comune
04:11
and basicallype scurt learnsînvaţă that all smileszâmbete
have commoncomun characteristicscaracteristici,
72
239390
3202
04:14
all smirkssmirks have subtlysubtil
differentdiferit characteristicscaracteristici.
73
242592
3181
și că strâmbăturile
au caracteristici ușor diferite.
Iar data următoare când vede o față
04:17
And the nextUrmător → time it seesvede a newnou facefață,
74
245773
2368
04:20
it essentiallyin esenta learnsînvaţă that
75
248141
2299
învață că
04:22
this facefață has the samela fel
characteristicscaracteristici of a smilezâmbet,
76
250440
3033
această față are aceleași
caracteristici ale unui zâmbet
04:25
and it saysspune, "AhaAha, I recognizerecunoaşte this.
This is a smilezâmbet expressionexpresie."
77
253473
4278
și spune: „Aha, recunosc asta,
e expresia unui zâmbet.”
04:30
So the bestCel mai bun way to demonstratedemonstra
how this technologytehnologie workslucrări
78
258381
2800
Cel mai bun mod de a ilustra tehnologia
e să încercăm o demonstrație în direct.
04:33
is to try a livetrăi demodemo,
79
261181
2136
04:35
so I need a volunteervoluntar,
preferablypreferabil somebodycineva with a facefață.
80
263317
3913
Am nevoie de un voluntar,
preferabil cineva cu o față.
04:39
(LaughterRâs)
81
267230
2334
(Râsete)
04:41
Cloe'sCloe pe going to be our volunteervoluntar todayastăzi.
82
269564
2771
Cloe va fi voluntarul nostru azi.
04:45
So over the pasttrecut fivecinci yearsani, we'vene-am movedmutat
from beingfiind a researchcercetare projectproiect at MITMIT
83
273325
4458
În ultimii cinci ani, dintr-un proiect
de cercetare la MIT am devenit o firmă,
04:49
to a companycompanie,
84
277783
1156
unde echipa mea s-a străduit să facă
tehnologia să meargă,
04:50
where my teamechipă has workeda lucrat really hardgreu
to make this technologytehnologie work,
85
278939
3192
cum spunem noi, în „sălbăticie”.
04:54
as we like to say, in the wildsălbatic.
86
282131
2409
În plus am comprimat-o încât nucleul ei
să meargă pe orice dispozitiv cu o cameră,
04:56
And we'vene-am alsode asemenea shrunkcoşcovit it so that
the coremiez emotionemoţie enginemotor
87
284540
2670
04:59
workslucrări on any mobilemobil devicedispozitiv
with a cameraaparat foto, like this iPadiPad.
88
287210
3320
ca acest iPad.
05:02
So let's give this a try.
89
290530
2786
Hai să încercăm.
05:06
As you can see, the algorithmAlgoritmul
has essentiallyin esenta foundgăsite Cloe'sCloe pe facefață,
90
294756
3924
După cum puteți vedea,
algoritmul a găsit fața lui Cloe,
05:10
so it's this whitealb boundingde încadrare boxcutie,
91
298680
1692
acest dreptunghi alb,
și urmărește punctele
reprezentative ale feței:
05:12
and it's trackingurmărire the mainprincipal
featurecaracteristică pointspuncte on her facefață,
92
300372
2571
sprâncenele, ochii, gura și nasul.
05:14
so her eyebrowssprancene, her eyesochi,
her mouthgură and her nosenas.
93
302943
2856
05:17
The questionîntrebare is,
can it recognizerecunoaşte her expressionexpresie?
94
305799
2987
Întrebarea este:
îi poate recunoaște expresia?
Hai să testăm mașina.
05:20
So we're going to testTest the machinemaşină.
95
308786
1671
Mai întâi arată-mi o față neutră.
05:22
So first of all, give me your pokerPoker facefață.
YepDa, awesomeminunat. (LaughterRâs)
96
310457
4186
Da, super.
(Râsete)
05:26
And then as she smileszâmbete,
this is a genuineautentic smilezâmbet, it's great.
97
314643
2813
Pe măsură ce zâmbește
– un zâmbet autentic, super –
05:29
So you can see the greenverde barbar
go up as she smileszâmbete.
98
317456
2300
vedeți cum crește bara verde.
A fost un zâmbet mare,
poți încerca unul subtil
05:31
Now that was a bigmare smilezâmbet.
99
319756
1222
05:32
Can you try a subtlesubtil smilezâmbet
to see if the computercomputer can recognizerecunoaşte?
100
320978
3043
să vedem dacă îl recunoaște?
05:36
It does recognizerecunoaşte subtlesubtil smileszâmbete as well.
101
324021
2331
Recunoaște și zâmbete subtile,
ne-am străduit mult să iasă asta.
05:38
We'veNe-am workeda lucrat really hardgreu
to make that happenîntâmpla.
102
326352
2125
Și acum sprâncenele ridicate,
indicatorul surprizei.
05:40
And then eyebrowsprânceană raisedridicat,
indicatorindicator of surprisesurprinde.
103
328477
2962
05:43
BrowFruntea furrowbrazdă, whichcare is
an indicatorindicator of confusionconfuzie.
104
331439
4249
Acum riduri pe frunte,
indicatorul confuziei.
05:47
FrownSe încrunta. Yes, perfectperfect.
105
335688
4007
Încruntă-te.
Da, perfect.
05:51
So these are all the differentdiferit
actionacțiune unitsUnități. There's manymulți more of them.
106
339695
3493
Ați văzut diferite unități de acțiune,
mai sunt multe,
acesta e doar un demo redus.
05:55
This is just a slimmed-downslimmed-jos demodemo.
107
343188
2032
Fiecare citire o numim
„valoare măsurată a emoției”;
05:57
But we call eachfiecare readingcitind
an emotionemoţie datadate pointpunct,
108
345220
3148
06:00
and then they can firefoc togetherîmpreună
to portraysă ilustreze differentdiferit emotionsemoții.
109
348368
2969
ele pot acționa împreună,
creând diferite emoții.
Pe dreapta...
06:03
So on the right sidelatură of the demodemo --
look like you're happyfericit.
110
351337
4653
Mimează fericirea.
Asta e bucuria, se aprinde.
06:07
So that's joybucurie. JoyBucuria firesincendii up.
111
355990
1454
06:09
And then give me a disgustdezgust facefață.
112
357444
1927
Acum arată-mi o față dezgustată.
Gândește-te cum a fost
când a plecat Zayn de la One Direction.
06:11
Try to remembertine minte what it was like
when ZaynButucaru left One DirectionDirecţia.
113
359371
4272
06:15
(LaughterRâs)
114
363643
1510
(Râsete)
Da, încrețește-ți nasul. Super.
06:17
Yeah, wrinkleantirid your nosenas. AwesomeNemaipomenit.
115
365153
4342
06:21
And the valenceValence is actuallyde fapt quitedestul de
negativenegativ, so you musttrebuie sa have been a bigmare fanventilator.
116
369495
3731
Valența e destul de negativă,
deci probabil i-ai fost mare fan.
Valența arată cât de pozitivă
sau negativă e o experiență,
06:25
So valenceValence is how positivepozitiv
or negativenegativ an experienceexperienţă is,
117
373226
2700
06:27
and engagementlogodnă is how
expressiveexpresiv she is as well.
118
375926
2786
iar angajamentul arată
cât e de expresivă.
06:30
So imagineimagina if CloeCloe had accessacces
to this real-timetimp real emotionemoţie streamcurent,
119
378712
3414
Imaginați-vă că Cloe ar avea acces
în timp real la fluxul de emoții
06:34
and she could shareacțiune it
with anybodycineva she wanted to.
120
382126
2809
și că ar putea trimite
emoții oricui.
06:36
Thank you.
121
384935
2923
Mulțumesc.
(Aplauze)
06:39
(ApplauseAplauze)
122
387858
4621
06:45
So, so fardeparte, we have amassedacumulat
12 billionmiliard of these emotionemoţie datadate pointspuncte.
123
393749
5270
Până acum am strâns 12 miliarde
de valori măsurate ale emoției;
e cea mai mare bază de date
de emoții din lume.
06:51
It's the largestcea mai mare emotionemoţie
databaseBază de date in the worldlume.
124
399019
2611
Am colectat-o din 2,9 milioane
de videoclipuri cu fețe,
06:53
We'veNe-am collectedadunat it
from 2.9 millionmilion facefață videosVideoclipuri,
125
401630
2963
06:56
people who have agreedde acord
to shareacțiune theiral lor emotionsemoții with us,
126
404593
2600
oameni care au fost de acord
să ne transmită emoțiile,
06:59
and from 75 countriesțări around the worldlume.
127
407193
3205
din 75 de țări din toată lumea.
Și crește în fiecare zi.
07:02
It's growingcreştere everyfiecare day.
128
410398
1715
07:04
It blowslovituri my mindminte away
129
412603
2067
Sunt uimită că am reușit să cuantificăm
ceva atât de personal cum sunt emoțiile,
07:06
that we can now quantifycuantifica something
as personalpersonal as our emotionsemoții,
130
414670
3195
07:09
and we can do it at this scalescară.
131
417865
2235
la o scară atât de mare.
07:12
So what have we learnedînvățat to dateData?
132
420100
2177
Ce am învățat până acum?
07:15
GenderÎntre femei şi bărbaţi.
133
423057
2331
Sexul.
07:17
Our datadate confirmsconfirmă something
that you mightar putea suspectsuspect.
134
425388
3646
Datele noastre confirmă ceva
ce ați putea bănui:
femeile sunt mai expresive decât bărbații:
07:21
WomenFemei are more expressiveexpresiv than menbărbați.
135
429034
1857
zâmbetele lor sunt mai intense
și durează mai mult,
07:22
Not only do they smilezâmbet more,
theiral lor smileszâmbete last longermai lung,
136
430891
2683
iar acum putem cuantifica la ce anume
reacționează diferit bărbații și femeile.
07:25
and we can now really quantifycuantifica
what it is that menbărbați and womenfemei
137
433574
2904
07:28
respondrăspunde to differentlydiferit.
138
436478
2136
07:30
Let's do culturecultură: So in the UnitedMarea StatesStatele,
139
438614
2290
Să vorbim puțin de cultură: în SUA
07:32
womenfemei are 40 percentla sută
more expressiveexpresiv than menbărbați,
140
440904
3204
femeile sunt cu 40% mai expresive
decât bărbații,
dar, surprinzător,
diferența asta nu există în Regatul Unit.
07:36
but curiouslycu interes, we don't see any differencediferență
in the U.K. betweenîntre menbărbați and womenfemei.
141
444108
3645
07:39
(LaughterRâs)
142
447753
2506
(Râsete)
07:43
AgeVârsta: People who are 50 yearsani and oldermai batran
143
451296
4027
Vârstă: oamenii peste 50 de ani
07:47
are 25 percentla sută more emotiveemotiv
than youngermai tanar people.
144
455323
3436
sunt cu 25% mai emotivi
decât cei mai tineri.
La 20–30 de ani femeile zâmbesc
mult mai mult decât bărbații,
07:51
WomenFemei in theiral lor 20s smilezâmbet a lot more
than menbărbați the samela fel agevârstă,
145
459899
3852
07:55
perhapspoate a necessitynecesitatea for datingdatare.
146
463751
3839
poate din nevoia de a-și găsi pe cineva.
Dar ce ne-a surprins cel mai mult
în aceste date
07:59
But perhapspoate what surpriseduimit us
the mostcel mai about this datadate
147
467590
2617
08:02
is that we happenîntâmpla
to be expressiveexpresiv all the time,
148
470207
3203
e faptul că suntem expresivi mereu,
chiar și când stăm singuri
în fața dispozitivelor
08:05
even when we are sittingședință
in frontfață of our devicesdispozitive alonesingur,
149
473410
2833
08:08
and it's not just when we're watchingvizionarea
catpisică videosVideoclipuri on FacebookFacebook.
150
476243
3274
și nu doar când ne uităm la
filmulețe cu pisici pe Facebook.
08:12
We are expressiveexpresiv when we're emailingemail-uri,
textingmesaje text, shoppingcumpărături onlinepe net,
151
480217
3010
Suntem expresivi când scriem
mesaje, când cumpărăm online,
08:15
or even doing our taxestaxe.
152
483227
2300
chiar și când ne plătim impozitele.
08:17
Where is this datadate used todayastăzi?
153
485527
2392
La ce sunt folosite azi aceste date?
08:19
In understandingînţelegere how we engageangaja with mediamass-media,
154
487919
2763
La a înțelege cum interacționăm cu media,
cu conținutul viral și
comportamentul votanților,
08:22
so understandingînţelegere viralityvirality
and votingvot behaviorcomportament;
155
490682
2484
dar și la a dezvolta
planul emotiv al tehnologiei.
08:25
and alsode asemenea empoweringresponsabilizarea
or emotion-enablingemoţie-care să permită technologytehnologie,
156
493166
2740
08:27
and I want to shareacțiune some examplesexemple
that are especiallyin mod deosebit closeînchide to my heartinimă.
157
495906
4621
Și aș vrea să vă arăt câteva exemple
la care țin foarte mult.
Ochelarii cu funcții emotive
pot ajuta indivizii
08:33
Emotion-enabledEmoţie-activat wearableportabil glassesochelari
can help individualspersoane fizice
158
501197
3068
08:36
who are visuallyvizual impairedafectarea
readcitit the facesfețe of othersalții,
159
504265
3228
care au probleme cu vederea
să citească fețele celorlalți
și-i poate ajuta pe autiștii
de diverse grade să interpreteze emoția,
08:39
and it can help individualspersoane fizice
on the autismautismul spectrumspectru interpretinterpreta emotionemoţie,
160
507493
4187
lucru care pentru ei e complicat.
08:43
something that they really strugglelupta with.
161
511680
2778
În educație, imaginați-vă
că aplicațiile de învățare
08:47
In educationeducaţie, imagineimagina
if your learningînvăţare appsaplicaţii
162
515918
2859
vă percep confuzia,
și atunci încetinesc,
08:50
sensesens that you're confusedconfuz and slowîncet down,
163
518777
2810
sau plictiseala,
și atunci grăbesc pasul,
08:53
or that you're boredplictisit, so it's spedaccelerat up,
164
521587
1857
cum ar face un profesor bun în clasă.
08:55
just like a great teacherprofesor
would in a classroomsală de clasă.
165
523444
2969
Ce ar fi dacă ceasul v-ar simți starea
08:59
What if your wristwatchceas de mână trackedpe șenile your mooddispozitie,
166
527043
2601
sau dacă mașina ar simți
că sunteți obosiți,
09:01
or your carmașină sensedsimțit that you're tiredobosit,
167
529644
2693
sau poate frigiderul simte
că sunteți stresat
09:04
or perhapspoate your fridgefrigider
knowsștie that you're stresseda subliniat,
168
532337
2548
09:06
so it auto-locksLacate auto to preventîmpiedica you
from bingechef eatingmâncare. (LaughterRâs)
169
534885
6066
și se încuie ca să nu mâncați frenetic?
(Râsete)
Mi-ar plăcea asta, da!
09:12
I would like that, yeah.
170
540951
2717
Cum ar fi fost dacă la Cambridge
aș fi avut acces la acest sistem
09:15
What if, when I was in CambridgeCambridge,
171
543668
1927
09:17
I had accessacces to my real-timetimp real
emotionemoţie streamcurent,
172
545595
2313
și aș fi putut să le transmit rudelor
emoțiile, într-un mod natural,
09:19
and I could shareacțiune that with my familyfamilie
back home in a very naturalnatural way,
173
547908
3529
09:23
just like I would'vear-am if we were all
in the samela fel roomcameră togetherîmpreună?
174
551437
3971
ca și când aș fi fost în
aceeași cameră cu ei?
09:27
I think fivecinci yearsani down the linelinia,
175
555408
3142
Cred că în viitorii cinci ani
toate dispozitivele vor avea
un cip al emoțiilor
09:30
all our devicesdispozitive are going
to have an emotionemoţie chipcip,
176
558550
2337
09:32
and we won'tnu va remembertine minte what it was like
when we couldn'tnu a putut just frownse încrunta at our devicedispozitiv
177
560887
4064
și nici nu ne vom aduce aminte cum era
când nu te puteai încrunta la dispozitiv
09:36
and our devicedispozitiv would say, "HmmHmm,
you didn't like that, did you?"
178
564951
4249
ca să-și dea seama dintr-o privire:
„Hmm, nu ți-a plăcut, nu?”
Cea mai mare dificultate e
că tehnologia are așa multe aplicații
09:41
Our biggestCea mai mare challengeprovocare is that there are
so manymulți applicationsaplicații of this technologytehnologie,
179
569200
3761
încât eu și echipa mea înțelegem
că nu putem face noi totul,
09:44
my teamechipă and I realizerealiza that we can't
buildconstrui them all ourselvesnoi insine,
180
572961
2903
așa că am făcut tehnologia disponibilă,
09:47
so we'vene-am madefăcut this technologytehnologie availabledisponibil
so that other developersdezvoltatorii
181
575864
3496
pentru ca dezvoltatorii să înceapă
să construiască și să creeze.
09:51
can get buildingclădire and get creativecreator.
182
579360
2114
09:53
We recognizerecunoaşte that
there are potentialpotenţial risksriscuri
183
581474
4086
Ne dăm seama că există riscuri
și potențial pentru abuzuri,
09:57
and potentialpotenţial for abuseabuz,
184
585560
2067
dar personal, după ce am petrecut
mulți ani făcând asta,
09:59
but personallypersonal, havingavând spenta petrecut
manymulți yearsani doing this,
185
587627
2949
cred că beneficiile pe care
le poate avea omenirea
10:02
I believe that the benefitsbeneficii to humanityumanitate
186
590576
2972
din tehnologiile cu inteligență emoțională
10:05
from havingavând emotionallyemoțional
intelligentinteligent technologytehnologie
187
593548
2275
depășesc cu mult riscurile de abuz.
10:07
fardeparte outweighdepășesc the potentialpotenţial for misuseabuz.
188
595823
3576
Așa că vă invit să participați.
10:11
And I invitea invita you all to be
partparte of the conversationconversaţie.
189
599399
2531
Cu cât știe mai multă lume
de această tehnologie,
10:13
The more people who know
about this technologytehnologie,
190
601930
2554
cu atât avem un cuvânt mai greu
în cum e ea folosită.
10:16
the more we can all have a voicevoce
in how it's beingfiind used.
191
604484
3177
10:21
So as more and more
of our livesvieți becomedeveni digitaldigital,
192
609081
4574
Pe măsură ce viața noastră
devine digitală
ne chinuim inutil să ne folosim
mai puțin dispozitivele
10:25
we are fightingluptă a losingpierzând battleluptă
tryingîncercat to curbbordură our usagefolosire of devicesdispozitive
193
613655
3498
10:29
in orderOrdin to reclaimrevendica our emotionsemoții.
194
617153
2229
pentru a ne revendica emoțiile.
Ceea ce încerc eu e să aduc
emoțiile înapoi în tehnologie,
10:32
So what I'm tryingîncercat to do insteadin schimb
is to bringaduce emotionsemoții into our technologytehnologie
195
620622
3914
10:36
and make our technologiestehnologii more responsivesensibil.
196
624536
2229
să ameliorez reacțiile tehnologiilor.
Visez ca aceste dispozitive
care ne-au despărțit
10:38
So I want those devicesdispozitive
that have separatedseparat us
197
626765
2670
să ne reunească.
10:41
to bringaduce us back togetherîmpreună.
198
629435
2462
10:43
And by humanizingumanizării technologytehnologie,
we have this goldende aur opportunityoportunitate
199
631897
4588
Umanizând tehnologia avem imensa șansă
de a reimagina modul în care
ne conectăm cu mașinile,
10:48
to reimagineReimagine how we
connectconectați with machinesmaşini,
200
636485
3297
10:51
and thereforeprin urmare, how we, as humanuman beingsființe,
201
639782
4481
și prin asta și modul în care noi,
ca ființe umane,
ne conectăm între noi.
10:56
connectconectați with one anothero alta.
202
644263
1904
Mulțumesc.
10:58
Thank you.
203
646167
2160
(Aplauze)
11:00
(ApplauseAplauze)
204
648327
3313
Translated by Matei Sterian
Reviewed by MC M

▲Back to top

ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com