ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com
TEDWomen 2015

Rana el Kaliouby: This app knows how you feel -- from the look on your face

Rana el Kaliouby: Cette application sait ce que vous ressentez - d'après l'expression de votre visage

Filmed:
1,613,290 views

Nos émotions influencent tous les aspects de notre vie - de la façon dont nous apprenons, communiquons, à nos prises de décisions. Pourtant elles restent absentes de la sphère numérique de nos vies ; les appareils et applications avec lesquels nous interagissons n'ont aucun moyen de percevoir ce que nous ressentons. La chercheuse Rana el Kaliouby a pour but de changer ça. Elle nous offre une démonstration d'une nouvelle et puissante technologie qui peut lire nos expressions faciales et les interpréter en tant qu'émotions. Ce "processeur émotionnel" a d'importantes implications, dit-elle, et pourrait bien changer non seulement la façon dont nous interagissions avec les machines - mais aussi comment nous le faisons l'un avec l'autre.
- Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware. Full bio

Double-click the English transcript below to play the video.

00:12
Our emotionsémotions influenceinfluence
everychaque aspectaspect of our livesvies,
0
556
4017
Nos émotions influencent
tous les aspects de notre vie,
de notre santé et
notre façon d'apprendre
00:16
from our healthsanté and how we learnapprendre,
to how we do businessEntreprise and make decisionsles décisions,
1
4573
3576
à la manière dont
nous faisons des affaires,
et prenons des décisions,
petites ou grandes.
00:20
biggros onesceux and smallpetit.
2
8149
1773
00:22
Our emotionsémotions alsoaussi influenceinfluence
how we connectrelier with one anotherun autre.
3
10672
3490
Elles influencent aussi la manière
dont nous interagissons ensemble.
00:27
We'veNous avons evolvedévolué to livevivre
in a worldmonde like this,
4
15132
3976
Nous avons évolué pour vivre
dans un monde qui ressemble à ça,
00:31
but insteadau lieu, we're livingvivant
more and more of our livesvies like this --
5
19108
4319
mais nous vivons nos vies de plus
en plus plutôt comme ceci --
00:35
this is the texttexte messagemessage
from my daughterfille last night --
6
23427
3134
c'est le message que ma fille
m'a envoyé hier soir --
00:38
in a worldmonde that's devoiddépourvu of emotionémotion.
7
26561
2740
dans un monde dépourvu d'émotion.
00:41
So I'm on a missionmission to changechangement that.
8
29301
1951
Ma mission est de changer tout ça.
00:43
I want to bringapporter emotionsémotions
back into our digitalnumérique experiencesexpériences.
9
31252
4091
Je veux ramener l'expression de nos
émotions dans nos expériences numériques.
00:48
I startedcommencé on this pathchemin 15 yearsannées agodepuis.
10
36223
3077
J'ai commencé de travailler
dans cette direction il y a 15 ans.
00:51
I was a computerordinateur scientistscientifique in EgyptÉgypte,
11
39300
2066
J'étais informaticienne en Égypte,
00:53
and I had just gottenobtenu acceptedaccepté to
a PhPH.D. programprogramme at CambridgeCambridge UniversityUniversité.
12
41366
4505
et venais juste d'être acceptée dans
un programme de thèse à Cambridge.
Alors j'ai fait quelque chose
d'assez inhabituel
00:57
So I did something quiteassez unusualinhabituel
13
45871
2113
00:59
for a youngJeune newlywedjeunes mariés MuslimMusulmane EgyptianÉgyptienne wifefemme:
14
47984
4225
pour une jeune musulmane égyptienne
et tout juste mariée :
01:05
With the supportsoutien of my husbandmari,
who had to stayrester in EgyptÉgypte,
15
53599
2999
avec le soutien de mon mari
qui devait rester en Égypte,
01:08
I packedemballé my bagsdes sacs and I moveddéplacé to EnglandL’Angleterre.
16
56598
3018
j'ai fait mes bagages et suis partie
pour l'Angleterre.
01:11
At CambridgeCambridge, thousandsmilliers of milesmiles
away from home,
17
59616
3228
A Cambridge, à des milliers
de kilomètres de chez moi,
01:14
I realizedréalisé I was spendingdépenses
more hoursheures with my laptopportable
18
62844
3413
j'ai réalisé que je passais
plus d'heures sur mon ordinateur
01:18
than I did with any other humanHumain.
19
66257
2229
qu'avec n'importe quel humain.
01:20
YetEncore despitemalgré this intimacyintimité, my laptopportable
had absolutelyabsolument no ideaidée how I was feelingsentiment.
20
68486
4853
Pourtant, malgré cette intimité,
il n'avait absolument aucune idée
01:25
It had no ideaidée if I was happycontent,
21
73339
3211
de ce que je ressentais.
Il ne savait pas si j'étais heureuse,
01:28
havingayant a badmal day, or stresseda souligné, confusedconfus,
22
76550
2988
si j'avais eu une mauvaise journée,
si j'étais stressée
01:31
and so that got frustratingfrustrant.
23
79538
2922
ou confuse et ça devenait
vraiment frustrant.
01:35
Even worsepire, as I communicatedcommuniqué
onlineen ligne with my familyfamille back home,
24
83600
5231
Le pire, c'était que lorsque
je communiquais en ligne
avec ma famille à la maison,
j'avais l'impression que toutes
mes émotions disparaissaient
01:41
I feltse sentait that all my emotionsémotions
disappeareddisparu in cyberspacecyberespace.
25
89421
3282
01:44
I was homesickle mal du pays, I was lonelysolitaire,
and on some daysjournées I was actuallyréellement cryingpleurs,
26
92703
5155
dans cet espace virtuel. J'avais le mal
du pays, je me sentais seule
01:49
but all I had to communicatecommuniquer
these emotionsémotions was this.
27
97858
4928
et me mettais même
à pleurer certains jours.
Mais tout ce que j'avais pour partager
ces émotions, c'était ça. (Rires)
01:54
(LaughterRires)
28
102786
2020
01:56
Today'sAujourd'hui technologyLa technologie
has lots of I.Q., but no E.Q.;
29
104806
4974
La technologie moderne a beaucoup
de Q.I. mais aucun Q.E.: c'est-à-dire
02:01
lots of cognitivecognitif intelligenceintelligence,
but no emotionalémotif intelligenceintelligence.
30
109780
3176
beaucoup d'intelligence
cognitive mais pas émotionnelle.
02:04
So that got me thinkingen pensant,
31
112956
2197
Je me suis alors demandée
02:07
what if our technologyLa technologie
could sensesens our emotionsémotions?
32
115153
3624
ce que ça changerait si notre technologie
pouvait percevoir nos émotions ?
02:10
What if our devicesdispositifs could sensesens
how we feltse sentait and reacteda réagi accordinglyen conséquence,
33
118777
4076
Que se passerait-il si nos appareils
pouvaient les percevoir et réagir
02:14
just the way an emotionallyémotionnellement
intelligentintelligent friendami would?
34
122853
3013
en fonction, exactement
comme un ami le ferait ?
02:18
Those questionsdes questions led me and my teaméquipe
35
126666
3564
Ces questions nous ont menés,
mon équipe et moi
02:22
to createcréer technologiesles technologies that can readlis
and respondrépondre to our emotionsémotions,
36
130230
4377
à développer des technologies qui peuvent
lire et réagir à nos émotions,
02:26
and our startingdépart pointpoint was the humanHumain facevisage.
37
134607
3090
à partir du visage humain.
02:30
So our humanHumain facevisage happensarrive to be
one of the mostles plus powerfulpuissant channelscanaux
38
138577
3173
Il se trouve que le visage est
un des moyens d'expression
02:33
that we all use to communicatecommuniquer
socialsocial and emotionalémotif statesÉtats,
39
141750
4016
les plus puissants que nous utilisons
pour communiquer notre état social
02:37
everything from enjoymentjouissance, surprisesurprise,
40
145766
3010
ou émotionnel,
tout de la joie, la surprise,
02:40
empathyempathie and curiositycuriosité.
41
148776
4203
la compassion à la curiosité.
02:44
In emotionémotion sciencescience, we call eachchaque
facialsoin du visage musclemuscle movementmouvement an actionaction unitunité.
42
152979
4928
En science des émotions, chacun des
mouvements du visage est appelé action.
02:49
So for exampleExemple, actionaction unitunité 12,
43
157907
2925
Par exemple, action numéro 12
n'est pas le nom
du dernier succès hollywoodien,
02:52
it's not a HollywoodHollywood blockbusterBlockbuster,
44
160832
2038
02:54
it is actuallyréellement a lippour les lèvres cornercoin pulltirer,
whichlequel is the mainprincipale componentcomposant of a smilesourire.
45
162870
3442
mais l'action de tirer le coin des lèvres,
autrement dit de sourire.
02:58
Try it everybodyTout le monde. Let's get
some smilesdes sourires going on.
46
166312
2988
Essayez ! Faisons tous
nos plus beaux sourires !
Autre exemple, action numéro 4,
le froncement de sourcils.
03:01
AnotherUn autre exampleExemple is actionaction unitunité 4.
It's the browsourcils furrowsillon.
47
169300
2654
03:03
It's when you drawdessiner your eyebrowssourcils togetherensemble
48
171954
2238
C'est lorsque vous plissez les sourcils
03:06
and you createcréer all
these texturestextures and wrinklesrides.
49
174192
2267
ensemble et créez
toutes ces rides et textures.
03:08
We don't like them, but it's
a strongfort indicatorindicateur of a negativenégatif emotionémotion.
50
176459
4295
On ne les aime pas mais c'est un très bon
indicateur d'émotion négative.
Nous avons environ 45 de ces actions
03:12
So we have about 45 of these actionaction unitsunités,
51
180754
2206
03:14
and they combinecombiner to expressExpress
hundredsdes centaines of emotionsémotions.
52
182960
3390
que nous combinons pour exprimer
des centaines d'émotions.
03:18
TeachingEnseignement a computerordinateur to readlis
these facialsoin du visage emotionsémotions is harddifficile,
53
186350
3901
Enseigner à un ordinateur comment
reconnaître ces expressions faciales
est difficile parce qu'elles peuvent être
rapides, sont subtiles,
03:22
because these actionaction unitsunités,
they can be fastvite, they're subtlesubtil,
54
190251
2972
et peuvent former beaucoup
de combinaisons différentes.
03:25
and they combinecombiner in manybeaucoup differentdifférent waysfaçons.
55
193223
2554
03:27
So take, for exampleExemple,
the smilesourire and the smirksourire.
56
195777
3738
Prenez par exemple,
un sourire normal ou un sourire narquois.
03:31
They look somewhatquelque peu similarsimilaire,
but they mean very differentdifférent things.
57
199515
3753
Ils sont en soi assez similaires, mais
ont une signification bien différente.
03:35
(LaughterRires)
58
203268
1718
(Rires)
Le sourire normal est positif,
03:36
So the smilesourire is positivepositif,
59
204986
3004
le sourire narquois souvent négatif.
03:39
a smirksourire is oftensouvent negativenégatif.
60
207990
1270
03:41
SometimesParfois a smirksourire
can make you becomedevenir famouscélèbre.
61
209260
3876
Un sourire narquois peut même
vous rendre célèbre parfois !
03:45
But seriouslysérieusement, it's importantimportant
for a computerordinateur to be ablecapable
62
213136
2824
Mais plus sérieusement,
il est très important
03:47
to tell the differencedifférence
betweenentre the two expressionsexpressions.
63
215960
2855
que l'ordinateur puisse différencier
ces deux expressions.
03:50
So how do we do that?
64
218815
1812
Alors comment y arrive-t-on ?
03:52
We give our algorithmsalgorithmes
65
220627
1787
On donne à nos algorithmes
03:54
tensdizaines of thousandsmilliers of examplesexemples
of people we know to be smilingsouriant,
66
222414
4110
des dizaines de milliers d'exemples
spécifiques de personnes
03:58
from differentdifférent ethnicitiesethnies, agesâge, genderssexes,
67
226524
3065
en train de sourire,
d'origines, âge, sexe différents
04:01
and we do the sameMême for smirksricane.
68
229589
2811
et on fait la même chose pour
des sourires narquois.
Ensuite par un processus
d'apprentissage,
04:04
And then, usingen utilisant deepProfond learningapprentissage,
69
232400
1554
04:05
the algorithmalgorithme de looksregards for all these
texturestextures and wrinklesrides
70
233954
2856
l'algorithme assimile
toutes ces textures, ces rides
04:08
and shapeforme changeschangements on our facevisage,
71
236810
2580
et mouvements de notre visage,
04:11
and basicallyen gros learnsapprend that all smilesdes sourires
have commoncommun characteristicscaractéristiques,
72
239390
3202
apprend les caractéristiques
générales d'un sourire,
04:14
all smirksricane have subtlysubtilement
differentdifférent characteristicscaractéristiques.
73
242592
3181
et en associe de plus spécifiques
aux sourires narquois.
04:17
And the nextprochain time it seesvoit a newNouveau facevisage,
74
245773
2368
Ainsi au prochain visage qu'il voit,
04:20
it essentiallyessentiellement learnsapprend that
75
248141
2299
l'algorithme peut essentiellement
04:22
this facevisage has the sameMême
characteristicscaractéristiques of a smilesourire,
76
250440
3033
reconnaître les caractéristiques
d'un sourire et dire :
04:25
and it saysdit, "AhaAHA, I recognizereconnaître this.
This is a smilesourire expressionexpression."
77
253473
4278
« ha ! je reconnais cette expression,
c'est un sourire. »
Le meilleur moyen d'illustrer
comment cette technologie fonctionne
04:30
So the bestmeilleur way to demonstratedémontrer
how this technologyLa technologie workstravaux
78
258381
2800
04:33
is to try a livevivre demodémo,
79
261181
2136
est une démonstration en direct
04:35
so I need a volunteerbénévole,
preferablyde préférence somebodyquelqu'un with a facevisage.
80
263317
3913
alors j'aurais besoin d'un volontaire,
de préférence quelqu'un avec un visage.
04:39
(LaughterRires)
81
267230
2334
(Rires)
04:41
Cloe'sDe cloe going to be our volunteerbénévole todayaujourd'hui.
82
269564
2771
Cloe sera notre volontaire aujourd'hui.
04:45
So over the pastpassé fivecinq yearsannées, we'venous avons moveddéplacé
from beingétant a researchrecherche projectprojet at MITMIT
83
273325
4458
Au cours des 5 dernières années,
notre groupe de recherche au MIT
est devenu une entreprise,
04:49
to a companycompagnie,
84
277783
1156
04:50
where my teaméquipe has workedtravaillé really harddifficile
to make this technologyLa technologie work,
85
278939
3192
dans laquelle mon équipe a travaillé dur
pour que cette technologie marche,
04:54
as we like to say, in the wildsauvage.
86
282131
2409
dans la vie de tous les jours,
comme on dit.
04:56
And we'venous avons alsoaussi shrunkrétréci it so that
the corecoeur emotionémotion enginemoteur
87
284540
2670
Nous l'avons aussi optimisée
pour qu'elle fonctionne
04:59
workstravaux on any mobilemobile devicedispositif
with a cameracaméra, like this iPadiPad.
88
287210
3320
sur n'importe quel appareil pourvu
d'une caméra, comme cet iPad.
05:02
So let's give this a try.
89
290530
2786
Mais essayons plutôt.
05:06
As you can see, the algorithmalgorithme de
has essentiallyessentiellement founda trouvé Cloe'sDe cloe facevisage,
90
294756
3924
Comme vous le voyez, l'algorithme
trouve essentiellement le visage de Cloe
05:10
so it's this whiteblanc boundingenglobante boxboîte,
91
298680
1692
dans cette zone encadrée blanche,
05:12
and it's trackingsuivi the mainprincipale
featurefonctionnalité pointspoints on her facevisage,
92
300372
2571
et décèle les mouvements
des points principaux
05:14
so her eyebrowssourcils, her eyesles yeux,
her mouthbouche and her nosenez.
93
302943
2856
tels que ses sourcils, ses yeux,
sa bouche et son nez.
05:17
The questionquestion is,
can it recognizereconnaître her expressionexpression?
94
305799
2987
La question est alors de savoir
s'il peut reconnaître ses expressions.
05:20
So we're going to testtester the machinemachine.
95
308786
1671
Essayons donc de le tester.
05:22
So first of all, give me your pokerPoker facevisage.
YepYep, awesomeimpressionnant. (LaughterRires)
96
310457
4186
Tout d'abord, montrez moi un visage
impassible. Oui, parfait ! (Rires)
05:26
And then as she smilesdes sourires,
this is a genuineauthentique smilesourire, it's great.
97
314643
2813
Et maintenant un sourire franc,
en voilà un beau, parfait.
Vous voyez, l'indicateur vert
monte quand elle sourit.
05:29
So you can see the greenvert barbar
go up as she smilesdes sourires.
98
317456
2300
05:31
Now that was a biggros smilesourire.
99
319756
1222
C'était un beau sourire ça.
05:32
Can you try a subtlesubtil smilesourire
to see if the computerordinateur can recognizereconnaître?
100
320978
3043
Pouvez-vous faire
un sourire plus subtil pour voir ?
Oui, le programme
le reconnaît aussi.
05:36
It does recognizereconnaître subtlesubtil smilesdes sourires as well.
101
324021
2331
On a travaillé dur pour que ça marche.
05:38
We'veNous avons workedtravaillé really harddifficile
to make that happense produire.
102
326352
2125
Là, les sourcils relevés déclenchent
l'indicateur de surprise.
05:40
And then eyebrowsourcil raisedélevé,
indicatorindicateur of surprisesurprise.
103
328477
2962
05:43
BrowSourcils furrowsillon, whichlequel is
an indicatorindicateur of confusionconfusion.
104
331439
4249
Le sillon des sourcils, lui,
est l'indicateur de confusion.
05:47
FrownFroncer les sourcils. Yes, perfectparfait.
105
335688
4007
Froncez les sourcils. Oui, parfait.
05:51
So these are all the differentdifférent
actionaction unitsunités. There's manybeaucoup more of them.
106
339695
3493
Tout ça vous montre différentes
actions, il y en a beaucoup d'autres.
05:55
This is just a slimmed-downallégée demodémo.
107
343188
2032
C'est juste une démonstration épurée.
05:57
But we call eachchaque readingen train de lire
an emotionémotion dataLes données pointpoint,
108
345220
3148
Chaque action reconnue est
une point de donnée émotionnelle
06:00
and then they can fireFeu togetherensemble
to portraydépeindre differentdifférent emotionsémotions.
109
348368
2969
et l'ensemble de ces données
peut décrire différentes émotions.
06:03
So on the right sidecôté of the demodémo --
look like you're happycontent.
110
351337
4653
Sur la droite ici
regardez comme vous êtes heureuse.
L'indicateur de joie se déclenche.
06:07
So that's joyjoie. JoyJoy firesles feux up.
111
355990
1454
06:09
And then give me a disgustdégoût facevisage.
112
357444
1927
Maintenant exprimez le dégoût.
06:11
Try to rememberrappelles toi what it was like
when ZaynZayn left One DirectionDirection.
113
359371
4272
Souvenez-vous du départ
de Zayn de One Direction.
(Rires)
06:15
(LaughterRires)
114
363643
1510
Voilà, le nez se ride. Super.
06:17
Yeah, wrinkleWRINKLE your nosenez. AwesomeGénial.
115
365153
4342
06:21
And the valenceValence is actuallyréellement quiteassez
negativenégatif, so you mustdoit have been a biggros fanventilateur.
116
369495
3731
La capacité est en fait assez négative,
vous deviez vraiment être fan !
06:25
So valenceValence is how positivepositif
or negativenégatif an experienceexpérience is,
117
373226
2700
Cette jauge montre si l'expérience
est positive ou négative,
06:27
and engagementengagement is how
expressiveexpressive she is as well.
118
375926
2786
la jauge d'engagement montre
le niveau d'expression.
06:30
So imagineimaginer if CloeCloe had accessaccès
to this real-timetemps réél emotionémotion streamcourant,
119
378712
3414
Imaginez que Cloe ait accès direct
à ce flux d'émotions en temps réel,
06:34
and she could sharepartager it
with anybodyn'importe qui she wanted to.
120
382126
2809
elle pourrait alors le partager
avec qui elle voudrait.
06:36
Thank you.
121
384935
2923
Merci.
(Applaudissements)
06:39
(ApplauseApplaudissements)
122
387858
4621
06:45
So, so farloin, we have amassedamassé
12 billionmilliard of these emotionémotion dataLes données pointspoints.
123
393749
5270
Jusqu'à présent nous avons accumulé
12 milliards de ces données émotionnelles.
06:51
It's the largestplus grand emotionémotion
databasebase de données in the worldmonde.
124
399019
2611
C'est la plus grande base de données
de ce type au monde,
06:53
We'veNous avons collectedrecueilli it
from 2.9 millionmillion facevisage videosvidéos,
125
401630
2963
construite à partir de 2,9 millions
de vidéos de visages de personnes
06:56
people who have agreedD'accord
to sharepartager theirleur emotionsémotions with us,
126
404593
2600
qui acceptent de partager
leurs émotions avec nous
06:59
and from 75 countriesdes pays around the worldmonde.
127
407193
3205
et provenant de 75 pays différents.
07:02
It's growingcroissance everychaque day.
128
410398
1715
Et ça continue tous les jours.
07:04
It blowscoups my mindesprit away
129
412603
2067
Ça me fascine totalement que l'on puisse
07:06
that we can now quantifyquantifier something
as personalpersonnel as our emotionsémotions,
130
414670
3195
à présent quantifier quelque chose
d'aussi personnel que nos émotions,
07:09
and we can do it at this scaleéchelle.
131
417865
2235
et qu'on le fasse à cette échelle.
07:12
So what have we learnedappris to daterendez-vous amoureux?
132
420100
2177
Qu'a-t-on appris de tout ça
jusqu'à présent ?
07:15
GenderEntre les sexes.
133
423057
2331
En ce qui concerne le genre :
07:17
Our dataLes données confirmsconfirme something
that you mightpourrait suspectsuspect.
134
425388
3646
nos données confirment ce dont
vous vous doutiez probablement,
les femmes sont plus expressives
que les hommes.
07:21
WomenFemmes are more expressiveexpressive than menHommes.
135
429034
1857
07:22
Not only do they smilesourire more,
theirleur smilesdes sourires last longerplus long,
136
430891
2683
Non seulement elles sourient plus,
mais aussi plus longtemps,
07:25
and we can now really quantifyquantifier
what it is that menHommes and womenfemmes
137
433574
2904
et on peut maintenant vraiment
quantifier ce à quoi
les hommes et les femmes
réagissent différemment.
07:28
respondrépondre to differentlydifféremment.
138
436478
2136
07:30
Let's do cultureCulture: So in the UnitedUnie StatesÉtats,
139
438614
2290
Pour l'influence culturelle :
aux États-Unis
07:32
womenfemmes are 40 percentpour cent
more expressiveexpressive than menHommes,
140
440904
3204
si les femmes sont 40% plus expressives
que les hommes, curieusement,
07:36
but curiouslyavec curiosité, we don't see any differencedifférence
in the U.K. betweenentre menHommes and womenfemmes.
141
444108
3645
on ne voit aucune différence
à ce niveau-là au Royaume Uni.
07:39
(LaughterRires)
142
447753
2506
(Rires)
07:43
AgeAge: People who are 50 yearsannées and olderplus âgée
143
451296
4027
Pour l'âge : les personnes
de 50 ans et plus
07:47
are 25 percentpour cent more emotiveémotive
than youngerplus jeune people.
144
455323
3436
sont 25% plus émotives que
les personnes plus jeunes.
Les femmes dans leur vingtaine sourient
beaucoup plus que les hommes du même âge,
07:51
WomenFemmes in theirleur 20s smilesourire a lot more
than menHommes the sameMême ageâge,
145
459899
3852
07:55
perhapspeut être a necessitynécessité for datingsortir ensemble.
146
463751
3839
peut-être par nécessité
pour faire des rencontres.
Mais ce qui nous a surpris le plus
dans toutes ces données,
07:59
But perhapspeut être what surprisedsurpris us
the mostles plus about this dataLes données
147
467590
2617
08:02
is that we happense produire
to be expressiveexpressive all the time,
148
470207
3203
c'est que nous sommes en fait
constamment expressifs,
mais lorsque nous sommes assis
tout seuls en face de nos écrans,
08:05
even when we are sittingséance
in frontde face of our devicesdispositifs aloneseul,
149
473410
2833
08:08
and it's not just when we're watchingen train de regarder
catchat videosvidéos on FacebookFacebook.
150
476243
3274
et pas seulement à regarder
des vidéos de chats sur Facebook.
08:12
We are expressiveexpressive when we're emailingemailing,
textingEnvoyer des SMS, shoppingachats onlineen ligne,
151
480217
3010
Nous sommes expressifs
quand on écrit un mail, un texto,
quand on achète en ligne et
même quand on paie nos impôts.
08:15
or even doing our taxesimpôts.
152
483227
2300
08:17
Where is this dataLes données used todayaujourd'hui?
153
485527
2392
Pour quoi utilise-t-on
ces données aujourd'hui ?
08:19
In understandingcompréhension how we engageengager with mediamédias,
154
487919
2763
Ça va de comprendre comment
nous interagissons avec les médias,
08:22
so understandingcompréhension viralityviralité
and votingvote behaviorcomportement;
155
490682
2484
les phénomènes viraux,
les dynamiques de vote,
08:25
and alsoaussi empoweringautonomiser
or emotion-enablingactivation de l’émotion technologyLa technologie,
156
493166
2740
à doter nos technologies
de capacités émotionnelles,
08:27
and I want to sharepartager some examplesexemples
that are especiallynotamment closeFermer to my heartcœur.
157
495906
4621
et j'aimerais partager avec vous
quelques exemples qui me tiennent à cœur.
08:33
Emotion-enabledÉmotion-activé wearableWearable glassesdes lunettes
can help individualspersonnes
158
501197
3068
Des lunettes à lecture émotionnelle
peuvent aider les malvoyants
08:36
who are visuallyvisuellement impairedaltéré
readlis the facesvisages of othersautres,
159
504265
3228
à décrypter les expressions
sur le visage des autres,
08:39
and it can help individualspersonnes
on the autismautisme spectrumspectre interpretinterpréter emotionémotion,
160
507493
4187
et peuvent aider les personnes atteintes
d'autisme à interpréter les émotions,
08:43
something that they really strugglelutte with.
161
511680
2778
ce qu'elles ont beaucoup de mal à faire.
Pour l'éducation, imaginez que
les applications d'apprentissage
08:47
In educationéducation, imagineimaginer
if your learningapprentissage appsapplications
162
515918
2859
08:50
sensesens that you're confusedconfus and slowlent down,
163
518777
2810
perçoivent votre confusion
et ralentissent,
08:53
or that you're boredennuyé, so it's spedSped up,
164
521587
1857
qu'elles perçoivent votre ennui
et accélèrent
08:55
just like a great teacherprof
would in a classroomSalle de classe.
165
523444
2969
tout comme un bon enseignant
le ferait dans la salle de classe.
08:59
What if your wristwatchmontre-bracelet trackedsuivi your moodambiance,
166
527043
2601
Imaginez que votre montre
puisse déceler votre humeur,
09:01
or your carvoiture sensedsenti that you're tiredfatigué,
167
529644
2693
ou que votre voiture puisse
percevoir votre fatigue,
ou peut-être que votre frigo
puisse sentir que vous êtes stressé
09:04
or perhapspeut être your fridgeréfrigérateur
knowssait that you're stresseda souligné,
168
532337
2548
09:06
so it auto-locksAuto-Lock to preventprévenir you
from bingecrise de boulimie eatingen mangeant. (LaughterRires)
169
534885
6066
et se verrouiller pour empêcher
toute frénésie alimentaire. (Rires)
J'apprécierais ça, oui.
09:12
I would like that, yeah.
170
540951
2717
09:15
What if, when I was in CambridgeCambridge,
171
543668
1927
Que se serait-il passé si à Cambridge
09:17
I had accessaccès to my real-timetemps réél
emotionémotion streamcourant,
172
545595
2313
j'avais eu accès à ces données
émotionnelles
09:19
and I could sharepartager that with my familyfamille
back home in a very naturalNaturel way,
173
547908
3529
pour les partager tout naturellement
avec ma famille à la maison
09:23
just like I would'veaurais if we were all
in the sameMême roomchambre togetherensemble?
174
551437
3971
comme si nous avions tous été
dans la même pièce ?
09:27
I think fivecinq yearsannées down the lineligne,
175
555408
3142
Je pense que d'ici cinq ans,
09:30
all our devicesdispositifs are going
to have an emotionémotion chippuce,
176
558550
2337
tous nos appareils auront
une puce émotionnelle,
09:32
and we won'thabitude rememberrappelles toi what it was like
when we couldn'tne pouvait pas just frownfroncer les sourcils at our devicedispositif
177
560887
4064
et on ne se souviendra même plus
du temps où,
quand on fronçait les sourcils
devant l'un d'eux,
09:36
and our devicedispositif would say, "HmmHmm,
you didn't like that, did you?"
178
564951
4249
il ne nous retournait pas un,
« hmm, ça ne t'a pas plu, hein ? »
09:41
Our biggestplus grand challengedéfi is that there are
so manybeaucoup applicationsapplications of this technologyLa technologie,
179
569200
3761
Notre plus grand défit est qu'il existe
tellement d'applications
à cette technologie.
09:44
my teaméquipe and I realizeprendre conscience de that we can't
buildconstruire them all ourselvesnous-mêmes,
180
572961
2903
Mon équipe et moi nous rendons
bien compte que
nous ne pouvons pas
tout faire nous-même
09:47
so we'venous avons madefabriqué this technologyLa technologie availabledisponible
so that other developersles développeurs
181
575864
3496
et avons donc rendu
cette technologie publique
pour que d'autres puissent
la développer et être créatifs.
09:51
can get buildingbâtiment and get creativeCréatif.
182
579360
2114
09:53
We recognizereconnaître that
there are potentialpotentiel risksrisques
183
581474
4086
Nous sommes conscients
des risques potentiels
09:57
and potentialpotentiel for abuseabuser de,
184
585560
2067
et des possibilités d'abus,
09:59
but personallypersonnellement, havingayant spentdépensé
manybeaucoup yearsannées doing this,
185
587627
2949
mais personnellement,
après avoir passé des années à faire ça,
10:02
I believe that the benefitsavantages to humanityhumanité
186
590576
2972
je pense que les bénéfices
que l'humanité peut recevoir
10:05
from havingayant emotionallyémotionnellement
intelligentintelligent technologyLa technologie
187
593548
2275
d'une technologie
émotionnellement intelligente
10:07
farloin outweighemporter sur the potentialpotentiel for misusemauvaise utilisation.
188
595823
3576
dépassent de loin les risques potentiels
de mauvais usage.
10:11
And I inviteinviter you all to be
partpartie of the conversationconversation.
189
599399
2531
Je vous invite tous
à prendre part à la discussion.
10:13
The more people who know
about this technologyLa technologie,
190
601930
2554
Plus de gens seront au courant
de cette technologie,
10:16
the more we can all have a voicevoix
in how it's beingétant used.
191
604484
3177
mieux on pourra en définir
ensemble les termes d'usage.
10:21
So as more and more
of our livesvies becomedevenir digitalnumérique,
192
609081
4574
Alors que de plus en plus de notre vie
passe au digital, nous nous lançons
10:25
we are fightingcombat a losingperdant battlebataille
tryingen essayant to curbtrottoir our usageusage of devicesdispositifs
193
613655
3498
dans une lutte perdue d'avance pour
restreindre notre usage d'appareils
10:29
in ordercommande to reclaimrécupérer our emotionsémotions.
194
617153
2229
et reconquérir nos émotions.
Ce que j'essaie
10:32
So what I'm tryingen essayant to do insteadau lieu
is to bringapporter emotionsémotions into our technologyLa technologie
195
620622
3914
de faire au contraire est d'amener
nos émotions dans notre technologie
10:36
and make our technologiesles technologies more responsivesensible.
196
624536
2229
et la rendre ainsi plus réactive.
10:38
So I want those devicesdispositifs
that have separatedséparé us
197
626765
2670
Je veux que ces appareils qui
nous séparaient les uns des autres,
10:41
to bringapporter us back togetherensemble.
198
629435
2462
finalement nous rapprochent.
10:43
And by humanizingl’humanisation technologyLa technologie,
we have this goldend'or opportunityopportunité
199
631897
4588
En rendant notre technologie plus humaine,
nous avons également l'opportunité
10:48
to reimagineréinventer how we
connectrelier with machinesmachines,
200
636485
3297
de revoir la façon dont
nous interagissons avec les machines,
10:51
and thereforedonc, how we, as humanHumain beingsêtres,
201
639782
4481
et par là-même la façon
dont nous, humains,
10:56
connectrelier with one anotherun autre.
202
644263
1904
interagissons ensemble.
10:58
Thank you.
203
646167
2160
Merci.
(Applaudissements)
11:00
(ApplauseApplaudissements)
204
648327
3313
Translated by Nicolas Abgrall
Reviewed by Zeineb Trabelsi

▲Back to top

ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee