ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com
TEDWomen 2015

Rana el Kaliouby: This app knows how you feel -- from the look on your face

Rana el Kaliouby: Este aplicativo sabe como nos sentimos — pela expressão no nosso rosto

Filmed:
1,613,290 views

As nossas emoções influenciam cada aspeto da nossa vida: como aprendemos, como comunicamos, como tomamos decisões. Contudo, elas estão ausentes da nossa vida digital. As ferramentas e aplicativos com que interagimos não sabem como nos sentimos. A cientista Rana el Kaliouby pretende mudar isso. Ela apresenta uma nova tecnologia poderosa que lê as expressões faciais e as liga às emoções correspondentes. O ''mecanismo da emoção'' tem grandes implicações, diz ela, e pode mudar não só a forma como interagimos com máquinas, mas também como interagimos uns com os outros.
- Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware. Full bio

Double-click the English transcript below to play the video.

00:12
Our emotionsemoções influenceinfluência
everycada aspectaspecto of our livesvidas,
0
556
4017
As nossas emoções influenciam
todos os aspetos da nossa vida,
desde a nossa saúde,
a forma como aprendemos
00:16
from our healthsaúde and how we learnaprender,
to how we do businesso negócio and make decisionsdecisões,
1
4573
3576
até como trabalhamos
e tomamos decisões,
00:20
biggrande onesuns and smallpequeno.
2
8149
1773
sejam elas pequenas ou grandes.
00:22
Our emotionsemoções alsoAlém disso influenceinfluência
how we connectconectar with one anotheroutro.
3
10672
3490
As nossas emoções também influenciam o modo
como nos relacionamos uns com os outros.
00:27
We'veTemos evolvedevoluiu to liveviver
in a worldmundo like this,
4
15132
3976
Nós evoluímos para viver
num mundo como este.
00:31
but insteadem vez de, we're livingvivo
more and more of our livesvidas like this --
5
19108
4319
Mas, em vez disso, vivemos
cada vez mais desta forma.
00:35
this is the texttexto messagemensagem
from my daughterfilha last night --
6
23427
3134
— esta foi a mensagem
da minha filha ontem à noite —
00:38
in a worldmundo that's devoiddesprovida of emotionemoção.
7
26561
2740
num mundo desprovido de emoção.
Eu estou numa missão para mudar isto.
00:41
So I'm on a missionmissão to changemudança that.
8
29301
1951
00:43
I want to bringtrazer emotionsemoções
back into our digitaldigital experiencesexperiências.
9
31252
4091
Quero fazer voltar as emoções
às nossas experiências digitais.
00:48
I startedcomeçado on this pathcaminho 15 yearsanos agoatrás.
10
36223
3077
Comecei neste caminho há 15 anos.
Eu era cientista de informática no Egito,
00:51
I was a computercomputador scientistcientista in EgyptEgito,
11
39300
2066
00:53
and I had just gottenobtido acceptedaceitaram to
a PhPH.D. programprograma at CambridgeCambridge UniversityUniversidade.
12
41366
4505
e tinha sido aceite
num programa de doutoramento
na Universidade de Cambridge.
00:57
So I did something quitebastante unusualincomum
13
45871
2113
Então, fiz uma coisa bastante invulgar
00:59
for a youngjovem newlywedrecém-casado MuslimMuçulmano EgyptianEgípcio wifeesposa:
14
47984
4225
para uma jovem esposa
egípcia e muçulmana.
01:05
With the supportApoio, suporte of my husbandmarido,
who had to stayfique in EgyptEgito,
15
53599
2999
Com o apoio do meu marido,
que teve que ficar no Egito,
01:08
I packedembalado my bagsbolsas and I movedse mudou to EnglandInglaterra.
16
56598
3018
fiz as malas e fui para Inglaterra.
01:11
At CambridgeCambridge, thousandsmilhares of milesmilhas
away from home,
17
59616
3228
Em Cambridge,
a milhares de quilómetros de casa,
01:14
I realizedpercebi I was spendinggastos
more hourshoras with my laptopcomputador portátil
18
62844
3413
percebi que estava a passar
mais tempo com o meu portátil
do que com qualquer ser humano.
01:18
than I did with any other humanhumano.
19
66257
2229
01:20
YetAinda despiteapesar de this intimacyintimidade, my laptopcomputador portátil
had absolutelyabsolutamente no ideaidéia how I was feelingsentindo-me.
20
68486
4853
Mas, apesar da intimidade,
o meu portátil não fazia ideia nenhuma
de como eu me sentia.
01:25
It had no ideaidéia if I was happyfeliz,
21
73339
3211
Não sabia se eu estava feliz,
se estava a ter um dia mau,
se estava tensa ou confusa,
01:28
havingtendo a badmau day, or stressedestressado, confusedconfuso,
22
76550
2988
01:31
and so that got frustratingfrustrante.
23
79538
2922
e isso tornou-se frustrante.
01:35
Even worsepior, as I communicatedcomunicado
onlineconectados with my familyfamília back home,
24
83600
5231
Pior ainda, quando eu comunicava
com a minha família online,
eu sentia que as minhas emoções
desapareciam no ciberespaço.
01:41
I feltsentiu that all my emotionsemoções
disappeareddesaparecido in cyberspaceciberespaço.
25
89421
3282
01:44
I was homesicksaudades de casa, I was lonelysolitário,
and on some daysdias I was actuallyna realidade cryinga chorar,
26
92703
5155
Eu estava com saudades de casa, solitária,
e, às vezes, até chorava,
01:49
but all I had to communicatecomunicar
these emotionsemoções was this.
27
97858
4928
mas tudo o que eu tinha para comunicar
essas emoções era isto.
01:54
(LaughterRiso)
28
102786
2020
(Risos)
01:56
Today'sHoje technologytecnologia
has lots of I.Q., but no E.Q.;
29
104806
4974
A tecnologia atual tem um alto Q.I,
mas nenhum Q.E.,
ou seja, uma alta inteligência cognitiva,
mas nenhuma inteligência emocional.
02:01
lots of cognitivecognitivo intelligenceinteligência,
but no emotionalemocional intelligenceinteligência.
30
109780
3176
02:04
So that got me thinkingpensando,
31
112956
2197
Então comecei a pensar:
02:07
what if our technologytecnologia
could sensesentido our emotionsemoções?
32
115153
3624
E se a nossa tecnologia pudesse
reconhecer as nossas emoções?
02:10
What if our devicesdispositivos could sensesentido
how we feltsentiu and reactedreagi accordinglyem conformidade,
33
118777
4076
E se ela pudesse reconhecer
os nossos sentimentos
e reagir de acordo com eles,
02:14
just the way an emotionallyemocionalmente
intelligentinteligente friendamigos would?
34
122853
3013
do mesmo modo que um amigo
emocionalmente inteligente reagiria?
02:18
Those questionsquestões led me and my teamequipe
35
126666
3564
Estas perguntas fizeram
com que eu e a minha equipa
02:22
to createcrio technologiestecnologias that can readler
and respondresponder to our emotionsemoções,
36
130230
4377
criássemos tecnologias capazes
de ler e de reagir às nossas emoções.
O nosso ponto de partida
foi o rosto humano.
02:26
and our startinginiciando pointponto was the humanhumano facecara.
37
134607
3090
O rosto humano é um
dos mais poderosos canais
02:30
So our humanhumano facecara happensacontece to be
one of the mosta maioria powerfulpoderoso channelscanais
38
138577
3173
02:33
that we all use to communicatecomunicar
socialsocial and emotionalemocional statesestados,
39
141750
4016
que utilizamos para comunicar
os estados sociais e emocionais,
como a alegria,
02:37
everything from enjoymentprazer, surprisesurpresa,
40
145766
3010
a surpresa,
02:40
empathyempatia and curiositycuriosidade.
41
148776
4203
a empatia
e a curiosidade.
02:44
In emotionemoção scienceCiência, we call eachcada
facialtratamento facial musclemúsculo movementmovimento an actionaçao unitunidade.
42
152979
4928
Na ciência da emoção,
chamamos "unidade de ação"
a cada movimento facial muscular ,
02:49
So for exampleexemplo, actionaçao unitunidade 12,
43
157907
2925
Por exemplo, ''unidade de ação 12'',
— não é um grande êxito de Hollywood —
02:52
it's not a HollywoodHollywood blockbustersucesso de público,
44
160832
2038
é o levantar do canto do lábio,
o principal componente de um sorriso.
02:54
it is actuallyna realidade a liplábio cornercanto pullpuxar,
whichqual is the maina Principal componentcomponente of a smilesorrir.
45
162870
3442
Tentem, todos vocês.
Vamos ver alguns sorrisos.
02:58
Try it everybodytodo mundo. Let's get
some smilessorrisos going on.
46
166312
2988
Outro exemplo é a "unidade de ação 4".
É franzir a testa.
03:01
AnotherOutro exampleexemplo is actionaçao unitunidade 4.
It's the browtesta furrowsulco.
47
169300
2654
03:03
It's when you drawdesenhar your eyebrowssobrancelhas togetherjuntos
48
171954
2238
É quando aproximamos as sobrancelhas,
e criamos várias texturas e rugas.
03:06
and you createcrio all
these texturestexturas and wrinklesrugas.
49
174192
2267
Não gostamos delas, mas é
um forte indicador de emoções negativas.
03:08
We don't like them, but it's
a strongForte indicatorindicador of a negativenegativo emotionemoção.
50
176459
4295
Temos cerca de 45 unidades de ação,
03:12
So we have about 45 of these actionaçao unitsunidades,
51
180754
2206
que se combinam para exprimir
centenas de emoções.
03:14
and they combinecombinar to expressexpressar
hundredscentenas of emotionsemoções.
52
182960
3390
Ensinar um computador a ler
essas emoções faciais é difícil
03:18
TeachingEnsino a computercomputador to readler
these facialtratamento facial emotionsemoções is hardDifícil,
53
186350
3901
porque essas unidades de ação
podem ser rápidas, podem ser subtis,
03:22
because these actionaçao unitsunidades,
they can be fastvelozes, they're subtlesutil,
54
190251
2972
03:25
and they combinecombinar in manymuitos differentdiferente waysmaneiras.
55
193223
2554
e combinam-se de muita formas diferentes.
03:27
So take, for exampleexemplo,
the smilesorrir and the smirksorriso.
56
195777
3738
Por exemplo, o sorriso alegre
e o sorriso irónico.
03:31
They look somewhatum pouco similarsemelhante,
but they mean very differentdiferente things.
57
199515
3753
São parecidos, mas
significam coisas muito diferentes.
03:35
(LaughterRiso)
58
203268
1718
(Risos)
03:36
So the smilesorrir is positivepositivo,
59
204986
3004
O sorriso alegre é positivo,
o sorriso irónico, geralmente, é negativo.
03:39
a smirksorriso is oftenfrequentemente negativenegativo.
60
207990
1270
Às vezes o sorriso irónico
pode tornar alguém famoso.
03:41
SometimesÀs vezes a smirksorriso
can make you becometornar-se famousfamoso.
61
209260
3876
03:45
But seriouslya sério, it's importantimportante
for a computercomputador to be ablecapaz
62
213136
2824
É importante que um computador
consiga distinguir essas duas expressões.
03:47
to tell the differencediferença
betweenentre the two expressionsexpressões.
63
215960
2855
Então como fazemos isso?
03:50
So how do we do that?
64
218815
1812
Damos aos nossos algoritmos
03:52
We give our algorithmsalgoritmos
65
220627
1787
03:54
tensdezenas of thousandsmilhares of examplesexemplos
of people we know to be smilingsorridente,
66
222414
4110
dezenas de milhares de exemplos
de pessoas que sorriem alegremente,
03:58
from differentdiferente ethnicitiesetnias, agesidades, genderssexos,
67
226524
3065
pessoas de diferentes etnias,
idades, sexos,
04:01
and we do the samemesmo for smirkssmirks.
68
229589
2811
e fazemos o mesmo com o sorriso irónico.
Usando a aprendizagem profunda,
04:04
And then, usingusando deepprofundo learningAprendendo,
69
232400
1554
04:05
the algorithmalgoritmo de looksparece for all these
texturestexturas and wrinklesrugas
70
233954
2856
o algoritmo procura todas
essas texturas e rugas
04:08
and shapeforma changesalterar on our facecara,
71
236810
2580
e as mudanças de forma no nosso rosto,
e aprende que todos os sorrisos alegres
têm características em comum
04:11
and basicallybasicamente learnsaprende that all smilessorrisos
have commoncomum characteristicscaracterísticas,
72
239390
3202
e todos os sorrisos irónicos têm
características subtilmente diferentes.
04:14
all smirkssmirks have subtlysutilmente
differentdiferente characteristicscaracterísticas.
73
242592
3181
04:17
And the nextPróximo time it sees a newNovo facecara,
74
245773
2368
E quando voltar a ver um novo rosto,
ele aprende que esse rosto
04:20
it essentiallyessencialmente learnsaprende that
75
248141
2299
04:22
this facecara has the samemesmo
characteristicscaracterísticas of a smilesorrir,
76
250440
3033
tem as mesmas características
de um sorriso alegre e diz:
04:25
and it saysdiz, "AhaAha, I recognizereconhecer this.
This is a smilesorrir expressionexpressão."
77
253473
4278
''Aha, eu reconheço isto.
Esta é uma expressão de sorriso alegre.''
04:30
So the bestmelhor way to demonstratedemonstrar
how this technologytecnologia workstrabalho
78
258381
2800
A melhor maneira de demonstrar
como essa tecnologia funciona
04:33
is to try a liveviver demodemo,
79
261181
2136
é fazer uma demonstração ao vivo.
04:35
so I need a volunteervoluntário,
preferablypreferencialmente somebodyalguém with a facecara.
80
263317
3913
Portanto, preciso de um voluntário,
de preferência alguém com um rosto.
(Risos)
04:39
(LaughterRiso)
81
267230
2334
04:41
Cloe'sCloe going to be our volunteervoluntário todayhoje.
82
269564
2771
Cloe vai ser hoje a nossa voluntária.
04:45
So over the pastpassado fivecinco yearsanos, we'venós temos movedse mudou
from beingser a researchpesquisa projectprojeto at MITMIT
83
273325
4458
Nos últimos cinco anos, passámos
de um projeto de pesquisa no MIT
04:49
to a companyempresa,
84
277783
1156
para uma empresa,
04:50
where my teamequipe has workedtrabalhou really hardDifícil
to make this technologytecnologia work,
85
278939
3192
onde o meu grupo tem trabalhado muito
para fazer funcionar esta tecnologia,
04:54
as we like to say, in the wildselvagem.
86
282131
2409
como gostamos de dizer, no dia-a-dia.
04:56
And we'venós temos alsoAlém disso shrunkencolhido it so that
the coretestemunho emotionemoção enginemotor
87
284540
2670
E também a reduzimos para que
o mecanismo de emoção central
04:59
workstrabalho on any mobileMóvel devicedispositivo
with a cameraCâmera, like this iPadiPad.
88
287210
3320
funcione em qualquer aparelho
com câmara, como este iPad.
05:02
So let's give this a try.
89
290530
2786
Então vamos lá testá-lo.
05:06
As you can see, the algorithmalgoritmo de
has essentiallyessencialmente foundencontrado Cloe'sCloe facecara,
90
294756
3924
Como podem ver, o algoritmo
encontrou o rosto da Cloe
05:10
so it's this whitebranco boundingdelimitadora boxcaixa,
91
298680
1692
— é esta caixa delimitadora branca —
05:12
and it's trackingrastreamento the maina Principal
featurecaracterística pointspontos on her facecara,
92
300372
2571
e está a procurar
os pontos principais das feições dela:
05:14
so her eyebrowssobrancelhas, her eyesolhos,
her mouthboca and her nosenariz.
93
302943
2856
as sobrancelhas, os olhos,
a boca e o nariz.
05:17
The questionquestão is,
can it recognizereconhecer her expressionexpressão?
94
305799
2987
A pergunta é: ''Poderá
reconhecer a expressão dela?''
Vamos testar a máquina.
05:20
So we're going to testteste the machinemáquina.
95
308786
1671
Primeiro, faz um rosto inexpressivo.
Isso, fantástico.
05:22
So first of all, give me your pokerpóquer facecara.
YepSim, awesomeimpressionante. (LaughterRiso)
96
310457
4186
(Risos)
05:26
And then as she smilessorrisos,
this is a genuinegenuíno smilesorrir, it's great.
97
314643
2813
Quando ela sorri, é um
sorriso genuíno, é ótimo.
05:29
So you can see the greenverde barBarra
go up as she smilessorrisos.
98
317456
2300
Vejam a barra verde
subir quando ela sorri.
Esse foi um sorriso enorme.
05:31
Now that was a biggrande smilesorrir.
99
319756
1222
05:32
Can you try a subtlesutil smilesorrir
to see if the computercomputador can recognizereconhecer?
100
320978
3043
Podes sorrir levemente,
para ver se o computador reconhece?
Ele também reconhece sorrisos subtis.
05:36
It does recognizereconhecer subtlesutil smilessorrisos as well.
101
324021
2331
Trabalhámos muito para que isto aconteça.
05:38
We'veTemos workedtrabalhou really hardDifícil
to make that happenacontecer.
102
326352
2125
Agora o levantar das sobrancelhas,
que indica surpresa.
05:40
And then eyebrowsobrancelha raisedlevantado,
indicatorindicador of surprisesurpresa.
103
328477
2962
O franzir da testa,
que indica confusão.
05:43
BrowTesta furrowsulco, whichqual is
an indicatorindicador of confusionconfusão.
104
331439
4249
(Risos)
05:47
FrownCarranca. Yes, perfectperfeito.
105
335688
4007
O franzir de sobrancelhas. Perfeito.
05:51
So these are all the differentdiferente
actionaçao unitsunidades. There's manymuitos more of them.
106
339695
3493
Estas são diferentes unidades de ação.
Existem muitas outras.
Esta é uma demonstração reduzida.
05:55
This is just a slimmed-downenxuta demodemo.
107
343188
2032
05:57
But we call eachcada readingleitura
an emotionemoção datadados pointponto,
108
345220
3148
Nós consideramos cada leitura
como um dado emocional.
06:00
and then they can firefogo togetherjuntos
to portrayretratar differentdiferente emotionsemoções.
109
348368
2969
Podem aparecer juntos
para representar diferentes emoções.
06:03
So on the right sidelado of the demodemo --
look like you're happyfeliz.
110
351337
4653
No lado direito da demonstração
— parece que estamos felizes.
Isso é alegria. A alegria dispara.
06:07
So that's joyalegria. JoyAlegria firesincêndios up.
111
355990
1454
06:09
And then give me a disgustnojo facecara.
112
357444
1927
Agora faz uma cara de desgosto.
06:11
Try to rememberlembrar what it was like
when ZaynZayn left One DirectionDireção.
113
359371
4272
Tenta lembrar-te como te sentiste
quando Zayn saiu dos One Direction.
(Risos)
06:15
(LaughterRiso)
114
363643
1510
Isso, enruga o nariz. Ótimo.
06:17
Yeah, wrinkleruga your nosenariz. AwesomeImpressionante.
115
365153
4342
06:21
And the valenceValência is actuallyna realidade quitebastante
negativenegativo, so you mustdevo have been a biggrande fanventilador.
116
369495
3731
A valência está muito negativa,
devias ser uma grande fã.
A valência é quão positiva
ou negativa é uma experiência,
06:25
So valenceValência is how positivepositivo
or negativenegativo an experienceexperiência is,
117
373226
2700
06:27
and engagementnoivado is how
expressiveexpressiva she is as well.
118
375926
2786
e o envolvimento é
quão expressiva é a pessoa.
06:30
So imagineImagine if CloeCloe had accessAcesso
to this real-timetempo real emotionemoção streamcorrente,
119
378712
3414
Imaginem se Cloe tivesse acesso
a este fluxo digital de emoções,
06:34
and she could sharecompartilhar it
with anybodyqualquer pessoa she wanted to.
120
382126
2809
e pudesse partilhar isso
com quem ela quisesse.
06:36
Thank you.
121
384935
2923
Obrigada.
(Aplausos)
06:39
(ApplauseAplausos)
122
387858
4621
06:45
So, so farlonge, we have amassedacumulou
12 billionbilhão of these emotionemoção datadados pointspontos.
123
393749
5270
Até agora, já acumulámos 12 mil milhões
destes dados emocionais.
É o maior banco de dados
emocionais do mundo.
06:51
It's the largestmaiores emotionemoção
databasebase de dados in the worldmundo.
124
399019
2611
Fomos buscá-los a 2,9 milhões
de vídeos de rostos,
06:53
We'veTemos collectedcoletado it
from 2.9 millionmilhão facecara videosvídeos,
125
401630
2963
06:56
people who have agreedacordado
to sharecompartilhar theirdeles emotionsemoções with us,
126
404593
2600
de pessoas que aceitaram partilhar
as suas emoções connosco,
06:59
and from 75 countriespaíses around the worldmundo.
127
407193
3205
de 75 países em todo o mundo.
07:02
It's growingcrescendo everycada day.
128
410398
1715
Ele está a crescer todos os dias.
07:04
It blowsgolpes my mindmente away
129
412603
2067
Eu fico espantada com o fato de que
07:06
that we can now quantifyquantificar something
as personalpessoal as our emotionsemoções,
130
414670
3195
hoje em dia podemos quantificar
uma coisa tão pessoal como as emoções
07:09
and we can do it at this scaleescala.
131
417865
2235
e podemos fazer isso a este nível.
07:12
So what have we learnedaprendido to dateencontro?
132
420100
2177
Então o que é que aprendemos até agora?
07:15
GenderSexo.
133
423057
2331
Diferenças entre sexos.
Os nossos dados confirmam uma coisa
que vocês talvez suspeitem.
07:17
Our datadados confirmsconfirma something
that you mightpoderia suspectsuspeito.
134
425388
3646
As mulheres são mais expressivas
do que os homens.
07:21
WomenMulheres are more expressiveexpressiva than menhomens.
135
429034
1857
07:22
Not only do they smilesorrir more,
theirdeles smilessorrisos last longermais longo,
136
430891
2683
Sorriem-se mais,
e os sorrisos delas duram mais tempo.
07:25
and we can now really quantifyquantificar
what it is that menhomens and womenmulheres
137
433574
2904
Podemos quantificar
a que é que homens e mulheres
07:28
respondresponder to differentlydiferente.
138
436478
2136
reagem de modo diferente.
07:30
Let's do culturecultura: So in the UnitedUnidos StatesEstados-Membros,
139
438614
2290
Vamos contribuir para a cultura:
Nos Estados Unidos,
07:32
womenmulheres are 40 percentpor cento
more expressiveexpressiva than menhomens,
140
440904
3204
as mulheres são 50% mais expressivas
do que os homens
07:36
but curiouslycuriosamente, we don't see any differencediferença
in the U.K. betweenentre menhomens and womenmulheres.
141
444108
3645
mas, curiosamente, não vemos diferença
no Reino Unido entre homens e mulheres.
07:39
(LaughterRiso)
142
447753
2506
(Risos)
07:43
AgeIdade: People who are 50 yearsanos and olderMais velho
143
451296
4027
Idade: As pessoas com 50 anos ou mais
07:47
are 25 percentpor cento more emotiveemotivas
than youngermais jovem people.
144
455323
3436
são 25% mais emotivas
do que as pessoas jovens.
As mulheres na faixa dos 20 anos sorriem
mais do que os homens da mesma idade,
07:51
WomenMulheres in theirdeles 20s smilesorrir a lot more
than menhomens the samemesmo ageera,
145
459899
3852
talvez seja uma necessidade
para arranjar namoro.
07:55
perhapspossivelmente a necessitynecessidade for datingnamoro.
146
463751
3839
Mas talvez o que mais nos surpreendeu
em relação a estes dados
07:59
But perhapspossivelmente what surprisedsurpreso us
the mosta maioria about this datadados
147
467590
2617
08:02
is that we happenacontecer
to be expressiveexpressiva all the time,
148
470207
3203
é que nós somos expressivos o tempo todo,
mesmo quando estamos sentados sozinhos
em frente dos nossos computadores,
08:05
even when we are sittingsentado
in frontfrente of our devicesdispositivos alonesozinho,
149
473410
2833
08:08
and it's not just when we're watchingassistindo
catgato videosvídeos on FacebookFacebook.
150
476243
3274
e não é só quando assistimos
a vídeos de gatos no Facebook.
Somos expressivos quando enviamos e-mails
e mensagens, quando compramos online,
08:12
We are expressiveexpressiva when we're emailingEnviar por e-mail,
textingmensagens de texto, shoppingcompras onlineconectados,
151
480217
3010
08:15
or even doing our taxesimpostos.
152
483227
2300
e até quando fazemos
a declaração de impostos.
08:17
Where is this datadados used todayhoje?
153
485527
2392
Onde é que esses dados são usados hoje?
08:19
In understandingcompreensão how we engagese empenhar with mediameios de comunicação,
154
487919
2763
Para compreender
como nos envolvemos com os media;
para compreender os fenómenos virais
e o comportamento eleitoral;
08:22
so understandingcompreensão viralityvitalidade
and votingvotação behaviorcomportamento;
155
490682
2484
08:25
and alsoAlém disso empoweringcapacitação
or emotion-enablinghabilitação de emoção technologytecnologia,
156
493166
2740
e também nas tecnologias
que reforçam ou provocam emoções.
08:27
and I want to sharecompartilhar some examplesexemplos
that are especiallyespecialmente closefechar to my heartcoração.
157
495906
4621
Quero mostrar-vos alguns exemplos
que considero muito especiais.
08:33
Emotion-enabledHabilitados em emoção wearablewearable glassesóculos
can help individualsindivíduos
158
501197
3068
Óculos que reconheçam emoções
podem ajudar indivíduos
08:36
who are visuallyvisualmente impairedprejudicado
readler the facesrostos of othersoutras,
159
504265
3228
que possuem deficiente visão
a ler o rosto dos outros.
08:39
and it can help individualsindivíduos
on the autismautismo spectrumespectro interpretinterpretar emotionemoção,
160
507493
4187
Podem ajudar indivíduos do espetro
autista a interpretar emoções,
que é uma coisa
em que eles têm muita dificuldade.
08:43
something that they really struggleluta with.
161
511680
2778
Na área do ensino, imaginem se
os aplicativos educacionais
08:47
In educationEducação, imagineImagine
if your learningAprendendo appsaplicativos
162
515918
2859
08:50
sensesentido that you're confusedconfuso and slowlento down,
163
518777
2810
percebam que estamos confusos
e abrandem de velocidade
08:53
or that you're boredentediado, so it's spedSPED up,
164
521587
1857
ou que estamos aborrecidos
e avancem mais depressa,
08:55
just like a great teacherprofessor
would in a classroomSala de aula.
165
523444
2969
como faria um bom professor na aula.
08:59
What if your wristwatchrelógio de pulso trackedmonitorados your moodhumor,
166
527043
2601
E se o nosso relógio detetasse
a nossa disposição?
09:01
or your carcarro sensedsentiu that you're tiredcansado,
167
529644
2693
Ou se o nosso carro sentisse que
estamos cansados?
09:04
or perhapspossivelmente your fridgegeladeira
knowssabe that you're stressedestressado,
168
532337
2548
Ou o nosso frigorífico percebesse
que estamos nervosos
09:06
so it auto-locksautofechaduras to preventevita you
from bingecompulsão eatingcomendo. (LaughterRiso)
169
534885
6066
e trancasse automaticamente
para impedir que comamos demais?
(Risos)
Eu adoraria isso.
09:12
I would like that, yeah.
170
540951
2717
09:15
What if, when I was in CambridgeCambridge,
171
543668
1927
E se, quando eu estava em Cambridge,
09:17
I had accessAcesso to my real-timetempo real
emotionemoção streamcorrente,
172
545595
2313
eu tivesse tido acesso ao
meu fluxo de emoções em tempo real
09:19
and I could sharecompartilhar that with my familyfamília
back home in a very naturalnatural way,
173
547908
3529
e pudesse partilhar isso
com a minha família de modo natural,
09:23
just like I would'veteria if we were all
in the samemesmo roomquarto togetherjuntos?
174
551437
3971
tal como faria se estivéssemos
todos juntos na mesma sala?
09:27
I think fivecinco yearsanos down the linelinha,
175
555408
3142
Eu acho que, daqui a 5 anos,
todos os nossos aparelhos
terão um chip emocional.
09:30
all our devicesdispositivos are going
to have an emotionemoção chiplasca,
176
558550
2337
09:32
and we won'tnão vai rememberlembrar what it was like
when we couldn'tnão podia just frowncarranca at our devicedispositivo
177
560887
4064
Nem nos vamos lembrar como era não poder
franzir testa para o computador
09:36
and our devicedispositivo would say, "HmmHmm,
you didn't like that, did you?"
178
564951
4249
e ele responder:
''Hmm, não gostaste disto, pois não?.''
09:41
Our biggestmaior challengedesafio is that there are
so manymuitos applicationsaplicações of this technologytecnologia,
179
569200
3761
O nosso maior desafio é que há
tantas aplicações desta tecnologia
que a minha equipa e eu percebemos que
não podemos montar tudo sozinhos.
09:44
my teamequipe and I realizeperceber that we can't
buildconstruir them all ourselvesnós mesmos,
180
572961
2903
09:47
so we'venós temos madefeito this technologytecnologia availableacessível
so that other developersdesenvolvedores
181
575864
3496
Assim, tornámos disponível esta tecnologia
para que outras pessoas
09:51
can get buildingconstrução and get creativecriativo.
182
579360
2114
possam começar a construir e a criar.
09:53
We recognizereconhecer that
there are potentialpotencial risksriscos
183
581474
4086
Sabemos que há riscos potenciais
09:57
and potentialpotencial for abuseAbuso,
184
585560
2067
e há potencial para abusos,
09:59
but personallypessoalmente, havingtendo spentgasto
manymuitos yearsanos doing this,
185
587627
2949
mas, pessoalmente, como trabalhei
nisto durante muitos anos,
10:02
I believe that the benefitsbenefícios to humanityhumanidade
186
590576
2972
acredito que os benefícios
para a humanidade
de termos uma tecnologia
emocionalmente inteligente
10:05
from havingtendo emotionallyemocionalmente
intelligentinteligente technologytecnologia
187
593548
2275
10:07
farlonge outweighsuperam the potentialpotencial for misuseuso indevido.
188
595823
3576
são muito maiores que o potencial
para uso indevido.
10:11
And I inviteconvite you all to be
partparte of the conversationconversação.
189
599399
2531
Convido todos vocês para
participar nessa discussão.
10:13
The more people who know
about this technologytecnologia,
190
601930
2554
Quanto mais pessoas souberem
sobre esta tecnologia,
10:16
the more we can all have a voicevoz
in how it's beingser used.
191
604484
3177
mais força terá a nossa voz
quanto à forma como for usada.
10:21
So as more and more
of our livesvidas becometornar-se digitaldigital,
192
609081
4574
À medida que a nossa vida
é cada vez mais digital,
10:25
we are fightingcombate a losingperdendo battlebatalha
tryingtentando to curbmeio-fio our usageuso of devicesdispositivos
193
613655
3498
travamos uma luta perdida ao tentar
restringir o nosso uso de tecnologias
10:29
in orderordem to reclaimrecuperar our emotionsemoções.
194
617153
2229
para reivindicar as nossas emoções.
Em vez disso, quero introduzir
as emoções na nossa tecnologia
10:32
So what I'm tryingtentando to do insteadem vez de
is to bringtrazer emotionsemoções into our technologytecnologia
195
620622
3914
10:36
and make our technologiestecnologias more responsiveresponsivo.
196
624536
2229
e tornar a nossa tecnologia mais recetível.
10:38
So I want those devicesdispositivos
that have separatedseparado us
197
626765
2670
Quero que estes aparelhos
que nos separaram
10:41
to bringtrazer us back togetherjuntos.
198
629435
2462
nos unam novamente.
10:43
And by humanizinghumanizar technologytecnologia,
we have this goldendourado opportunityoportunidade
199
631897
4588
Ao humanizar a tecnologia,
temos uma oportunidade perfeita
10:48
to reimagineReimagine how we
connectconectar with machinesmáquinas,
200
636485
3297
para re-imaginar como
nos relacionamos com máquinas
10:51
and thereforeassim sendo, how we, as humanhumano beingsseres,
201
639782
4481
e, portanto, como nós,
enquanto seres humanos,
nos relacionamos uns com os outros.
10:56
connectconectar with one anotheroutro.
202
644263
1904
10:58
Thank you.
203
646167
2160
Obrigada.
11:00
(ApplauseAplausos)
204
648327
3313
(Aplausos)
Translated by Marina Cheffe
Reviewed by Margarida Ferreira

▲Back to top

ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com