ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com
TEDWomen 2015

Rana el Kaliouby: This app knows how you feel -- from the look on your face

Rana el Kaliouby: Este aplicativo sabe como você se sente... pela expressão em seu rosto

Filmed:
1,613,290 views

Nossos sentimentos influenciam cada aspecto de nossas vidas: como aprendemos, como nos comunicamos, como tomamos decisões. E mesmo assim estão ausentes em nossas vidas digitais; os dispositivos e aplicativos com os quais interagimos não conseguem entender nossos sentimentos. A cientista Rana el Kaliouby quer mudar isso. Ela demonstra uma nova tecnologia poderosa que lê sua expressão facial e lhe atribui o sentimento correspondente. Essa "máquina de sentimentos" tem grandes implicações, segundo ela, e pode mudar não apenas como nós interagimos com as máquinas; mas também uns com os outros.
- Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware. Full bio

Double-click the English transcript below to play the video.

00:12
Our emotions influence
every aspect of our lives,
0
556
4017
Nossos sentimentos influenciam
todos os aspectos de nossas vidas,
00:16
from our health and how we learn,
to how we do business and make decisions,
1
4573
3576
desde nossa saúde e aprendizado
até como fazemos negócios e decisões,
00:20
big ones and small.
2
8149
1773
grandes ou pequenas.
Nossos sentimentos também influenciam
como nos conectamos.
00:22
Our emotions also influence
how we connect with one another.
3
10672
3490
Nós evoluímos para viver
num mundo como esse,
00:27
We've evolved to live
in a world like this,
4
15132
3976
00:31
but instead, we're living
more and more of our lives like this --
5
19108
4319
mas em vez disso, cada vez mais
vivemos nossas vidas assim;
00:35
this is the text message
from my daughter last night --
6
23427
3134
esta mensagem
da minha filha ontem à noite;
00:38
in a world that's devoid of emotion.
7
26561
2740
em um mundo desprovido de sentimentos.
00:41
So I'm on a mission to change that.
8
29301
1951
Eu estou numa missão para mudar isso.
00:43
I want to bring emotions
back into our digital experiences.
9
31252
4091
Quero recolocar os sentimentos
em nossas vidas digitais.
00:48
I started on this path 15 years ago.
10
36223
3077
Eu comecei essa jornada há 15 anos.
00:51
I was a computer scientist in Egypt,
11
39300
2066
Eu era cientista da computação no Egito,
00:53
and I had just gotten accepted to
a Ph.D. program at Cambridge University.
12
41366
4505
e tinha acabado de ser aceita
em um Ph.D. na Universidade de Cambridge.
00:57
So I did something quite unusual
13
45871
2113
Então fiz algo bem inusitado
00:59
for a young newlywed Muslim Egyptian wife:
14
47984
4225
para uma jovem esposa
egípcia muçulmana recém-casada:
(Risos)
01:05
With the support of my husband,
who had to stay in Egypt,
15
53599
2999
Com o apoio de meu marido,
que teve que ficar no Egito,
01:08
I packed my bags and I moved to England.
16
56598
3018
eu arrumei minhas malas
e me mudei para a Inglaterra.
01:11
At Cambridge, thousands of miles
away from home,
17
59616
3228
Em Cambridge, milhares
de quilômetros longe de casa,
01:14
I realized I was spending
more hours with my laptop
18
62844
3413
eu percebi que passava
mais tempo com meu laptop
do que com qualquer outro ser humano.
01:18
than I did with any other human.
19
66257
2229
01:20
Yet despite this intimacy, my laptop
had absolutely no idea how I was feeling.
20
68486
4853
E apesar desta intimidade,
meu laptop não tinha a menor ideia
de como eu me sentia.
01:25
It had no idea if I was happy,
21
73339
3211
Não tinha ideia se eu estava feliz,
01:28
having a bad day, or stressed, confused,
22
76550
2988
se num dia ruim, estressada, confusa,
01:31
and so that got frustrating.
23
79538
2922
e isso acabou ficando frustrante.
01:35
Even worse, as I communicated
online with my family back home,
24
83600
5231
Pior ainda, enquanto eu me comunicava
online com a minha família em casa,
eu sentia que todos os meus sentimentos
desapareciam no cyberespaço.
01:41
I felt that all my emotions
disappeared in cyberspace.
25
89421
3282
01:44
I was homesick, I was lonely,
and on some days I was actually crying,
26
92703
5155
Eu sentia saudades, estava sozinha,
e alguns até mesmo chorava,
01:49
but all I had to communicate
these emotions was this.
27
97858
4928
mas tudo que eu tinha
para expressar esses sentimentos era isto.
01:54
(Laughter)
28
102786
2020
(Risos)
01:56
Today's technology
has lots of I.Q., but no E.Q.;
29
104806
4974
A tecnologia atual tem muito QI,
mas nenhum QE;
02:01
lots of cognitive intelligence,
but no emotional intelligence.
30
109780
3176
muita inteligência cognitiva,
mas nenhuma inteligência emocional.
02:04
So that got me thinking,
31
112956
2197
E isso me fez pensar,
02:07
what if our technology
could sense our emotions?
32
115153
3624
e se nossa tecnologia pudesse
perceber nossos sentimentos?
02:10
What if our devices could sense
how we felt and reacted accordingly,
33
118777
4076
E se nossos dispositivos pudessem perceber
como nos sentimos e reagissem de acordo,
02:14
just the way an emotionally
intelligent friend would?
34
122853
3013
como um amigo
emocionalmente inteligente faria?
02:18
Those questions led me and my team
35
126666
3564
Essas questões fizeram
com que eu e minha equipe
02:22
to create technologies that can read
and respond to our emotions,
36
130230
4377
criássemos tecnologias que pudessem
ler e reagir aos nossos sentimentos,
02:26
and our starting point was the human face.
37
134607
3090
e nosso ponto de partida
foi o rosto humano.
02:30
So our human face happens to be
one of the most powerful channels
38
138577
3173
Nosso rosto humano
é um dos canais mais poderosos
02:33
that we all use to communicate
social and emotional states,
39
141750
4016
que todos nós usamos para comunicar
estados sociais e emocionais,
02:37
everything from enjoyment, surprise,
40
145766
3010
tudo desde alegria, surpresa,
02:40
empathy and curiosity.
41
148776
4203
empatia e curiosidade.
02:44
In emotion science, we call each
facial muscle movement an action unit.
42
152979
4928
Na ciência dos sentimentos,
nós chamamos cada movimento
muscular facial de unidade de ação.
02:49
So for example, action unit 12,
43
157907
2925
Por exemplo, unidade de ação 12,
02:52
it's not a Hollywood blockbuster,
44
160832
2038
não é um filme de Holywood,
é sim uma fisgada no canto dos lábios,
02:54
it is actually a lip corner pull,
which is the main component of a smile.
45
162870
3442
que é o principal
componente de um sorriso.
02:58
Try it everybody. Let's get
some smiles going on.
46
166312
2988
Tentem vocês.
Vamos mostrar alguns sorrisos.
03:01
Another example is action unit 4.
It's the brow furrow.
47
169300
2654
Outro exemplo é a unidade de ação 4.
Que é a testa franzida.
03:03
It's when you draw your eyebrows together
48
171954
2238
É quando você junta as sobrancelhas
03:06
and you create all
these textures and wrinkles.
49
174192
2267
e cria todas estas texturas e dobras.
Não gostamos disso,
03:08
We don't like them, but it's
a strong indicator of a negative emotion.
50
176459
4295
mas é um forte indicador
de um sentimento negativo.
Temos cerca de 45 dessas unidades de ação,
03:12
So we have about 45 of these action units,
51
180754
2206
e elas se combinam para expressar
centenas de sentimentos.
03:14
and they combine to express
hundreds of emotions.
52
182960
3390
03:18
Teaching a computer to read
these facial emotions is hard,
53
186350
3901
Ensinar um computador a ler
essas emoções faciais é difícil,
porque essas unidades de ação
podem ser rápidas, elas são sutis,
03:22
because these action units,
they can be fast, they're subtle,
54
190251
2972
03:25
and they combine in many different ways.
55
193223
2554
e se combinam
de várias maneiras diferentes.
03:27
So take, for example,
the smile and the smirk.
56
195777
3738
Então peguem, por exemplo,
o sorriso genuíno e o malicioso.
03:31
They look somewhat similar,
but they mean very different things.
57
199515
3753
Eles se parecem de certa maneira,
mas querem dizer coisas bem diferentes.
03:35
(Laughter)
58
203268
1718
(Risos)
03:36
So the smile is positive,
59
204986
3004
O sorriso genuíno é positivo,
o malicioso normalmente é negativo.
03:39
a smirk is often negative.
60
207990
1270
Às vezes um sorriso malicioso
pode torná-lo famoso.
03:41
Sometimes a smirk
can make you become famous.
61
209260
3876
03:45
But seriously, it's important
for a computer to be able
62
213136
2824
Mas falando sério, é importante
que um computador consiga
03:47
to tell the difference
between the two expressions.
63
215960
2855
diferenciar essas duas expressões.
Então, como fazemos?
03:50
So how do we do that?
64
218815
1812
Nós damos ao nosso algoritmo
03:52
We give our algorithms
65
220627
1787
03:54
tens of thousands of examples
of people we know to be smiling,
66
222414
4110
dezenas de milhares de exemplos de pessoas
que sabemos que estão sorrindo,
03:58
from different ethnicities, ages, genders,
67
226524
3065
de diferentes etnias, idades e gêneros,
04:01
and we do the same for smirks.
68
229589
2811
e fazemos o mesmo
para sorrisos maliciosos.
E assim, usando aprendizagem profunda,
04:04
And then, using deep learning,
69
232400
1554
04:05
the algorithm looks for all these
textures and wrinkles
70
233954
2856
o algoritmo busca
todas essas texturas e dobras
04:08
and shape changes on our face,
71
236810
2580
e mudanças de forma em nosso rosto
e aprende que todos os sorrisos genuínos
têm características em comum,
04:11
and basically learns that all smiles
have common characteristics,
72
239390
3202
todos os sorrisos maliciosos
04:14
all smirks have subtly
different characteristics.
73
242592
3181
têm características
sutilmente diferentes.
04:17
And the next time it sees a new face,
74
245773
2368
E da próxima vez
que ele vir um novo rosto,
04:20
it essentially learns that
75
248141
2299
ele aprende que
04:22
this face has the same
characteristics of a smile,
76
250440
3033
esse rosto tem as mesmas
características de um sorriso genuíno,
04:25
and it says, "Aha, I recognize this.
This is a smile expression."
77
253473
4278
Ele pensa: "Aha, este eu reconheço.
É uma expressão de sorriso genuíno."
04:30
So the best way to demonstrate
how this technology works
78
258381
2800
E a melhor maneira de mostrar
que essa tecnologia funciona
04:33
is to try a live demo,
79
261181
2136
é fazer uma demonstração ao vivo,
04:35
so I need a volunteer,
preferably somebody with a face.
80
263317
3913
então vou precisar de um voluntário,
de preferência alguém com um rosto.
04:39
(Laughter)
81
267230
2334
(Risos)
04:41
Cloe's going to be our volunteer today.
82
269564
2771
A Cloe vai ser nossa voluntária hoje.
04:45
So over the past five years, we've moved
from being a research project at MIT
83
273325
4458
Durante os últimos cinco anos,
nós passamos de um projeto
de pesquisa no MIT
para uma empresa,
04:49
to a company,
84
277783
1156
04:50
where my team has worked really hard
to make this technology work,
85
278939
3192
na qual minha equipe trabalhou duro
para fazer essa tecnologia funcionar,
04:54
as we like to say, in the wild.
86
282131
2409
como gostamos de dizer, no meio selvagem.
04:56
And we've also shrunk it so that
the core emotion engine
87
284540
2670
E nós também a minimizamos
para que o mecanismo central
de sentimentos
04:59
works on any mobile device
with a camera, like this iPad.
88
287210
3320
funcione em qualquer
dispositivo móvel, como este iPad.
05:02
So let's give this a try.
89
290530
2786
Então vamos testar.
Como podem ver, o algoritmo essencialmente
encontrou o rosto da Cloe,
05:06
As you can see, the algorithm
has essentially found Cloe's face,
90
294756
3924
é essa caixa branca delimitadora,
05:10
so it's this white bounding box,
91
298680
1692
e está acompanhando
os pontos característicos em seu rosto,
05:12
and it's tracking the main
feature points on her face,
92
300372
2571
05:14
so her eyebrows, her eyes,
her mouth and her nose.
93
302943
2856
as sobrancelhas, olhos, boca, e nariz.
05:17
The question is,
can it recognize her expression?
94
305799
2987
A questão é: será que consegue
reconhecer sua expressão?
Vamos testar a máquina.
05:20
So we're going to test the machine.
95
308786
1671
Primeiro, faça uma cara de blefe.
Isso, ótimo! (Risos)
05:22
So first of all, give me your poker face.
Yep, awesome. (Laughter)
96
310457
4186
E à medida que ela sorri,
esse sorriso é genuíno, muito bom.
05:26
And then as she smiles,
this is a genuine smile, it's great.
97
314643
2813
Podemos ver a barra verde
aumentar enquanto ela sorri.
05:29
So you can see the green bar
go up as she smiles.
98
317456
2300
05:31
Now that was a big smile.
99
319756
1222
Foi um grande sorriso.
05:32
Can you try a subtle smile
to see if the computer can recognize?
100
320978
3043
Pode tentar um sorriso sutil
para ver se o computador reconhece?
05:36
It does recognize subtle smiles as well.
101
324021
2331
Também reconhece sorrisos sutis.
Trabalhamos muito que isso acontecesse.
05:38
We've worked really hard
to make that happen.
102
326352
2125
As sobrancelhas levantadas,
o que indica surpresa.
05:40
And then eyebrow raised,
indicator of surprise.
103
328477
2962
05:43
Brow furrow, which is
an indicator of confusion.
104
331439
4249
Testa franzida, o que indica confusão.
05:47
Frown. Yes, perfect.
105
335688
4007
Cara fechada. Isso, perfeito.
05:51
So these are all the different
action units. There's many more of them.
106
339695
3493
Essas são as diferentes unidades de ação.
Há muitas outras.
05:55
This is just a slimmed-down demo.
107
343188
2032
Esta é só uma curta demonstração.
05:57
But we call each reading
an emotion data point,
108
345220
3148
Mas cada leitura é chamada
de ponto de dados de sentimento,
e eles podem ser ativados ao mesmo tempo
para retratar diferentes sentimentos.
06:00
and then they can fire together
to portray different emotions.
109
348368
2969
06:03
So on the right side of the demo --
look like you're happy.
110
351337
4653
Do lado direito da demonstração...
Parece que você está feliz.
06:07
So that's joy. Joy fires up.
111
355990
1454
Isto é alegria. A alegria acende.
06:09
And then give me a disgust face.
112
357444
1927
E faça uma cara de nojo.
06:11
Try to remember what it was like
when Zayn left One Direction.
113
359371
4272
Tente se lembrar como foi
quando Zayn saiu do One Direction.
06:15
(Laughter)
114
363643
1510
(Risos)
06:17
Yeah, wrinkle your nose. Awesome.
115
365153
4342
Isso, torça o nariz. Ótimo.
06:21
And the valence is actually quite
negative, so you must have been a big fan.
116
369495
3731
E a valência é bastante negativa,
você deve ser uma grande fã.
06:25
So valence is how positive
or negative an experience is,
117
373226
2700
Valência é quão positiva
ou negativa é uma sensação,
06:27
and engagement is how
expressive she is as well.
118
375926
2786
e engajamento indica
a expressividade também.
Imaginem se a Cloe tivesse acesso
a esse fluxo de sentimentos em tempo real,
06:30
So imagine if Cloe had access
to this real-time emotion stream,
119
378712
3414
06:34
and she could share it
with anybody she wanted to.
120
382126
2809
e pudesse compartilhar
com quem ela quisesse.
06:36
Thank you.
121
384935
2923
Obrigada.
(Aplausos)
06:39
(Applause)
122
387858
4621
06:45
So, so far, we have amassed
12 billion of these emotion data points.
123
393749
5270
Até agora já acumulamos 12 bilhões
de pontos de dados de sentimentos.
06:51
It's the largest emotion
database in the world.
124
399019
2611
É o maior banco de dados
de sentimentos do mundo.
06:53
We've collected it
from 2.9 million face videos,
125
401630
2963
Nós os conseguimos
de 2,9 milhões de vídeos de rostos,
pessoas que aceitaram compartilhar
seus sentimentos conosco,
06:56
people who have agreed
to share their emotions with us,
126
404593
2600
06:59
and from 75 countries around the world.
127
407193
3205
e de 75 países por todo o mundo.
07:02
It's growing every day.
128
410398
1715
Está crescendo a cada dia.
07:04
It blows my mind away
129
412603
2067
Me deixa sem palavras
que agora podemos quantificar
algo tão pessoal como nossos sentimentos,
07:06
that we can now quantify something
as personal as our emotions,
130
414670
3195
e podemos fazê-lo nessa escala.
07:09
and we can do it at this scale.
131
417865
2235
07:12
So what have we learned to date?
132
420100
2177
E o que já aprendemos?
07:15
Gender.
133
423057
2331
Gênero.
07:17
Our data confirms something
that you might suspect.
134
425388
3646
Nossos dados confirmam uma coisa
que talvez vocês suspeitem.
Mulheres são mais expressivas que homens.
07:21
Women are more expressive than men.
135
429034
1857
07:22
Not only do they smile more,
their smiles last longer,
136
430891
2683
Elas não só sorriem mais,
seus sorrisos duram mais,
07:25
and we can now really quantify
what it is that men and women
137
433574
2904
e agora conseguimos quantificar
o que faz com que homens e mulheres
07:28
respond to differently.
138
436478
2136
reajam de maneira diferente.
07:30
Let's do culture: So in the United States,
139
438614
2290
Vamos falar de cultura:
nos Estados Unidos,
07:32
women are 40 percent
more expressive than men,
140
440904
3204
as mulheres são 40%
mais expressivas que os homens,
07:36
but curiously, we don't see any difference
in the U.K. between men and women.
141
444108
3645
mas curiosamente não vemos
nenhuma diferença
no Reino Unido entre homens e mulheres.
07:39
(Laughter)
142
447753
2506
(Risos)
07:43
Age: People who are 50 years and older
143
451296
4027
Idade: pessoas com 50 anos ou mais
07:47
are 25 percent more emotive
than younger people.
144
455323
3436
são 25% mais emotivas
do que os mais jovens.
Mulheres na casa dos 20 sorriem muito mais
do que homens com a mesma idade,
07:51
Women in their 20s smile a lot more
than men the same age,
145
459899
3852
07:55
perhaps a necessity for dating.
146
463751
3839
talvez uma necessidade para namorar.
Mas talvez o que mais
nos surpreendeu nesses dados
07:59
But perhaps what surprised us
the most about this data
147
467590
2617
08:02
is that we happen
to be expressive all the time,
148
470207
3203
é que somos expressivos o tempo todo,
08:05
even when we are sitting
in front of our devices alone,
149
473410
2833
mesmo quando estamos sozinhos
com nossos dispositivos,
08:08
and it's not just when we're watching
cat videos on Facebook.
150
476243
3274
e não é só quando estamos
assistindo vídeos de gatos no Facebook.
Somos expressivos quando escrevemos
e-mails, mensagens, fazemos compras,
08:12
We are expressive when we're emailing,
texting, shopping online,
151
480217
3010
08:15
or even doing our taxes.
152
483227
2300
ou até mesmo declarando os impostos.
08:17
Where is this data used today?
153
485527
2392
Onde esses dados são usados hoje?
08:19
In understanding how we engage with media,
154
487919
2763
Para entender como
interagimos com a mídia,
08:22
so understanding virality
and voting behavior;
155
490682
2484
entender viralidade
e comportamento de votação;
08:25
and also empowering
or emotion-enabling technology,
156
493166
2740
e também capacitar e incluir
sentimentos na tecnologia,
08:27
and I want to share some examples
that are especially close to my heart.
157
495906
4621
e eu gostaria de mostrar alguns
dos meus exemplos preferidos.
08:33
Emotion-enabled wearable glasses
can help individuals
158
501197
3068
Óculos que conseguem ler sentimentos
podem ajudar
08:36
who are visually impaired
read the faces of others,
159
504265
3228
pessoas com deficiência visual
a ler os rostos dos outros
08:39
and it can help individuals
on the autism spectrum interpret emotion,
160
507493
4187
e pode ajudar pessoas no espectro
do autismo a interpretar sentimentos,
08:43
something that they really struggle with.
161
511680
2778
algo com que têm muita dificuldade.
08:47
In education, imagine
if your learning apps
162
515918
2859
Na educação, imagine
se seus aplicativos de ensino
08:50
sense that you're confused and slow down,
163
518777
2810
perceberem que você
está confuso e desacelerarem,
08:53
or that you're bored, so it's sped up,
164
521587
1857
ou que você está
entediado e acelerarem,
08:55
just like a great teacher
would in a classroom.
165
523444
2969
assim como faria um bom
professor em sala de aula.
08:59
What if your wristwatch tracked your mood,
166
527043
2601
E se seu relógio de pulso
acompanhasse seu humor
09:01
or your car sensed that you're tired,
167
529644
2693
ou seu carro percebesse
que você está cansado,
09:04
or perhaps your fridge
knows that you're stressed,
168
532337
2548
ou talvez sua geladeira saiba
que você está estressada,
09:06
so it auto-locks to prevent you
from binge eating. (Laughter)
169
534885
6066
e se tranca sozinha
para que você não coma demais. (Risos)
Eu gostaria disso, sim.
09:12
I would like that, yeah.
170
540951
2717
E se, quando eu estava em Cambridge,
09:15
What if, when I was in Cambridge,
171
543668
1927
eu tivesse acesso ao meu fluxo
de sentimentos em tempo real,
09:17
I had access to my real-time
emotion stream,
172
545595
2313
09:19
and I could share that with my family
back home in a very natural way,
173
547908
3529
e pudesse compartilhá-lo
com a minha família em casa
de maneira natural,
09:23
just like I would've if we were all
in the same room together?
174
551437
3971
assim como eu faria se estivéssemos
todos juntos na sala?
09:27
I think five years down the line,
175
555408
3142
Acredito que daqui a cinco anos,
todos os nossos dispositivos
vão ter um chip de sentimentos,
09:30
all our devices are going
to have an emotion chip,
176
558550
2337
09:32
and we won't remember what it was like
when we couldn't just frown at our device
177
560887
4064
e nem vamos nos lembrar como era
quando não adiantava fazer cara feia
para o dispositivo
09:36
and our device would say, "Hmm,
you didn't like that, did you?"
178
564951
4249
e ele diria: "Hm, você não
gostou disso, né?"
09:41
Our biggest challenge is that there are
so many applications of this technology,
179
569200
3761
Nosso maior desafio é que há tantas
aplicações para essa tecnologia,
que minha equipe percebeu
que não podemos satisfazê-las sozinhos,
09:44
my team and I realize that we can't
build them all ourselves,
180
572961
2903
09:47
so we've made this technology available
so that other developers
181
575864
3496
então nós disponibilizamos essa tecnologia
a outros desenvolvedores
09:51
can get building and get creative.
182
579360
2114
para que construam e usem a criatividade.
09:53
We recognize that
there are potential risks
183
581474
4086
Nós reconhecemos que há potenciais riscos
09:57
and potential for abuse,
184
585560
2067
e potencial para abuso,
09:59
but personally, having spent
many years doing this,
185
587627
2949
mas pessoalmente,
após muitos anos fazendo isso,
10:02
I believe that the benefits to humanity
186
590576
2972
acredito que os benefícios à humanidade
de ter tecnologia
emocionalmente inteligente
10:05
from having emotionally
intelligent technology
187
593548
2275
10:07
far outweigh the potential for misuse.
188
595823
3576
superam de longe o potencial de abuso.
10:11
And I invite you all to be
part of the conversation.
189
599399
2531
E eu os convido todos
a participarem da conversa.
10:13
The more people who know
about this technology,
190
601930
2554
Quanto mais pessoas
conhecerem essa tecnologia,
10:16
the more we can all have a voice
in how it's being used.
191
604484
3177
mais peso terá nossa opinião
sobre como usá-la.
10:21
So as more and more
of our lives become digital,
192
609081
4574
E à medida que nossas vidas
vão se digitalizando,
10:25
we are fighting a losing battle
trying to curb our usage of devices
193
613655
3498
nós lutamos uma batalha perdida
tentando frear nosso uso de dispositivos
10:29
in order to reclaim our emotions.
194
617153
2229
para reivindicar nossos sentimentos.
10:32
So what I'm trying to do instead
is to bring emotions into our technology
195
620622
3914
Então o que estou tentando fazer
é colocar sentimentos na tecnologia
10:36
and make our technologies more responsive.
196
624536
2229
e tornar nossa tecnologia mais responsiva.
10:38
So I want those devices
that have separated us
197
626765
2670
Eu quero que esses dispositivos
que nos separaram
10:41
to bring us back together.
198
629435
2462
juntem-nos novamente.
10:43
And by humanizing technology,
we have this golden opportunity
199
631897
4588
E humanizando a tecnologia,
nós temos essa oportunidade de ouro
10:48
to reimagine how we
connect with machines,
200
636485
3297
de reimaginar nossa conexão
com as máquinas,
10:51
and therefore, how we, as human beings,
201
639782
4481
e assim, como nós, seres humanos,
10:56
connect with one another.
202
644263
1904
nos conectamos uns com os outros.
10:58
Thank you.
203
646167
2160
Obrigada.
(Aplausos)
11:00
(Applause)
204
648327
3313
Translated by Gustavo Rocha
Reviewed by Maricene Crus

▲Back to top

ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com