ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com
TEDWomen 2015

Rana el Kaliouby: This app knows how you feel -- from the look on your face

Rana el Kaliouby: Un lector emocional de tu expresión facial

Filmed:
1,613,290 views

Las emociones influyen en cada aspecto de nuestras vidas: en la forma de aprender, de comunicarnos y tomar decisiones. Sin embargo, no están presentes en nuestra vida digital; los dispositivos y las aplicaciones con los que interactuamos no tienen manera de saber nuestro estado de ánimo. La científica Rana el Kaliouby pretende cambiar eso y nos presenta una nueva y poderosa tecnología que lee expresiones faciales para interpretar las emociones correspondientes. Afirma que este "lector afectivo" tiene profundas implicaciones que pueden cambiar no solo la forma en la que interactuamos con las máquinas sino también en la forma de interactuar entre entre nosotros.
- Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware. Full bio

Double-click the English transcript below to play the video.

Las emociones influyen en
cada aspecto de nuestras vidas,
00:12
Our emotionsemociones influenceinfluencia
everycada aspectaspecto of our livesvive,
0
556
4017
00:16
from our healthsalud and how we learnaprender,
to how we do businessnegocio and make decisionsdecisiones,
1
4573
3576
de la salud y el aprendizaje, a la forma
de hacer negocios y tomar decisiones,
00:20
biggrande onesunos and smallpequeña.
2
8149
1773
grandes y pequeñas.
Las emociones influyen en la forma
en la cual interaccionamos entre nosotros.
00:22
Our emotionsemociones alsoademás influenceinfluencia
how we connectconectar with one anotherotro.
3
10672
3490
00:27
We'veNosotros tenemos evolvedevolucionado to livevivir
in a worldmundo like this,
4
15132
3976
Hemos evolucionado para vivir
en un mundo como este,
00:31
but insteaden lugar, we're livingvivo
more and more of our livesvive like this --
5
19108
4319
pero en cambio, vivimos la vida
cada vez más de esta manera
00:35
this is the texttexto messagemensaje
from my daughterhija last night --
6
23427
3134
--este es el mensaje de texto
que recibí de mi hija anoche--
00:38
in a worldmundo that's devoidvacío of emotionemoción.
7
26561
2740
en un mundo desprovisto de emoción.
00:41
So I'm on a missionmisión to changecambio that.
8
29301
1951
Mi misión es cambiar esto.
00:43
I want to bringtraer emotionsemociones
back into our digitaldigital experiencesexperiencias.
9
31252
4091
Quiero devolver las emociones
a nuestra experiencia digital.
00:48
I startedempezado on this pathcamino 15 yearsaños agohace.
10
36223
3077
Empecé con esto hace 15 años.
00:51
I was a computercomputadora scientistcientífico in EgyptEgipto,
11
39300
2066
Era ingeniera informática en Egipto
00:53
and I had just gottenconseguido acceptedaceptado to
a PhPh.D. programprograma at CambridgeCambridge UniversityUniversidad.
12
41366
4505
y fui aceptada en un programa de doctorado
en la Universidad de Cambridge.
00:57
So I did something quitebastante unusualraro
13
45871
2113
E hice algo bastante inusual
00:59
for a youngjoven newlywedrecién casado Muslimmusulmán Egyptianegipcio wifeesposa:
14
47984
4225
para una joven recién casada,
egipcia y musulmana:
01:05
With the supportapoyo of my husbandmarido,
who had to staypermanecer in EgyptEgipto,
15
53599
2999
con el apoyo de mi marido,
que debía quedarse en Egipto,
01:08
I packedlleno my bagspantalón and I movedmovido to EnglandInglaterra.
16
56598
3018
hice las maletas y me mudé a Inglaterra.
01:11
At CambridgeCambridge, thousandsmiles of milesmillas
away from home,
17
59616
3228
En Cambridge, a miles
de kilómetros de casa,
me di cuenta de que estaba
pasando más horas con mi laptop
01:14
I realizeddio cuenta I was spendinggasto
more hourshoras with my laptopordenador portátil
18
62844
3413
01:18
than I did with any other humanhumano.
19
66257
2229
que con otros seres humanos.
01:20
YetTodavía despiteA pesar de this intimacyintimidad, my laptopordenador portátil
had absolutelyabsolutamente no ideaidea how I was feelingsensación.
20
68486
4853
Pero a pesar de esta intimidad, mi laptop
no tenía ni idea de mi estado de ánimo.
01:25
It had no ideaidea if I was happycontento,
21
73339
3211
No tenía idea de si yo era feliz,
si tenía un mal día, o estaba
estresada o confundida,
01:28
havingteniendo a badmalo day, or stressedtensionado, confusedconfuso,
22
76550
2988
01:31
and so that got frustratingfrustrante.
23
79538
2922
y eso era frustrante.
01:35
Even worsepeor, as I communicatedcomunicado
onlineen línea with my familyfamilia back home,
24
83600
5231
Aun peor, cuando me comunicaba
en línea con mi familia en casa,
01:41
I feltsintió that all my emotionsemociones
disappeareddesapareció in cyberspaceciberespacio.
25
89421
3282
sentía que todas mis emociones
desaparecían en el ciberespacio.
01:44
I was homesicknostálgico, I was lonelysolitario,
and on some daysdías I was actuallyactualmente cryingllorando,
26
92703
5155
Sentía nostalgia, estaba sola,
y algunos días lloraba,
01:49
but all I had to communicatecomunicar
these emotionsemociones was this.
27
97858
4928
pero todo lo que tenía para
comunicar mis emociones era esto.
01:54
(LaughterRisa)
28
102786
2020
(Risas)
01:56
Today'sHoy technologytecnología
has lots of I.Q., but no E.Q.;
29
104806
4974
Hoy la tecnología es
inteligente pero no emocional
02:01
lots of cognitivecognitivo intelligenceinteligencia,
but no emotionalemocional intelligenceinteligencia.
30
109780
3176
mucha inteligencia cognitiva,
pero nada de inteligencia emocional.
02:04
So that got me thinkingpensando,
31
112956
2197
Eso me hizo pensar,
02:07
what if our technologytecnología
could sensesentido our emotionsemociones?
32
115153
3624
¿y si la tecnología pudiera
interpretar nuestras emociones?
02:10
What if our devicesdispositivos could sensesentido
how we feltsintió and reactedreaccionado accordinglyen consecuencia,
33
118777
4076
¿Y si nuestros dispositivos pudieran
detectar y reaccionar en consecuencia,
02:14
just the way an emotionallyemocionalmente
intelligentinteligente friendamigo would?
34
122853
3013
como lo harían los amigos
con inteligencia emocional?
02:18
Those questionspreguntas led me and my teamequipo
35
126666
3564
Esas preguntas me guiaron
a mí y a mi equipo
a crear tecnologías capaces
de leer emociones y responder,
02:22
to createcrear technologiestecnologías that can readleer
and respondresponder to our emotionsemociones,
36
130230
4377
02:26
and our startingcomenzando pointpunto was the humanhumano facecara.
37
134607
3090
y nuestro punto de partida
fue el rostro humano.
02:30
So our humanhumano facecara happenssucede to be
one of the mostmás powerfulpoderoso channelscanales
38
138577
3173
Nuestro rostro es uno de
los canales más poderosos
02:33
that we all use to communicatecomunicar
socialsocial and emotionalemocional statesestados,
39
141750
4016
que usamos para comunicar
estados sociales y emocionales,
02:37
everything from enjoymentdisfrute, surprisesorpresa,
40
145766
3010
todo, del disfrute y la sorpresa,
02:40
empathyempatía and curiositycuriosidad.
41
148776
4203
a la empatía y la curiosidad.
02:44
In emotionemoción scienceciencia, we call eachcada
facialfacial musclemúsculo movementmovimiento an actionacción unitunidad.
42
152979
4928
En la ciencia de las emociones, cada
movimiento de cada músculo facial,
es una unidad de acción.
02:49
So for exampleejemplo, actionacción unitunidad 12,
43
157907
2925
Por ejemplo, la unidad de acción 12,
02:52
it's not a HollywoodHollywood blockbusteréxito de taquilla,
44
160832
2038
no es una superproducción de Hollywood,
02:54
it is actuallyactualmente a liplabio corneresquina pullHalar,
whichcual is the mainprincipal componentcomponente of a smilesonreír.
45
162870
3442
es el tirón de la comisura labial,
componente principal de una sonrisa.
02:58
Try it everybodytodos. Let's get
some smilessonrisas going on.
46
166312
2988
Intenten todos. Sonriamos.
03:01
AnotherOtro exampleejemplo is actionacción unitunidad 4.
It's the browfrente furrowsurco.
47
169300
2654
Otro ejemplo es la unidad de acción 4,
las líneas de expresión en el entrecejo
cuando juntamos las cejas
03:03
It's when you drawdibujar your eyebrowsCejas togetherjuntos
48
171954
2238
03:06
and you createcrear all
these texturestexturas and wrinklesarrugas.
49
174192
2267
y se forman estos pliegues y arrugas.
03:08
We don't like them, but it's
a strongfuerte indicatorindicador of a negativenegativo emotionemoción.
50
176459
4295
No nos gustan, pero es una
fuerte señal de una emoción negativa.
03:12
So we have about 45 of these actionacción unitsunidades,
51
180754
2206
Hay unas 45 unidades de acción,
03:14
and they combinecombinar to expressexprimir
hundredscientos of emotionsemociones.
52
182960
3390
y combinadas expresan
cientos de emociones,
03:18
TeachingEnseñando a computercomputadora to readleer
these facialfacial emotionsemociones is harddifícil,
53
186350
3901
Enseñarle a una computadora a leer
estas emociones faciales es difícil,
03:22
because these actionacción unitsunidades,
they can be fastrápido, they're subtlesutil,
54
190251
2972
porque estas unidades de acción
pueden ser rápidas y sutiles,
03:25
and they combinecombinar in manymuchos differentdiferente waysformas.
55
193223
2554
y se combinan de muchas formas.
03:27
So take, for exampleejemplo,
the smilesonreír and the smirksonrisa afectada.
56
195777
3738
Tomemos por ejemplo
la sonrisa genuina y la socarrona.
03:31
They look somewhatalgo similarsimilar,
but they mean very differentdiferente things.
57
199515
3753
Se parecen pero expresan cosas diferentes.
03:35
(LaughterRisa)
58
203268
1718
(Risas)
03:36
So the smilesonreír is positivepositivo,
59
204986
3004
La sonrisa genuina es positiva,
la sonrisa socarrona a veces es negativa.
03:39
a smirksonrisa afectada is oftena menudo negativenegativo.
60
207990
1270
03:41
SometimesA veces a smirksonrisa afectada
can make you becomevolverse famousfamoso.
61
209260
3876
A veces una mueca puede hacerte célebre.
03:45
But seriouslyseriamente, it's importantimportante
for a computercomputadora to be ablepoder
62
213136
2824
Pero en serio, es importante
para una computadora poder
03:47
to tell the differencediferencia
betweenEntre the two expressionsexpresiones.
63
215960
2855
notar la diferencia entre
las dos expresiones.
03:50
So how do we do that?
64
218815
1812
¿Cómo hacemos esto?
03:52
We give our algorithmsAlgoritmos
65
220627
1787
Introducimos en el programa de computación
03:54
tensdecenas of thousandsmiles of examplesejemplos
of people we know to be smilingsonriente,
66
222414
4110
decenas de miles de ejemplos
de personas que sonríen
03:58
from differentdiferente ethnicitiesetnias, agessiglos, gendersgéneros,
67
226524
3065
de distintas etnias, edades, géneros,
04:01
and we do the samemismo for smirkssonrisas.
68
229589
2811
y hacemos lo mismo con
las sonrisas socarronas.
04:04
And then, usingutilizando deepprofundo learningaprendizaje,
69
232400
1554
Luego, los algoritmos
en aprendizaje automático
04:05
the algorithmalgoritmo looksmiradas for all these
texturestexturas and wrinklesarrugas
70
233954
2856
buscan estas lineas, pliegues
y cambios musculares faciales
04:08
and shapeforma changescambios on our facecara,
71
236810
2580
y básicamente aprenden
04:11
and basicallybásicamente learnsaprende that all smilessonrisas
have commoncomún characteristicscaracterísticas,
72
239390
3202
que todas las sonrisas genuinas
tienen características comunes
04:14
all smirkssonrisas have subtlysutilmente
differentdiferente characteristicscaracterísticas.
73
242592
3181
mientras que las sonrisas socarronas
tienen otras sensiblemente diferentes.
04:17
And the nextsiguiente time it seesve a newnuevo facecara,
74
245773
2368
Y la próxima vez que vean
un nuevo rostro, sabrán
04:20
it essentiallyesencialmente learnsaprende that
75
248141
2299
que este rostro tiene las mismas
características de una sonrisa genuina,
04:22
this facecara has the samemismo
characteristicscaracterísticas of a smilesonreír,
76
250440
3033
04:25
and it saysdice, "AhaAjá, I recognizereconocer this.
This is a smilesonreír expressionexpresión."
77
253473
4278
y dirán: "Ajá, la reconozco.
Esta es la expresión de una sonrisa".
Y la mejor manera de demostrar
cómo funciona esta tecnología
04:30
So the bestmejor way to demonstratedemostrar
how this technologytecnología workstrabajos
78
258381
2800
04:33
is to try a livevivir demomanifestación,
79
261181
2136
es con una demo en vivo,
04:35
so I need a volunteervoluntario,
preferablypreferiblemente somebodyalguien with a facecara.
80
263317
3913
para esto necesito un voluntario,
preferentemente alguien con un rostro.
04:39
(LaughterRisa)
81
267230
2334
(Risas)
04:41
Cloe'sCloe going to be our volunteervoluntario todayhoy.
82
269564
2771
Chloe será nuestra voluntaria de hoy.
04:45
So over the pastpasado fivecinco yearsaños, we'venosotros tenemos movedmovido
from beingsiendo a researchinvestigación projectproyecto at MITMIT
83
273325
4458
En los últimos 5 años, pasamos de ser
un proyecto de investigación en el MIT
04:49
to a companyempresa,
84
277783
1156
a ser una empresa,
04:50
where my teamequipo has workedtrabajó really harddifícil
to make this technologytecnología work,
85
278939
3192
donde mi equipo ha trabajado
arduamente en esta tecnología,
04:54
as we like to say, in the wildsalvaje.
86
282131
2409
para que funcione fuera del laboratorio.
04:56
And we'venosotros tenemos alsoademás shrunkencogido it so that
the corenúcleo emotionemoción enginemotor
87
284540
2670
Y la hemos compactado tanto como
para que el lector de las emociones
04:59
workstrabajos on any mobilemóvil devicedispositivo
with a cameracámara, like this iPadiPad.
88
287210
3320
funcione en un dispositivo móvil
con una cámara, como este iPad.
05:02
So let's give this a try.
89
290530
2786
Así que probémosla.
05:06
As you can see, the algorithmalgoritmo
has essentiallyesencialmente foundencontró Cloe'sCloe facecara,
90
294756
3924
Como pueden ver, el algoritmo
detectó el rostro de Chloe,
05:10
so it's this whiteblanco boundingdelimitador boxcaja,
91
298680
1692
es este cuadro delimitador blanco,
05:12
and it's trackingrastreo the mainprincipal
featurecaracterística pointspuntos on her facecara,
92
300372
2571
que detecta los contornos principales
de sus rasgos faciales,
05:14
so her eyebrowsCejas, her eyesojos,
her mouthboca and her nosenariz.
93
302943
2856
sus cejas, sus ojos, su boca y nariz.
05:17
The questionpregunta is,
can it recognizereconocer her expressionexpresión?
94
305799
2987
La pregunta es:
¿puede reconocer su expresión?
05:20
So we're going to testprueba the machinemáquina.
95
308786
1671
Vamos a probar la máquina.
05:22
So first of all, give me your pokerpóker facecara.
Yep, awesomeincreíble. (LaughterRisa)
96
310457
4186
Ante todo, pon cara
de póquer. Sí, genial. (Risas)
05:26
And then as she smilessonrisas,
this is a genuineauténtico smilesonreír, it's great.
97
314643
2813
Y a medida que sonríe --esta es
una sonrisa genuina, es genial--
05:29
So you can see the greenverde barbar
go up as she smilessonrisas.
98
317456
2300
pueden ver como aumenta la barra verde.
05:31
Now that was a biggrande smilesonreír.
99
319756
1222
Esa fue una gran sonrisa.
05:32
Can you try a subtlesutil smilesonreír
to see if the computercomputadora can recognizereconocer?
100
320978
3043
¿Puedes intentar una sonrisa sutil
para ver si la computadora la reconoce?
05:36
It does recognizereconocer subtlesutil smilessonrisas as well.
101
324021
2331
También reconoce sonrisas sutiles.
05:38
We'veNosotros tenemos workedtrabajó really harddifícil
to make that happenocurrir.
102
326352
2125
Hemos trabajado arduamente
para que esto suceda.
05:40
And then eyebrowceja raisedelevado,
indicatorindicador of surprisesorpresa.
103
328477
2962
Luego levanta una ceja,
que indica sorpresa.
05:43
BrowFrente furrowsurco, whichcual is
an indicatorindicador of confusionConfusión.
104
331439
4249
Frunce el ceño,
que indica la confusión.
Enfurruñate. Sí, perfecto.
05:47
FrownFruncir el ceño. Yes, perfectPerfecto.
105
335688
4007
05:51
So these are all the differentdiferente
actionacción unitsunidades. There's manymuchos more of them.
106
339695
3493
Estas son diferentes unidades
de acción. Hay muchas más.
05:55
This is just a slimmed-downAdelgazado demomanifestación.
107
343188
2032
Esta es solo una demo superficial.
05:57
But we call eachcada readingleyendo
an emotionemoción datadatos pointpunto,
108
345220
3148
Llamamos a cada lectura
un dato emocional,
06:00
and then they can firefuego togetherjuntos
to portrayretratar differentdiferente emotionsemociones.
109
348368
2969
que luego pueden actuar juntos
para crear distintas emociones.
06:03
So on the right sidelado of the demomanifestación --
look like you're happycontento.
110
351337
4653
A la derecha de la demo,
parece que estás feliz.
Eso es alegría. Se desata la alegría.
06:07
So that's joyalegría. JoyAlegría firesincendios up.
111
355990
1454
06:09
And then give me a disgustasco facecara.
112
357444
1927
Ahora pon cara de disgusto.
06:11
Try to rememberrecuerda what it was like
when ZaynZayn left One DirectionDirección.
113
359371
4272
Trata de recordar qué sentiste
cuando Zayn dejó One Direction.
06:15
(LaughterRisa)
114
363643
1510
(Risas)
06:17
Yeah, wrinklearruga your nosenariz. AwesomeIncreíble.
115
365153
4342
Sí, arruga la nariz. Genial.
06:21
And the valencevalencia is actuallyactualmente quitebastante
negativenegativo, so you mustdebe have been a biggrande fanventilador.
116
369495
3731
La valencia es bastante negativa,
por lo que debe haber sido una gran fan.
06:25
So valencevalencia is how positivepositivo
or negativenegativo an experienceexperiencia is,
117
373226
2700
La valencia indica cuán positiva
o negativa es una experiencia,
06:27
and engagementcompromiso is how
expressiveexpresivo she is as well.
118
375926
2786
y la vinculación indica lo
expresiva que es también.
06:30
So imagineimagina if CloeCloe had accessacceso
to this real-timetiempo real emotionemoción streamcorriente,
119
378712
3414
Imaginen que Chloe tiene acceso a este
contenido emocional en tiempo real,
06:34
and she could sharecompartir it
with anybodynadie she wanted to.
120
382126
2809
y que puede compartir sus
emociones con quien quiere.
06:36
Thank you.
121
384935
2923
Gracias.
(Aplausos)
06:39
(ApplauseAplausos)
122
387858
4621
06:45
So, so farlejos, we have amassedamasado
12 billionmil millones of these emotionemoción datadatos pointspuntos.
123
393749
5270
Hasta ahora contamos con 12 000
millones de estos indicadores emocionales.
06:51
It's the largestmás grande emotionemoción
databasebase de datos in the worldmundo.
124
399019
2611
Es la base de datos de emociones
más grande del mundo.
La hemos recopilado a partir de
2,9 millones de rostros en videos,
06:53
We'veNosotros tenemos collectedrecogido it
from 2.9 millionmillón facecara videosvideos,
125
401630
2963
06:56
people who have agreedconvenido
to sharecompartir theirsu emotionsemociones with us,
126
404593
2600
de personas que accedieron a compartir
sus emociones con nosotros,
06:59
and from 75 countriespaíses around the worldmundo.
127
407193
3205
de 75 países del mundo.
07:02
It's growingcreciente everycada day.
128
410398
1715
Crece cada día.
07:04
It blowsgolpes my mindmente away
129
412603
2067
Me resulta impactante
07:06
that we can now quantifycuantificar something
as personalpersonal as our emotionsemociones,
130
414670
3195
que ahora podamos cuantificar algo
tan personal como las emociones,
07:09
and we can do it at this scaleescala.
131
417865
2235
y poder hacerlo a esta escala.
07:12
So what have we learnedaprendido to datefecha?
132
420100
2177
¿Qué hemos aprendido hasta la fecha?
07:15
GenderGénero.
133
423057
2331
Hay diferencias por género.
07:17
Our datadatos confirmsconfirma something
that you mightpodría suspectsospechar.
134
425388
3646
Nuestros datos confirman algo
que Uds. ya sospechaban.
Las mujeres son más
expresivas que los hombres.
07:21
WomenMujer are more expressiveexpresivo than menhombres.
135
429034
1857
07:22
Not only do they smilesonreír more,
theirsu smilessonrisas last longermás,
136
430891
2683
No solo sonríen más,
sus sonrisas duran más,
07:25
and we can now really quantifycuantificar
what it is that menhombres and womenmujer
137
433574
2904
y ahora podemos cuantificar
cómo es que hombres y mujeres
07:28
respondresponder to differentlydiferentemente.
138
436478
2136
responden de maneras tan diferentes.
07:30
Let's do culturecultura: So in the UnitedUnido StatesEstados,
139
438614
2290
Veamos culturalmente: en EE.UU.,
07:32
womenmujer are 40 percentpor ciento
more expressiveexpresivo than menhombres,
140
440904
3204
las mujeres son un 40 %
más expresivas que los hombres,
07:36
but curiouslycuriosamente, we don't see any differencediferencia
in the U.K. betweenEntre menhombres and womenmujer.
141
444108
3645
pero curiosamente, no vemos diferencia
entre hombres y mujeres en el R.U.
07:39
(LaughterRisa)
142
447753
2506
(Risas)
07:43
AgeAños: People who are 50 yearsaños and oldermayor
143
451296
4027
Por edad: las personas de 50 años o más
07:47
are 25 percentpor ciento more emotiveemotivo
than youngermas joven people.
144
455323
3436
son un 25 % más emotivos
que los más jóvenes.
07:51
WomenMujer in theirsu 20s smilesonreír a lot more
than menhombres the samemismo ageaños,
145
459899
3852
Las mujeres de veintipico sonríen mucho
más que los hombres de la misma edad,
07:55
perhapsquizás a necessitynecesidad for datingcitas.
146
463751
3839
quizá es una necesidad para las citas.
07:59
But perhapsquizás what surprisedsorprendido us
the mostmás about this datadatos
147
467590
2617
Pero quizá lo que más
nos sorprende de estos datos
08:02
is that we happenocurrir
to be expressiveexpresivo all the time,
148
470207
3203
es que solemos ser
expresivos todo el tiempo,
08:05
even when we are sittingsentado
in frontfrente of our devicesdispositivos alonesolo,
149
473410
2833
incluso cuando estamos sentados
solos frente a nuestros dispositivos
08:08
and it's not just when we're watchingacecho
catgato videosvideos on FacebookFacebook.
150
476243
3274
y no solo cuando miramos
videos de gatos en Facebook.
Somos expresivos cuando mandamos emails,
mensajes, cuando compramos en línea,
08:12
We are expressiveexpresivo when we're emailingcorreo electrónico,
textingmensajes de texto, shoppingcompras onlineen línea,
151
480217
3010
08:15
or even doing our taxesimpuestos.
152
483227
2300
o incluso pagando impuestos.
08:17
Where is this datadatos used todayhoy?
153
485527
2392
¿Para qué se usan estos datos hoy?
08:19
In understandingcomprensión how we engagecontratar with mediamedios de comunicación,
154
487919
2763
Para entender cómo nos
relacionamos con los medios,
para entender la viralidad
y el comportamiento del voto;
08:22
so understandingcomprensión viralityviralidad
and votingvotación behaviorcomportamiento;
155
490682
2484
08:25
and alsoademás empoweringempoderamiento
or emotion-enablinghabilitación emocional technologytecnología,
156
493166
2740
y también para dar poder
dotar de emoción a la tecnología,
08:27
and I want to sharecompartir some examplesejemplos
that are especiallyespecialmente closecerca to my heartcorazón.
157
495906
4621
y quiero compartir algunos ejemplos
particularmente especiales para mi.
08:33
Emotion-enabledEmoción habilitada wearableusable glassesgafas
can help individualsindividuos
158
501197
3068
Las gafas portátiles con lector
emotivo pueden ayudar
a las personas con discapacidad visual
a leer los rostros de los demás,
08:36
who are visuallyvisualmente impaireddañado
readleer the facescaras of othersotros,
159
504265
3228
08:39
and it can help individualsindividuos
on the autismautismo spectrumespectro interpretinterpretar emotionemoción,
160
507493
4187
y a las personas del espectro autista
a interpretar pistas emocionales
08:43
something that they really strugglelucha with.
161
511680
2778
algo que les cuesta mucho.
08:47
In educationeducación, imagineimagina
if your learningaprendizaje appsaplicaciones
162
515918
2859
En educación, imaginen
si sus apps educativas
08:50
sensesentido that you're confusedconfuso and slowlento down,
163
518777
2810
detectaran que están confundidos
y bajaran la velocidad,
08:53
or that you're boredaburrido, so it's spedacelerado up,
164
521587
1857
o que están aburridos, y aceleraran,
como haría un buen profesor en el aula.
08:55
just like a great teacherprofesor
would in a classroomaula.
165
523444
2969
08:59
What if your wristwatchreloj de pulsera trackedrastreado your moodestado animico,
166
527043
2601
Y si una pulsera leyera su estado anímico,
09:01
or your carcoche senseddetectado that you're tiredcansado,
167
529644
2693
o el auto detectara que están cansados,
o quizá si el frigorífico
supiera que están estresados,
09:04
or perhapsquizás your fridgerefrigerador
knowssabe that you're stressedtensionado,
168
532337
2548
09:06
so it auto-locksautobloqueos to preventevitar you
from bingeborrachera eatingcomiendo. (LaughterRisa)
169
534885
6066
y se autobloqueara para
evitar atracones. (Risas)
09:12
I would like that, yeah.
170
540951
2717
Me gustaría eso, sí.
09:15
What if, when I was in CambridgeCambridge,
171
543668
1927
¿Y si, cuando estuve en Cambridge,
09:17
I had accessacceso to my real-timetiempo real
emotionemoción streamcorriente,
172
545595
2313
hubiera tenido acceso en tiempo
real a mi contenido emocional
09:19
and I could sharecompartir that with my familyfamilia
back home in a very naturalnatural way,
173
547908
3529
y hubiera podido compartirlo con mi
familia en casa de manera muy natural,
09:23
just like I would'vehabría if we were all
in the samemismo roomhabitación togetherjuntos?
174
551437
3971
como si estuviéramos en
la misma habitación juntos?
09:27
I think fivecinco yearsaños down the linelínea,
175
555408
3142
Creo que dentro de 5 años,
todos los dispositivos tendrán
un chip lector de emociones
09:30
all our devicesdispositivos are going
to have an emotionemoción chipchip,
176
558550
2337
09:32
and we won'tcostumbre rememberrecuerda what it was like
when we couldn'tno pudo just frownfruncir el ceño at our devicedispositivo
177
560887
4064
y no recordaremos cómo era no poder
fruncir el ceño a nuestro dispositivo
09:36
and our devicedispositivo would say, "HmmHmm,
you didn't like that, did you?"
178
564951
4249
y que nuestro dispositivo dijera:
"Mmm, no te gusta, ¿no?"
Nuestro desafío más grande es que hay
tantas aplicaciones para esta tecnología,
09:41
Our biggestmás grande challengereto is that there are
so manymuchos applicationsaplicaciones of this technologytecnología,
179
569200
3761
09:44
my teamequipo and I realizedarse cuenta de that we can't
buildconstruir them all ourselvesNosotros mismos,
180
572961
2903
que mi equipo y yo nos dimos cuenta
de que no podemos con todo solos,
09:47
so we'venosotros tenemos madehecho this technologytecnología availabledisponible
so that other developersdesarrolladores
181
575864
3496
por eso liberamos esta tecnología
para que otros desarrolladores
puedan desarrollarla y ser creativos.
09:51
can get buildingedificio and get creativecreativo.
182
579360
2114
09:53
We recognizereconocer that
there are potentialpotencial risksriesgos
183
581474
4086
Reconocemos que hay riesgos potenciales
09:57
and potentialpotencial for abuseabuso,
184
585560
2067
y potencial para el abuso,
09:59
but personallypersonalmente, havingteniendo spentgastado
manymuchos yearsaños doing this,
185
587627
2949
pero en mi opinión, habiendo pasado
muchos años haciendo esto,
10:02
I believe that the benefitsbeneficios to humanityhumanidad
186
590576
2972
creo que los beneficios para la humanidad
de contar con tecnología
emocionalmente inteligente
10:05
from havingteniendo emotionallyemocionalmente
intelligentinteligente technologytecnología
187
593548
2275
10:07
farlejos outweighpesar más que the potentialpotencial for misusemal uso.
188
595823
3576
superan con creces las
desventajas por uso indebido.
10:11
And I inviteinvitación you all to be
partparte of the conversationconversacion.
189
599399
2531
Y los invito a todos
a tomar parte en el debate.
10:13
The more people who know
about this technologytecnología,
190
601930
2554
Cuantas más personas
conozcan esta tecnología,
10:16
the more we can all have a voicevoz
in how it's beingsiendo used.
191
604484
3177
más podemos decir
sobre cómo se usa.
10:21
So as more and more
of our livesvive becomevolverse digitaldigital,
192
609081
4574
Conforme nuestras vidas
se vuelven cada vez más digitales,
10:25
we are fightinglucha a losingperdiendo battlebatalla
tryingmolesto to curbbordillo our usageuso of devicesdispositivos
193
613655
3498
estamos librando una batalla perdida
tratando de evitar los dispositivos
10:29
in orderorden to reclaimreclamar our emotionsemociones.
194
617153
2229
para recuperar nuestras emociones.
10:32
So what I'm tryingmolesto to do insteaden lugar
is to bringtraer emotionsemociones into our technologytecnología
195
620622
3914
Por eso yo propongo, en cambio,
incorporar las emociones a la tecnología
10:36
and make our technologiestecnologías more responsivesensible.
196
624536
2229
y hacer que nuestras tecnologías
sean más receptivas.
10:38
So I want those devicesdispositivos
that have separatedapartado us
197
626765
2670
Quiero que esos dispositivos
que nos han separado
10:41
to bringtraer us back togetherjuntos.
198
629435
2462
nos vuelvan a unir.
10:43
And by humanizinghumanizando technologytecnología,
we have this goldendorado opportunityoportunidad
199
631897
4588
Y humanizando la tecnología,
tenemos esta oportunidad excelente
10:48
to reimaginereimagina how we
connectconectar with machinesmáquinas,
200
636485
3297
de reinventar la manera de
conectarnos con las máquinas,
10:51
and thereforepor lo tanto, how we, as humanhumano beingsseres,
201
639782
4481
y por lo tanto, la manera de como
nosotros, los seres humanos,
10:56
connectconectar with one anotherotro.
202
644263
1904
conectamos unos con otros.
10:58
Thank you.
203
646167
2160
Gracias.
(Aplausos)
11:00
(ApplauseAplausos)
204
648327
3313
Translated by Sebastian Betti
Reviewed by Denise R Quivu

▲Back to top

ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com