ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com
TEDWomen 2015

Rana el Kaliouby: This app knows how you feel -- from the look on your face

Rana el Kaliouby: Ez az app tudja, mit érzünk - az arckifejezésünkből

Filmed:
1,613,290 views

Az érzelmeink életünk minden aspektusát befolyásolják - a tanulástól kezdve a kommunikáción át a döntéshozatalig. Mégis hiányoznak a digitális életünkből; a készülékek és appok, amelyekkel kapcsolatba kerülünk, nem tudhatják, mit érzünk. Rana el Kaliouby kutató célja változtatni ezen. Bemutat egy új, hatékony technológiát, amely leolvassa az arckifejezésünket, és megfelelteti azt egy érzelemnek. Azt állítja, hogy ennek az "érzelem-motornak" nagy a kihatása, megváltoztathatja nemcsak azt, ahogyan a gépekkel kapcsolatot teremtünk, hanem azt is, ahogyan egymással.
- Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware. Full bio

Double-click the English transcript below to play the video.

00:12
Our emotionsérzelmek influencebefolyás
everyminden aspectvonatkozás of our liveséletét,
0
556
4017
Az érzelmeink életünk
minden aspektusát befolyásolják,
00:16
from our healthEgészség and how we learntanul,
to how we do businessüzleti and make decisionsdöntések,
1
4573
3576
az egészségtől kezdve a tanulásig,
az üzleteléstől a döntéshozatalig,
00:20
bignagy onesazok and smallkicsi.
2
8149
1773
nagyokat és kicsiket egyaránt.
00:22
Our emotionsérzelmek alsois influencebefolyás
how we connectkapcsolódni with one anotheregy másik.
3
10672
3490
Az érzelmeink befolyásolják azt is,
hogyan kötődünk másokhoz.
00:27
We'veMost már evolvedfejlődött to liveélő
in a worldvilág like this,
4
15132
3976
Ilyen világra lettünk teremtve,
00:31
but insteadhelyette, we're livingélő
more and more of our liveséletét like this --
5
19108
4319
de ehelyett egyre inkább
egy másmilyen, --
00:35
this is the textszöveg messageüzenet
from my daughterlánya last night --
6
23427
3134
ezt az üzenetet a lányomtól
kaptam múlt éjszaka -
00:38
in a worldvilág that's devoidszókapcsolatok of emotionérzelem.
7
26561
2740
érzelemmentes világban kezdünk élni.
00:41
So I'm on a missionmisszió to changeváltozás that.
8
29301
1951
Az a küldetésem, hogy ezen változtassak.
00:43
I want to bringhoz emotionsérzelmek
back into our digitaldigitális experiencestapasztalatok.
9
31252
4091
Vissza akarom hozni az érzelmeket
digitális élményeinkbe.
00:48
I startedindult on this pathpálya 15 yearsévek agoezelőtt.
10
36223
3077
Tizenöt éve indultam el ezen az úton.
00:51
I was a computerszámítógép scientisttudós in EgyptEgyiptom,
11
39300
2066
Számítógép-szakértő voltam Egyiptomban,
00:53
and I had just gottenütött acceptedelfogadott to
a PhPH-érték.D. programprogram at CambridgeCambridge UniversityEgyetem.
12
41366
4505
és épp akkor vettek fel a Cambridge
Egyetem doktori programjára.
00:57
So I did something quiteegészen unusualszokatlan
13
45871
2113
Tehát valami egészen szokatlant csináltam
00:59
for a youngfiatal newlywednewlywed MuslimMuszlim EgyptianEgyiptomi wifefeleség:
14
47984
4225
fiatal, frissen házasodott
muszlim egyiptomi feleségként:
01:05
With the supporttámogatás of my husbandférj,
who had to staymarad in EgyptEgyiptom,
15
53599
2999
Férjem támogatásával, akinek
Egyiptomban kellett maradnia,
01:08
I packedcsomagolt my bagstáskák and I movedköltözött to EnglandAnglia.
16
56598
3018
összecsomagoltam és Angliába költöztem.
01:11
At CambridgeCambridge, thousandsTöbb ezer of milesmérföld
away from home,
17
59616
3228
Cambridge-ben, több ezer mérföldre
az otthonomtól,
01:14
I realizedrealizált I was spendingkiadások
more hoursórák with my laptophordozható számítógép
18
62844
3413
rájöttem, hogy több órát töltök
a laptopommal,
01:18
than I did with any other humanemberi.
19
66257
2229
mint bármelyik embertársammal.
01:20
YetMég despiteannak ellenére this intimacymeghittség, my laptophordozható számítógép
had absolutelyteljesen no ideaötlet how I was feelingérzés.
20
68486
4853
De az intimitás ellenére a laptopomnak
fogalma sem volt az érzéseimről.
01:25
It had no ideaötlet if I was happyboldog,
21
73339
3211
Nem tudta, ha vidám voltam,
01:28
havingamelynek a badrossz day, or stressedhangsúlyozta, confusedzavaros,
22
76550
2988
ha rossz napom volt, ha stresszes
vagy zavart voltam,
01:31
and so that got frustratingfrusztráló.
23
79538
2922
és ez frusztrált.
01:35
Even worserosszabb, as I communicatedközölni
onlineonline with my familycsalád back home,
24
83600
5231
Még rosszabb: ahogyan online beszélgettem
az otthon maradt családommal,
01:41
I feltfilc that all my emotionsérzelmek
disappearedeltűnt in cyberspacekibertér.
25
89421
3282
úgy éreztem, hogy minden érzelmem
elvész a kibertérben.
01:44
I was homesickhonvágya, I was lonelymagányos,
and on some daysnapok I was actuallytulajdonképpen cryingsírás,
26
92703
5155
Honvágyam volt, magányos voltam,
és néhanapján igazából is sírtam,
01:49
but all I had to communicatekommunikálni
these emotionsérzelmek was this.
27
97858
4928
de ennyi volt mindaz, amivel kifejezhettem
ezeket az érzéseket.
01:54
(LaughterNevetés)
28
102786
2020
(Nevetés)
01:56
Today'sA mai technologytechnológia
has lots of I.Q., but no E.Q.;
29
104806
4974
A mai technológiának magas az IQ-ja,
viszont az EQ-ja nem;
02:01
lots of cognitivemegismerő intelligenceintelligencia,
but no emotionalérzelmi intelligenceintelligencia.
30
109780
3176
rengeteg kognitív intelligencia,
de semmi érzelmi intelligencia.
02:04
So that got me thinkinggondolkodás,
31
112956
2197
Ez elgondolkodtatott:
02:07
what if our technologytechnológia
could senseérzék our emotionsérzelmek?
32
115153
3624
mi lenne, ha a technológia
érzékelné érzelmeinket?
02:10
What if our deviceskészülékek could senseérzék
how we feltfilc and reactedreagált accordinglyEnnek megfelelően,
33
118777
4076
Mi lenne, ha eszközeink érzékelnék, mit
érzünk, és annak megfelelően reagálnának,
02:14
just the way an emotionallyérzelmileg
intelligentintelligens friendbarát would?
34
122853
3013
ahogyan azt egy érzelmileg
intelligens barátunk tenné?
02:18
Those questionskérdések led me and my teamcsapat
35
126666
3564
Ezek a kérdések vezettek
engem és a csapatomat
02:22
to createteremt technologiestechnológiák that can readolvas
and respondreagál to our emotionsérzelmek,
36
130230
4377
olyan technológiák megalkotására, amelyek
olvassák az érzéseinket, és válaszolnak.
02:26
and our startingkiindulási pointpont was the humanemberi facearc.
37
134607
3090
Kiindulópontunk az emberi arc volt.
02:30
So our humanemberi facearc happensmegtörténik to be
one of the mosta legtöbb powerfulerős channelscsatornák
38
138577
3173
Emberi arcunk történetesen
az egyik legerősebb csatorna,
02:33
that we all use to communicatekommunikálni
socialtársadalmi and emotionalérzelmi statesÁllamok,
39
141750
4016
amelynek révén közösségi és érzelmi
állapotainkat közöljük,
02:37
everything from enjoymentélvezet, surprisemeglepetés,
40
145766
3010
mindent, beleértve az élvezetet,
meglepetést,
02:40
empathyátélés and curiositykíváncsiság.
41
148776
4203
empátiát és kíváncsiságot is.
02:44
In emotionérzelem sciencetudomány, we call eachminden egyes
facialarc muscleizom movementmozgalom an actionakció unitegység.
42
152979
4928
Az érzelmek tudományában minden
arcizom-mozgást egy egységnek nevezünk.
02:49
So for examplepélda, actionakció unitegység 12,
43
157907
2925
A 12-es mozgásegység például
02:52
it's not a HollywoodHollywood blockbusteregész háztömböt leromboló bomba,
44
160832
2038
nem egy hollywoodi kasszasiker,
02:54
it is actuallytulajdonképpen a lipajak cornersarok pullHúzni,
whichmelyik is the mainfő- componentösszetevő of a smilemosoly.
45
162870
3442
ez valójában a száj sarkának felhúzása,
ami egy mosoly fő alkotóeleme.
02:58
Try it everybodymindenki. Let's get
some smilesmosolyog going on.
46
166312
2988
Mindenki kipróbálhatja.
Lássunk néhány mosolyt.
03:01
AnotherEgy másik examplepélda is actionakció unitegység 4.
It's the browhomlokán furrowbarázda.
47
169300
2654
Egy másik példa a 4-es egység.
Ez a szemöldök ráncolása.
03:03
It's when you drawhúz your eyebrowsszemöldök togetheregyütt
48
171954
2238
Ilyenkor összevonjuk a szemöldökünket,
03:06
and you createteremt all
these texturestextúrák and wrinklesráncok.
49
174192
2267
és létrehozzuk ezeket a
formákat meg ráncokat.
03:08
We don't like them, but it's
a strongerős indicatorindikátor of a negativenegatív emotionérzelem.
50
176459
4295
Nem szeretjük, de erős
negatív érzést jelez.
03:12
So we have about 45 of these actionakció unitsegységek,
51
180754
2206
Van kb. 45 ilyen mozgásegységünk,
03:14
and they combinekombájn to expressExpressz
hundredsszáz of emotionsérzelmek.
52
182960
3390
ezek kombinálva több száz
érzelmet fejeznek ki.
03:18
TeachingTanítás a computerszámítógép to readolvas
these facialarc emotionsérzelmek is hardkemény,
53
186350
3901
Nehéz megtanítani egy számítógépnek,
hogy ezeket az érzelmeket olvassa,
03:22
because these actionakció unitsegységek,
they can be fastgyors, they're subtleapró,
54
190251
2972
mert lehetnek ezek gyorsak, rejtettek,
03:25
and they combinekombájn in manysok differentkülönböző waysmódokon.
55
193223
2554
és különböző módon keverednek.
03:27
So take, for examplepélda,
the smilemosoly and the smirkönelégült mosoly.
56
195777
3738
Vegyük például a mosolyt és a grimaszt.
03:31
They look somewhatnémileg similarhasonló,
but they mean very differentkülönböző things.
57
199515
3753
Valamennyire hasonlónak tűnnek,
ám nagyon különbözik a jelentésük.
03:35
(LaughterNevetés)
58
203268
1718
(Nevetés)
03:36
So the smilemosoly is positivepozitív,
59
204986
3004
A mosoly pozitív,
03:39
a smirkönelégült mosoly is oftengyakran negativenegatív.
60
207990
1270
a grimasz gyakran negatív.
03:41
SometimesNéha a smirkönelégült mosoly
can make you becomeválik famoushíres.
61
209260
3876
Néha egy grimasz híressé tehet.
03:45
But seriouslyKomolyan, it's importantfontos
for a computerszámítógép to be ableképes
62
213136
2824
De komolyan, fontos, hogy egy
számítógép képes legyen
03:47
to tell the differencekülönbség
betweenközött the two expressionskifejezések.
63
215960
2855
megkülönböztetni egymástól a két érzelmet.
03:50
So how do we do that?
64
218815
1812
Mindezt hogyan csináljuk?
03:52
We give our algorithmsalgoritmusok
65
220627
1787
Adunk az algortimusainknak
03:54
tenstíz of thousandsTöbb ezer of examplespéldák
of people we know to be smilingmosolygás,
66
222414
4110
több tízezer példát emberekről,
akikről tudjuk, hogy mosolyognak,
03:58
from differentkülönböző ethnicitiesetnikumok, ageskorosztály, gendersnemben,
67
226524
3065
ezek különböző etnikumúak, korúak, neműek,
04:01
and we do the sameazonos for smirksvigyorog.
68
229589
2811
és ugyanígy teszünk a grimasszal is.
04:04
And then, usinghasználva deepmély learningtanulás,
69
232400
1554
Aztán deep learninget használva
04:05
the algorithmalgoritmus looksúgy néz ki, for all these
texturestextúrák and wrinklesráncok
70
233954
2856
az algoritmus megkeresi ezeket a
a struktúrákat és ráncokat,
04:08
and shapealak changesváltoztatások on our facearc,
71
236810
2580
az arcunk változásait,
04:11
and basicallyalapvetően learnstanul that all smilesmosolyog
have commonközös characteristicsjellemzők,
72
239390
3202
lényegében megtanulja, hogy minden
mosolynak van közös jellemzője,
04:14
all smirksvigyorog have subtlyfinoman
differentkülönböző characteristicsjellemzők.
73
242592
3181
és minden grimasznak élesen
különböző jellemzői vannak.
04:17
And the nextkövetkező time it seeslát a newúj facearc,
74
245773
2368
A következő alkalommal,
mikor meglát egy új arcot,
04:20
it essentiallylényegében learnstanul that
75
248141
2299
lényegében rájön, hogy
04:22
this facearc has the sameazonos
characteristicsjellemzők of a smilemosoly,
76
250440
3033
ennek az arcnak ugyanolyan
jellemzői vannak, mint a mosolynak,
04:25
and it saysmondja, "AhaAha, I recognizeelismerik this.
This is a smilemosoly expressionkifejezés."
77
253473
4278
és azt mondja: "Jé, felismerem ezt.
Ez egy mosoly kifejezése."
04:30
So the bestlegjobb way to demonstratebizonyítani
how this technologytechnológia worksművek
78
258381
2800
A technológia működésének
bizonyítására a legjobb mód
04:33
is to try a liveélő demodemo,
79
261181
2136
egy élő demo kipróbálása,
04:35
so I need a volunteerönkéntes,
preferablyelőnyösen somebodyvalaki with a facearc.
80
263317
3913
tehát szükségem van egy önkéntesre,
lehetőleg valakire, akinek van arca.
04:39
(LaughterNevetés)
81
267230
2334
(Nevetés)
04:41
Cloe'sCloe barátait going to be our volunteerönkéntes todayMa.
82
269564
2771
Cloe lesz a mai önkéntesünk,
04:45
So over the pastmúlt fiveöt yearsévek, we'vevoltunk movedköltözött
from beinglény a researchkutatás projectprogram at MITMIT
83
273325
4458
Az elmúlt öt év során egy MIT-s
kutatási projektből vállalattá
04:49
to a companyvállalat,
84
277783
1156
nőttük ki magunkat,
04:50
where my teamcsapat has workeddolgozott really hardkemény
to make this technologytechnológia work,
85
278939
3192
és a csapatom igen sokat dolgozott azon,
hogy ez a technológia
04:54
as we like to say, in the wildvad.
86
282131
2409
működjön, ahogy mondani szokás,
a vadonban is.
04:56
And we'vevoltunk alsois shrunkösszement it so that
the coremag emotionérzelem enginemotor
87
284540
2670
Úgy összezsugorítottuk, hogy
a fő érzelem-motor
04:59
worksművek on any mobileMobil deviceeszköz
with a camerakamera, like this iPadiPad.
88
287210
3320
bármelyik kamerás mobil eszközön
működik, mint ezen az iPad-en is.
05:02
So let's give this a try.
89
290530
2786
Tehát próbáljuk ki!
05:06
As you can see, the algorithmalgoritmus
has essentiallylényegében foundtalál Cloe'sCloe barátait facearc,
90
294756
3924
Ahogy láthatják, az algoritmus
megtalálta Cloe arcát,
05:10
so it's this whitefehér boundinghatároló boxdoboz,
91
298680
1692
ez az a fehér határolókeret,
05:12
and it's trackingkövetés the mainfő-
featurefunkció pointspont on her facearc,
92
300372
2571
és követi a fő jellemző pontokat az arcán,
05:14
so her eyebrowsszemöldök, her eyesszemek,
her mouthszáj and her noseorr.
93
302943
2856
vagyis a szemöldökét, a szemét,
a száját és az orrát.
05:17
The questionkérdés is,
can it recognizeelismerik her expressionkifejezés?
94
305799
2987
Az a kérdés,
hogy fel tudja-e ismerni, mit fejez ki?
05:20
So we're going to testteszt the machinegép.
95
308786
1671
Most leteszteljük a gépet.
05:22
So first of all, give me your pokerpóker facearc.
YepJa, awesomefantasztikus. (LaughterNevetés)
96
310457
4186
Legelőször mutasd a pókerarcod.
Igen, nagyszerű. (Nevetés)
05:26
And then as she smilesmosolyog,
this is a genuinevalódi smilemosoly, it's great.
97
314643
2813
Aztán ahogy mosolyog,
ez egy valódi mosoly, nagyszerű.
05:29
So you can see the greenzöld barbár
go up as she smilesmosolyog.
98
317456
2300
A zöld sáv láthatóan növekszik,
mikor mosolyog.
05:31
Now that was a bignagy smilemosoly.
99
319756
1222
Ez egy nagy mosoly volt.
05:32
Can you try a subtleapró smilemosoly
to see if the computerszámítógép can recognizeelismerik?
100
320978
3043
Megpróbálsz egy enyhébb mosolyt,
hogy lássuk, felismeri-e a gép?
05:36
It does recognizeelismerik subtleapró smilesmosolyog as well.
101
324021
2331
Felismeri az enyhébb mosolyt is.
05:38
We'veMost már workeddolgozott really hardkemény
to make that happentörténik.
102
326352
2125
Nagyon sokat dolgoztunk,
hogy ez sikerüljön.
05:40
And then eyebrowszemöldök raisedemelt,
indicatorindikátor of surprisemeglepetés.
103
328477
2962
Aztán felemelt szemöldök,
a meglepetés jelzője.
05:43
BrowHomlokán furrowbarázda, whichmelyik is
an indicatorindikátor of confusionzavar.
104
331439
4249
Szemöldökráncolás,
a zavartság jelzője.
05:47
FrownHomlokát ráncolja. Yes, perfecttökéletes.
105
335688
4007
Homlokráncolás. Tökéletes.
05:51
So these are all the differentkülönböző
actionakció unitsegységek. There's manysok more of them.
106
339695
3493
Ezek mind különböző mozgásegységek.
Sokkal több van belőlük.
05:55
This is just a slimmed-downkarcsú-legyőz demodemo.
107
343188
2032
Ez csak egy karcsúsított demo.
05:57
But we call eachminden egyes readingolvasás
an emotionérzelem dataadat pointpont,
108
345220
3148
Minden leolvasást
érzelmi adatpontnak nevezünk,
06:00
and then they can fireTűz togetheregyütt
to portrayábrázolni differentkülönböző emotionsérzelmek.
109
348368
2969
majd ezek ötvözése ábrázolja
a különböző érzelmeket.
06:03
So on the right sideoldal of the demodemo --
look like you're happyboldog.
110
351337
4653
A demo jobb oldalán -- tégy úgy,
mintha boldog lennél.
06:07
So that's joyöröm. JoyÖröm firestüzek up.
111
355990
1454
Ez az öröm. Kigyúl az öröm.
06:09
And then give me a disgustundor facearc.
112
357444
1927
Most vágj utálkozó arcot.
06:11
Try to rememberemlékezik what it was like
when ZaynNagy Rudolfné Zsuzsa left One DirectionIrány.
113
359371
4272
Gondolj arra, milyen volt, amikor Zayn
kilépett a One Direction-ből.
06:15
(LaughterNevetés)
114
363643
1510
(Nevetés)
06:17
Yeah, wrinkleránc your noseorr. AwesomeNagyszerű.
115
365153
4342
Úgy, ráncold az orrod. Klassz.
06:21
And the valenceValence is actuallytulajdonképpen quiteegészen
negativenegatív, so you mustkell have been a bignagy fanventilátor.
116
369495
3731
A kötődés eléggé negatív,
biztos nagy rajongója voltál.
06:25
So valenceValence is how positivepozitív
or negativenegatív an experiencetapasztalat is,
117
373226
2700
A kötődés a tapasztalat
pozitív vagy negatív jellege,
06:27
and engagementeljegyzés is how
expressivekifejező she is as well.
118
375926
2786
az elkötelezettség pedig
azt jelzi, mennyire kifejező.
06:30
So imagineKépzeld el if CloeCloe had accesshozzáférés
to this real-timevalós idő emotionérzelem streamfolyam,
119
378712
3414
Képzeljék el, ha Cloe hozzáférne
egy valós idejű érzelem-csatornához,
06:34
and she could shareOssza meg it
with anybodybárki she wanted to.
120
382126
2809
és megoszthatná azt mindenkivel,
akivel csak akarná.
06:36
Thank you.
121
384935
2923
Köszönöm.
06:39
(ApplauseTaps)
122
387858
4621
(Taps)
06:45
So, so farmessze, we have amassedfelhalmozott
12 billionmilliárd, ezermillió of these emotionérzelem dataadat pointspont.
123
393749
5270
Az eddigiekben 12 milliárd ilyen
érzelmi adatpontot gyűjtöttünk.
06:51
It's the largestlegnagyobb emotionérzelem
databaseadatbázis in the worldvilág.
124
399019
2611
Ez a legnagyobb érzelem-adatbázis
a világon.
06:53
We'veMost már collectedösszegyűjtött it
from 2.9 millionmillió facearc videosvideók,
125
401630
2963
2,9 millió arcot ábrázoló
videóról gyűjtöttük ezeket,
06:56
people who have agreedegyetért
to shareOssza meg theirazok emotionsérzelmek with us,
126
404593
2600
olyanoktól, akik beleegyeztek
érzelmeik megosztásába,
06:59
and from 75 countriesországok around the worldvilág.
127
407193
3205
világszerte, 75 országban.
07:02
It's growingnövekvő everyminden day.
128
410398
1715
Naponta növekszik.
07:04
It blowsfúj my mindelme away
129
412603
2067
Lélegzetelállító, hogy tudunk
07:06
that we can now quantifyszámszerűsíteni something
as personalszemélyes as our emotionsérzelmek,
130
414670
3195
számszerűsíteni egy ennyire
személyes dolgot, mint az érzelmeink,
07:09
and we can do it at this scaleskála.
131
417865
2235
és ilyen nagyságrendben tudjuk.
07:12
So what have we learnedtanult to datedátum?
132
420100
2177
Mit tanultunk tehát eddig?
07:15
GenderA nemek közötti.
133
423057
2331
A nemek.
07:17
Our dataadat confirmsmegerősíti something
that you mightesetleg suspectgyanúsított.
134
425388
3646
Adataink igazolják,
amit valószínűleg sejtenek.
07:21
WomenNők are more expressivekifejező than menférfiak.
135
429034
1857
A nők kifejezőbbek, mint a férfiak.
07:22
Not only do they smilemosoly more,
theirazok smilesmosolyog last longerhosszabb,
136
430891
2683
Nemcsak többet mosolyognak,
de a mosolyuk tovább tart,
07:25
and we can now really quantifyszámszerűsíteni
what it is that menférfiak and womennők
137
433574
2904
és most tényleg számszerűsíteni tudjuk,
mi az, amire
07:28
respondreagál to differentlyeltérően.
138
436478
2136
a nők és a férfiak eltérően válaszolnak.
07:30
Let's do culturekultúra: So in the UnitedEgyesült StatesÁllamok,
139
438614
2290
Nézzük a kultúrát: az Egyesült Államokban
07:32
womennők are 40 percentszázalék
more expressivekifejező than menférfiak,
140
440904
3204
a nők 40%-kal kifejezőbbek,
mint a férfiak,
07:36
but curiouslykülönösképpen, we don't see any differencekülönbség
in the U.K. betweenközött menférfiak and womennők.
141
444108
3645
de érdekes módon az Egyesült Királyságban
nem látunk közöttük különbséget.
07:39
(LaughterNevetés)
142
447753
2506
(Nevetés)
07:43
AgeKor: People who are 50 yearsévek and olderidősebb
143
451296
4027
Életkor: az 50 év felettiek
07:47
are 25 percentszázalék more emotiveérzelmi
than youngerfiatalabb people.
144
455323
3436
25%-kal érzelmesebbek a fiataloknál.
07:51
WomenNők in theirazok 20s smilemosoly a lot more
than menférfiak the sameazonos agekor,
145
459899
3852
A huszonéves nők sokkal többet
mosolyognak, mint az azonos korú férfiak,
07:55
perhapstalán a necessityszükségessége for datingtárskereső.
146
463751
3839
lehet, hogy ez szükséges a randizáshoz.
07:59
But perhapstalán what surprisedmeglepődött us
the mosta legtöbb about this dataadat
147
467590
2617
De az adatokban talán az
lepett meg a legjobban,
08:02
is that we happentörténik
to be expressivekifejező all the time,
148
470207
3203
hogy úgy tűnik, mindig kifejezőek vagyunk,
08:05
even when we are sittingülés
in frontelülső of our deviceskészülékek aloneegyedül,
149
473410
2833
még akkor is, amikor egyedül ülünk
a készülékeink előtt,
08:08
and it's not just when we're watchingnézni
catmacska videosvideók on FacebookFacebook.
150
476243
3274
és nemcsak amikor cicás videókat
nézünk a Facebookon.
08:12
We are expressivekifejező when we're emailingelektronikus levél,
textingtextil, shoppingbevásárlás onlineonline,
151
480217
3010
Kifejezőek vagyunk e-mail és SMS írásakor,
online vásárláskor,
08:15
or even doing our taxesadók.
152
483227
2300
még az adóbevallás kitöltésekor is.
08:17
Where is this dataadat used todayMa?
153
485527
2392
Hol használják ma ezeket az adatokat?
08:19
In understandingmegértés how we engagerészt with mediamédia,
154
487919
2763
Annak megértésére,
mennyire köt le a média,
hogy mi és miért terjed a neten,
hogy hogyan választunk,
08:22
so understandingmegértés viralityVirality
and votingszavazás behaviorviselkedés;
155
490682
2484
és arra, hogyan építsük be
a gesztus értelmezését a technológiába.
08:25
and alsois empoweringképessé
or emotion-enablingérzelem-engedélyezése technologytechnológia,
156
493166
2740
08:27
and I want to shareOssza meg some examplespéldák
that are especiallykülönösen closeBezárás to my heartszív.
157
495906
4621
Bemutatok néhány, a szívemhez
különösen közel álló példát.
08:33
Emotion-enabledÉrzelem-engedélyezve wearablehordható glassesszemüveg
can help individualsegyének
158
501197
3068
A gesztus-értelmező szemüvegek segítenek
08:36
who are visuallyvizuálisan impairedkárosodott
readolvas the facesarcok of othersmások,
159
504265
3228
a gyengénlátó embereknek
leolvasni mások arcát,
08:39
and it can help individualsegyének
on the autismautizmus spectrumszínkép interpretértelmezése emotionérzelem,
160
507493
4187
és segítenek az autista embereknek
az érzelmek értelmezésében,
08:43
something that they really struggleküzdelem with.
161
511680
2778
ők ezzel nagyon küszködnek.
08:47
In educationoktatás, imagineKépzeld el
if your learningtanulás appsalkalmazások
162
515918
2859
Oktatás: képzeljék el,
hogy az online tanulásban az app
08:50
senseérzék that you're confusedzavaros and slowlassú down,
163
518777
2810
érzékeli, ha összezavarodtunk,
és lelassít;
08:53
or that you're boredunott, so it's spedSPED up,
164
521587
1857
ha unatkozunk, akkor felgyorsít,
08:55
just like a great teachertanár
would in a classroomtanterem.
165
523444
2969
ahogyan egy jó tanár tenné
az osztályteremben.
08:59
What if your wristwatchkaróra trackedlánctalpas your moodhangulat,
166
527043
2601
Mi lenne, ha a karóránk figyelné
kedélyünket,
09:01
or your carautó sensedérzékelt that you're tiredfáradt,
167
529644
2693
az autónk észlelné, ha fáradtak vagyunk,
09:04
or perhapstalán your fridgehűtőszekrény
knowstudja that you're stressedhangsúlyozta,
168
532337
2548
vagy akár: a hűtőnk tudná,
hogy feszültek vagyunk,
09:06
so it auto-locksAuto-zár to preventmegelőzése you
from bingemértéktelen eatingenni. (LaughterNevetés)
169
534885
6066
és lezárná magát, hogy megakadályozza,
hogy túlzabáljuk magunkat. (Nevetés)
09:12
I would like that, yeah.
170
540951
2717
Igen, ezt szeretném.
09:15
What if, when I was in CambridgeCambridge,
171
543668
1927
Mi lett volna, ha a cambridge-i időkben
09:17
I had accesshozzáférés to my real-timevalós idő
emotionérzelem streamfolyam,
172
545595
2313
hozzáfértem volna az érzelem-csatornámhoz,
09:19
and I could shareOssza meg that with my familycsalád
back home in a very naturaltermészetes way,
173
547908
3529
és természetes módon meg tudtam volna
azt osztani otthonmaradt családommal,
09:23
just like I would'vemár if we were all
in the sameazonos roomszoba togetheregyütt?
174
551437
3971
mintha mindannyian együtt
lennénk, ugyanabban a szobában?
09:27
I think fiveöt yearsévek down the linevonal,
175
555408
3142
Azt gondolom, öt év múlva
09:30
all our deviceskészülékek are going
to have an emotionérzelem chipcsip,
176
558550
2337
minden eszközünkben lesz érzelem-csip,
09:32
and we won'tszokás rememberemlékezik what it was like
when we couldn'tnem tudott just frownhomlokát ráncolja at our deviceeszköz
177
560887
4064
és már nem fogunk emlékezni arra,
amikor hiába néztünk homlokráncolva,
09:36
and our deviceeszköz would say, "HmmHmm,
you didn't like that, did you?"
178
564951
4249
készülékünk nem mondta:
"Ez ugye nem tetszett?"
09:41
Our biggestlegnagyobb challengekihívás is that there are
so manysok applicationsalkalmazások of this technologytechnológia,
179
569200
3761
A nagy kihívás az, hogy a technológiának
olyan sok alkalmazási területe van,
09:44
my teamcsapat and I realizemegvalósítani that we can't
buildépít them all ourselvesminket,
180
572961
2903
hogy a csapatommal rájöttünk:
nem tudjuk mindet mi megépíteni,
09:47
so we'vevoltunk madekészült this technologytechnológia availableelérhető
so that other developersfejlesztők
181
575864
3496
ezért közzétettük a technológiát,
hogy más fejlesztők is
09:51
can get buildingépület and get creativekreatív.
182
579360
2114
tudjanak építeni rá és alkotni.
09:53
We recognizeelismerik that
there are potentiallehetséges riskskockázatok
183
581474
4086
Elismerjük, hogy vannak
potenciális kockázatok,
09:57
and potentiallehetséges for abusevisszaélés,
184
585560
2067
és vissza lehet élni ezzel,
09:59
but personallySzemélyesen, havingamelynek spentköltött
manysok yearsévek doing this,
185
587627
2949
de személy szerint, miután
oly sok éve dolgozom rajta,
10:02
I believe that the benefitselőnyök to humanityemberiség
186
590576
2972
hiszem, hogy az érzelmileg
intelligens technológia léte
10:05
from havingamelynek emotionallyérzelmileg
intelligentintelligens technologytechnológia
187
593548
2275
olyan nagy haszon az emberiségnek,
10:07
farmessze outweightúlsúlyban the potentiallehetséges for misusevisszaélés.
188
595823
3576
hogy az jócskán ellensúlyozza
a visszaélés lehetőségét.
10:11
And I invitemeghívás you all to be
partrész of the conversationbeszélgetés.
189
599399
2531
Meghívom Önöket is,
vegyenek részt a beszélgetésben.
10:13
The more people who know
about this technologytechnológia,
190
601930
2554
Minél többen tudnak a technológiáról,
10:16
the more we can all have a voicehang
in how it's beinglény used.
191
604484
3177
annál többen mondhatnak
véleményt használatáról.
10:21
So as more and more
of our liveséletét becomeválik digitaldigitális,
192
609081
4574
Ahogy tehát egyre inkább digitálissá
válik életünk,
10:25
we are fightingharcoló a losingvesztes battlecsata
tryingmegpróbálja to curbjárda our usagehasználat of deviceskészülékek
193
613655
3498
vesztésre állunk a csatában,
amelyben korlátozni próbáljuk eszközeink
10:29
in ordersorrend to reclaimvisszakövetel our emotionsérzelmek.
194
617153
2229
használatát, hogy
visszakérjük érzelmeinket.
10:32
So what I'm tryingmegpróbálja to do insteadhelyette
is to bringhoz emotionsérzelmek into our technologytechnológia
195
620622
3914
Ehelyett próbálok érzelmeket
vinni technológiánkba,
10:36
and make our technologiestechnológiák more responsivefogékony.
196
624536
2229
és fogékonyabbá tenni azt.
10:38
So I want those deviceskészülékek
that have separatedelválasztott us
197
626765
2670
Azt akarom, hogy az eszközök,
amelyek elválasztottak,
10:41
to bringhoz us back togetheregyütt.
198
629435
2462
újra összekössenek minket.
10:43
And by humanizingemberivé technologytechnológia,
we have this goldenaranysárga opportunitylehetőség
199
631897
4588
A technológia emberiessé tételével
kitűnő lehetőségünk nyílik arra,
10:48
to reimagineReimagine how we
connectkapcsolódni with machinesgépek,
200
636485
3297
hogy újragondoljuk,
hogyan viszonyulunk a gépekhez,
10:51
and thereforeebből adódóan, how we, as humanemberi beingslények,
201
639782
4481
és ennek folytán mi, emberi lények,
10:56
connectkapcsolódni with one anotheregy másik.
202
644263
1904
hogyan viszonyulunk egymáshoz.
10:58
Thank you.
203
646167
2160
Köszönöm.
11:00
(ApplauseTaps)
204
648327
3313
(Taps)
Translated by Peter Balla
Reviewed by Maria Ruzsane Cseresnyes

▲Back to top

ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee