ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com
TEDWomen 2015

Rana el Kaliouby: This app knows how you feel -- from the look on your face

Rana el Kalioubi (Rana el Kaliouby): Ova aplikacija zna kako se osećate - po vašem izrazu lica

Filmed:
1,613,290 views

Naše emocije utiču na svaki aspekt naših života - kako učimo, kako komuniciramo, kako donosimo odluke. Ipak, odsutne su iz naših digitalnih života; uređaji i aplikacije koje koristimo ne mogu znati kako se mi osećamo. Naučnik Rana el Kalioubi teži da promeni to. Ona predstavlja demo verziju moćne tehnologije koja čita izraze na vašem licu i povezuje ih sa odgovarajućim emocijama. Ovaj „emotivni motor” nosi sa sobom bitne implikacije, kaže ona, i mogao bi da promeni ne samo način na koji komuniciramo sa mašinama - već i jedni sa drugima.
- Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware. Full bio

Double-click the English transcript below to play the video.

00:12
Our emotionsемоције influenceутицај
everyсваки aspectаспект of our livesживи,
0
556
4017
Naše emocije utiču
na svaki aspekt naših života,
od našeg zdravlja i načina učenja
00:16
from our healthздравље and how we learnучи,
to how we do businessбизнис and make decisionsОдлуке,
1
4573
3576
do načina obavljanja posla
i donošenja odluka,
00:20
bigвелики onesоне and smallмали.
2
8149
1773
bile one velike ili male.
Naše emocije takođe utiču na to
kako se povezujemo jedni sa drugima.
00:22
Our emotionsемоције alsoтакође influenceутицај
how we connectцоннецт with one anotherдруги.
3
10672
3490
00:27
We'veMoramo evolvedеволуирао to liveживи
in a worldсвет like this,
4
15132
3976
Razvili smo se za život
u svetu kao što je ovaj,
00:31
but insteadуместо тога, we're livingживи
more and more of our livesживи like this --
5
19108
4319
ali umesto toga,
živimo sve više naše živote ovako -
ovo je SMS poruka
koju mi je ćerka poslala sinoć -
00:35
this is the textтекст messageпорука
from my daughterћерка last night --
6
23427
3134
00:38
in a worldсвет that's devoidneoprostiv of emotionемоција.
7
26561
2740
u svetu koji je lišen emocija.
00:41
So I'm on a missionмисија to changeпромена that.
8
29301
1951
Tako sam na misiji to da promenim.
00:43
I want to bringдовести emotionsемоције
back into our digitalдигитални experiencesискуства.
9
31252
4091
Želim da vratim emocije
u naše digitalno iskustvo.
00:48
I startedпочела on this pathпут 15 yearsгодине agoпре.
10
36223
3077
Krenula sam ovim putem pre 15 godina.
Bila sam kompjuterski naučnik u Egiptu
00:51
I was a computerрачунар scientistнаучник in EgyptEgipat,
11
39300
2066
00:53
and I had just gottenготтен acceptedприхваћено to
a PhPH.D. programпрограм at CambridgeCambridge UniversityUniverzitet.
12
41366
4505
i samo što su me primili
na doktorski program
na univerzitetu u Kembridžu.
Tako sam uradila nešto prilično neobično
00:57
So I did something quiteприлично unusualнеобично
13
45871
2113
00:59
for a youngмлади newlywedmladoћenja MuslimMuslimanska EgyptianEgipatski wifeжена:
14
47984
4225
za jednu mladu, tek venčanu ženu
koja je muslimanska Egipćanka:
(Smeh)
01:05
With the supportподршка of my husbandмуж,
who had to stayостани in EgyptEgipat,
15
53599
2999
uz podršku mog muža
koji je morao da ostane u Egiptu,
01:08
I packedупакован my bagsторбе and I movedпреселила се to EnglandEngleska.
16
56598
3018
spakovala sam kofere
i preselila se u Englesku.
01:11
At CambridgeCambridge, thousandsхиљаде of milesмиља
away from home,
17
59616
3228
Na Kembridžu, kilometrima daleko od kuće,
shvatila sam da više vremena
provodim sa laptopom
01:14
I realizedреализован I was spendingтрошење
more hoursсати with my laptopлап топ
18
62844
3413
nego sa bilo kojim drugim ljudskim bićem.
01:18
than I did with any other humanљудско.
19
66257
2229
01:20
YetJoš despiteупркос this intimacyинтимност, my laptopлап топ
had absolutelyапсолутно no ideaидеја how I was feelingОсећај.
20
68486
4853
Ipak, i pored ove prisnosti, moj laptop
nije imao pojma kako se osećam.
01:25
It had no ideaидеја if I was happyсрећан,
21
73339
3211
Nije imao pojma da li sam srećna,
01:28
havingимати a badлоше day, or stressedpod stresom, confusedзбуњено,
22
76550
2988
da li sam imala loš dan,
da li sam pod stresom, zbunjena,
01:31
and so that got frustratingfrustrirajuжe.
23
79538
2922
tako da je to postalo frustrirajuće.
Još gore, dok sam komunicirala
sa porodicom kod kuće preko mreže,
01:35
Even worseгоре, as I communicatedкомуницира
onlineонлине with my familyпородица back home,
24
83600
5231
osećala sam da sve moje emocije
nestaju u sajber prostoru.
01:41
I feltосетио that all my emotionsемоције
disappearedнестао in cyberspaceциберспаце.
25
89421
3282
01:44
I was homesicknostalgiju za domom, I was lonelyусамљен,
and on some daysдана I was actuallyзаправо cryingplakanje,
26
92703
5155
Nedostajala mi je kuća, bila sam usamljena
i nekih dana sam zapravo i plakala,
01:49
but all I had to communicateкомуницирајте
these emotionsемоције was this.
27
97858
4928
ali sve što sam imala
da iskažem ove emocije bilo je ovo.
01:54
(LaughterSmeh)
28
102786
2020
(Smeh)
01:56
Today'sDanas je technologyтехнологија
has lots of I.Q., but no E.Q.;
29
104806
4974
Današnja tehnologija ima
mnogo IQ-a, ali nema EQ;
mnogo kognitivne inteligencije,
ali nimalo emocionalne inteligencije,
02:01
lots of cognitiveкогнитивни intelligenceинтелигенција,
but no emotionalемоционално intelligenceинтелигенција.
30
109780
3176
02:04
So that got me thinkingразмишљање,
31
112956
2197
te me je to nagnalo na razmišljanje.
02:07
what if our technologyтехнологија
could senseсмисао our emotionsемоције?
32
115153
3624
Šta ako bi naša tehnologija mogla
da oseti naše emocije?
02:10
What if our devicesуређаји could senseсмисао
how we feltосетио and reactedreagovala accordinglyu skladu sa tim,
33
118777
4076
Šta ako bi uređaji mogli
da prepoznaju i reaguju na naša osećanja,
baš kao što bi reagovao
i emocionalno inteligentan prijatelj?
02:14
just the way an emotionallyемоционално
intelligentинтелигентан friendпријатељ would?
34
122853
3013
02:18
Those questionsпитања led me and my teamтим
35
126666
3564
Ta pitanja su navela mene i moj tim
da napravimo tehnologiju
02:22
to createстворити technologiesтехнологије that can readчитати
and respondодговори to our emotionsемоције,
36
130230
4377
koja može da čita
i reaguje na naše emocije,
02:26
and our startingпочевши pointтачка was the humanљудско faceлице.
37
134607
3090
a naša početna tačka bilo je ljudsko lice.
02:30
So our humanљудско faceлице happensсе дешава to be
one of the mostнајвише powerfulмоћан channelsканали
38
138577
3173
Dakle, ljudsko lice
je jedno od najmoćnijih kanala
02:33
that we all use to communicateкомуницирајте
socialсоцијално and emotionalемоционално statesдржаве,
39
141750
4016
koje koristimo da prenesemo
društvena i emocionalna stanja,
02:37
everything from enjoymentуживање, surpriseизненађење,
40
145766
3010
sve od zadovoljstva, iznenađenja,
02:40
empathyемпатија and curiosityрадозналост.
41
148776
4203
empatije do radoznalosti.
02:44
In emotionемоција scienceНаука, we call eachсваки
facialtretman lica muscleмишић movementпокрет an actionпоступак unitјединица.
42
152979
4928
U nauci o emocijama,
sve pokrete facijalnih mišića
nazivamo akcijskim jedinicama.
02:49
So for exampleпример, actionпоступак unitјединица 12,
43
157907
2925
Tako, na primer, akcijska jedinica 12
nije holivudski blokbaster,
02:52
it's not a HollywoodHollywood blockbustervideoteka,
44
160832
2038
nego se radi o podizanju ugla usana,
što je glavna komponenta osmeha.
02:54
it is actuallyзаправо a lipusna cornerугао pullповући,
whichкоја is the mainглавни componentсаставни део of a smileосмех.
45
162870
3442
Probajte to. Hajde da svi nabacimo osmehe.
02:58
Try it everybodyсвима. Let's get
some smilesосмех going on.
46
166312
2988
Još jedan primer je akcijska jedinica 4.
To je boranje obrve.
03:01
AnotherDrugi exampleпример is actionпоступак unitјединица 4.
It's the browobrve furrowbrazdu.
47
169300
2654
To je kada skupite obrve
i stvorite sve ove teksture i bore.
03:03
It's when you drawнацртати your eyebrowsobrve togetherзаједно
48
171954
2238
03:06
and you createстворити all
these texturesteksture and wrinklesBora.
49
174192
2267
Ne volimo ih, ali one su jasan pokazatelj
neke negativne emocije.
03:08
We don't like them, but it's
a strongјак indicatorиндикатор of a negativeнегативно emotionемоција.
50
176459
4295
Tako imamo oko 45 ovih akcijskih jedinica
03:12
So we have about 45 of these actionпоступак unitsјединице,
51
180754
2206
i one se kombinuju
da izraze stotine emocija.
03:14
and they combineкомбиновати to expressизразити
hundredsстотине of emotionsемоције.
52
182960
3390
Podučavanje kompjutera
da čita ove facijalne emocije je teško
03:18
TeachingNastava a computerрачунар to readчитати
these facialtretman lica emotionsемоције is hardтешко,
53
186350
3901
03:22
because these actionпоступак unitsјединице,
they can be fastбрзо, they're subtleсуптилно,
54
190251
2972
zato što ove akcijske jedinice
mogu biti brze, suptilne
03:25
and they combineкомбиновати in manyмноги differentразличит waysначини.
55
193223
2554
i kombinuju se na mnogo različitih načina.
Uzmite tako, na primer,
osmeh i zloban osmeh.
03:27
So take, for exampleпример,
the smileосмех and the smirkkez.
56
195777
3738
03:31
They look somewhatдонекле similarслично,
but they mean very differentразличит things.
57
199515
3753
Izgledaju pomalo slično
ali imaju veoma različita značenja.
(Smeh)
03:35
(LaughterSmeh)
58
203268
1718
03:36
So the smileосмех is positiveпозитивно,
59
204986
3004
Dakle, osmeh je pozitivan,
a zloban osmeh je često negativan.
03:39
a smirkkez is oftenчесто negativeнегативно.
60
207990
1270
Ponekad jedan zloban osmeh može
da vas napravi poznatim.
03:41
SometimesPonekad a smirkkez
can make you becomeпостати famousпознат.
61
209260
3876
03:45
But seriouslyозбиљно, it's importantважно
for a computerрачунар to be ableу могуцности
62
213136
2824
Ozbiljno, važno je
da kompjuter bude u stanju
03:47
to tell the differenceразлика
betweenизмеђу the two expressionsизрази.
63
215960
2855
da prepozna razliku između
ova dva izraza.
Dakle, kako to postižemo?
03:50
So how do we do that?
64
218815
1812
Obezbeđujemo svojim algoritmima
03:52
We give our algorithmsалгоритми
65
220627
1787
desetine hiljada primera ljudi
za koje znamo da se osmehuju,
03:54
tensдесетке of thousandsхиљаде of examplesпримери
of people we know to be smilingнасмејан,
66
222414
4110
03:58
from differentразличит ethnicitiesнационалности, agesгодине, genderspola,
67
226524
3065
ljudi različitih etničkih pripadnosti,
godina, različitog pola,
04:01
and we do the sameисти for smirksosmesi, grimase.
68
229589
2811
a to isto činimo za podsmehe.
Onda, uz dubinski pristup učenju,
04:04
And then, usingКористећи deepдубоко learningучење,
69
232400
1554
04:05
the algorithmalgoritam looksизглед for all these
texturesteksture and wrinklesBora
70
233954
2856
algoritam traži sve ove teksture i bore
04:08
and shapeоблик changesПромене on our faceлице,
71
236810
2580
i promene oblika na našim licima,
i u suštini uči da svi osmesi imaju
zajedničke osobine,
04:11
and basicallyу основи learnsuči that all smilesосмех
have commonзаједнички characteristicsкарактеристике,
72
239390
3202
04:14
all smirksosmesi, grimase have subtlysuptilno
differentразличит characteristicsкарактеристике.
73
242592
3181
da se svi zlobni osmesi suptilno razlikuju
od osmeha po osobinama.
04:17
And the nextследећи time it seesвиди a newново faceлице,
74
245773
2368
I sledeći put kada vidi novo lice,
04:20
it essentiallyУ суштини learnsuči that
75
248141
2299
u suštini uči da ovo lice ima
iste osobine osmeha
04:22
this faceлице has the sameисти
characteristicsкарактеристике of a smileосмех,
76
250440
3033
04:25
and it saysкаже, "AhaAha, I recognizeпрепознати this.
This is a smileосмех expressionизраз."
77
253473
4278
i kaže „Aha, prepoznajem ovo.
Ovo je izraz osmeha.”
04:30
So the bestнајбоље way to demonstratedemonstrirati
how this technologyтехнологија worksИзвођење радова
78
258381
2800
Najbolji način da pokažemo
kako ova tehnologija funkcioniše
04:33
is to try a liveживи demodemo,
79
261181
2136
jeste da probamo demo-verziju uživo,
tako da mi treba dobrovoljac.
04:35
so I need a volunteerволонтер,
preferablyпожељно somebodyнеко with a faceлице.
80
263317
3913
Poželjno je da taj neko ima lice.
(Smeh)
04:39
(LaughterSmeh)
81
267230
2334
04:41
Cloe'sChloe je going to be our volunteerволонтер todayданас.
82
269564
2771
Kloi će nam danas biti dobrovoljac.
04:45
So over the pastпрошлост fiveпет yearsгодине, we'veми смо movedпреселила се
from beingбиће a researchистраживање projectпројекат at MITMIT-A
83
273325
4458
Dakle, u zadnjih pet godina,
od istraživačkog projekta na MIT-u
04:49
to a companyкомпанија,
84
277783
1156
postali smo kompanija,
u kojoj je moj tim vredno radio
da ova tehnologija uspe,
04:50
where my teamтим has workedрадио је really hardтешко
to make this technologyтехнологија work,
85
278939
3192
kako mi volimo da kažemo, u divljini.
04:54
as we like to say, in the wildдивље.
86
282131
2409
Takođe smo je smanjili
tako da osnovni emotivni motor
04:56
And we'veми смо alsoтакође shrunkse smanjio it so that
the coreјезгро emotionемоција engineмотор
87
284540
2670
radi na bilo kom mobilnom uređaju
koji ima kameru, kao što je ovaj Ajped.
04:59
worksИзвођење радова on any mobileмобилни deviceуређај
with a cameraКамера, like this iPadiPad.
88
287210
3320
Dakle, hajde da probamo.
05:02
So let's give this a try.
89
290530
2786
Kao što možete da vidite,
algoritam je pronašao Kloino lice.
05:06
As you can see, the algorithmalgoritam
has essentiallyУ суштини foundнашао Cloe'sChloe je faceлице,
90
294756
3924
05:10
so it's this whiteбео boundingvodi i na kopnu boxбок,
91
298680
1692
To je ovaj beli granični okvir,
05:12
and it's trackingпраћење the mainглавни
featureкарактеристика pointsбодова on her faceлице,
92
300372
2571
koji prati glavne tačke odlika
na njenom licu,
05:14
so her eyebrowsobrve, her eyesочи,
her mouthуста and her noseнос.
93
302943
2856
dakle, njene obrve, njene oči,
njena usta i njen nos.
05:17
The questionпитање is,
can it recognizeпрепознати her expressionизраз?
94
305799
2987
Pitanje je, da li može prepoznati
njen izraz lica?
Dakle, testiraćemo mašinu.
05:20
So we're going to testтест the machineмашина.
95
308786
1671
Pre svega, da vidimo tvoje
pokeraško lice. Da, super.
05:22
So first of all, give me your pokerpoker faceлице.
YepAha, awesomeсупер. (LaughterSmeh)
96
310457
4186
(Smeh)
05:26
And then as she smilesосмех,
this is a genuineправи, исправан smileосмех, it's great.
97
314643
2813
Onda, kada se osmehne,
ovo je iskren osmeh, odlično.
Vidite da se zelena traka
puni kada se osmehuje.
05:29
So you can see the greenзелен barбар
go up as she smilesосмех.
98
317456
2300
To je bio širok osmeh.
05:31
Now that was a bigвелики smileосмех.
99
319756
1222
A jedan suptilan osmeh da vidimo
da li kompjuter ume da prepozna?
05:32
Can you try a subtleсуптилно smileосмех
to see if the computerрачунар can recognizeпрепознати?
100
320978
3043
Prepoznaje i suptilne osmehe.
05:36
It does recognizeпрепознати subtleсуптилно smilesосмех as well.
101
324021
2331
Vredno smo radili da ovo ostvarimo.
05:38
We'veMoramo workedрадио је really hardтешко
to make that happenдесити се.
102
326352
2125
Zatim podignute obrve,
pokazatelj iznenađenja.
05:40
And then eyebrowobrva raisedОдгојен,
indicatorиндикатор of surpriseизненађење.
103
328477
2962
Boranje obrva,
što je pokazatelj zbunjenosti.
05:43
BrowObrve furrowbrazdu, whichкоја is
an indicatorиндикатор of confusionзбуњеност.
104
331439
4249
05:47
FrownZaboravi. Yes, perfectсавршен.
105
335688
4007
Mrštenje. Da, savršeno.
05:51
So these are all the differentразличит
actionпоступак unitsјединице. There's manyмноги more of them.
106
339695
3493
Ovo su različite akcijske jedinice.
Postoji ih još mnogo više.
Ovo je samo skraćena demo verzija.
05:55
This is just a slimmed-downsmanjuje se obim demodemo.
107
343188
2032
Svako čitanje nazivamo
tačkom emotivnih podataka
05:57
But we call eachсваки readingчитање
an emotionемоција dataподаци pointтачка,
108
345220
3148
06:00
and then they can fireватра togetherзаједно
to portrayPredstaviti differentразличит emotionsемоције.
109
348368
2969
i one mogu zajedno da rade
da iskažu različite emocije.
06:03
So on the right sideстрана of the demodemo --
look like you're happyсрећан.
110
351337
4653
Dakle, na desnoj strani demo verzije -
izgledaj kao da si srećna.
Dakle, to je radost. Radost se povećava.
06:07
So that's joyрадост. JoyRadost firesпожари up.
111
355990
1454
06:09
And then give me a disgustgađenje faceлице.
112
357444
1927
Sad mi pokaži izraz gađenja.
Pokušaj da se setiš kako si se osećala
kada je Zejn napustio „One Direction".
06:11
Try to rememberзапамтити what it was like
when ZaynSmeљna left One DirectionPravac.
113
359371
4272
(Smeh)
06:15
(LaughterSmeh)
114
363643
1510
Da, naboraj nos. Super.
06:17
Yeah, wrinkleBora your noseнос. AwesomeStrava.
115
365153
4342
06:21
And the valenceValens is actuallyзаправо quiteприлично
negativeнегативно, so you mustмора have been a bigвелики fanвентилатор.
116
369495
3731
Valenca je stvarno krajnje negativna,
tako da mora da si bila veliki fan.
Valenca označava koliko je
iskustvo pozitivno ili negativno,
06:25
So valenceValens is how positiveпозитивно
or negativeнегативно an experienceискуство is,
117
373226
2700
06:27
and engagementангажовање is how
expressivesa značenjem she is as well.
118
375926
2786
a angažman je taj koji označava
koliko je ona ekspresivna.
06:30
So imagineзамислити if CloeChloe had accessприступ
to this real-timeреалном времену emotionемоција streamстреам,
119
378712
3414
Zamislite da Kloi ima pristup
ovom emotivnom prenosu u realnom vremenu
06:34
and she could shareОбјави it
with anybodyбило ко she wanted to.
120
382126
2809
i da može da ga podeli sa kim god želi.
06:36
Thank you.
121
384935
2923
Hvala ti.
(Aplauz)
06:39
(ApplauseAplauz)
122
387858
4621
06:45
So, so farдалеко, we have amassedskupio
12 billionмилијарде of these emotionемоција dataподаци pointsбодова.
123
393749
5270
Dakle, do sada smo nagomilali 12 milijardi
ovih tačaka emotivnih podataka.
To je najveća baza emocija u svetu.
06:51
It's the largestнајвеће emotionемоција
databaseбаза података in the worldсвет.
124
399019
2611
Sakupili smo je
kroz 2,9 miliona klipova lica,
06:53
We'veMoramo collectedприкупљени it
from 2.9 millionмилиона faceлице videosвидеос,
125
401630
2963
06:56
people who have agreedсложио се
to shareОбјави theirњихова emotionsемоције with us,
126
404593
2600
ljudi koji su pristali da podele
svoje emocije sa nama,
06:59
and from 75 countriesземље around the worldсвет.
127
407193
3205
a to iz 75 zemalja širom sveta.
07:02
It's growingрастуће everyсваки day.
128
410398
1715
Broj svaki dan raste.
07:04
It blowsударе my mindум away
129
412603
2067
Raspamećuje me
to da sada možemo odrediti količinu
nečega tako ličnog kao što su emocije
07:06
that we can now quantifyквантификовати something
as personalлични as our emotionsемоције,
130
414670
3195
07:09
and we can do it at this scaleСкала.
131
417865
2235
i da to možemo obaviti na ovom nivou.
07:12
So what have we learnedнаучио to dateдатум?
132
420100
2177
Dakle, šta smo naučili do sada?
07:15
GenderPolova.
133
423057
2331
Pol.
Naši podaci potvrđuju ono
što možda pretpostavljate.
07:17
Our dataподаци confirmspotvrđuje something
that you mightМожда suspectосумњичени.
134
425388
3646
07:21
WomenŽene are more expressivesa značenjem than menмушкарци.
135
429034
1857
Žene su eskpresivnije od muškaraca.
07:22
Not only do they smileосмех more,
theirњихова smilesосмех last longerдуже,
136
430891
2683
Ne samo da se više osmehuju,
njihovi osmesi traju duže.
07:25
and we can now really quantifyквантификовати
what it is that menмушкарци and womenЖене
137
433574
2904
Sada stvarno možemo odrediti
šta je to na šta muškarci i žene
07:28
respondодговори to differentlyдругачије.
138
436478
2136
reaguju drugačije.
07:30
Let's do cultureкултура: So in the UnitedUjedinjeni StatesDržava,
139
438614
2290
Pozabavimo se kulturom.
U Sjedinjenim Državama,
07:32
womenЖене are 40 percentпроценат
more expressivesa značenjem than menмушкарци,
140
440904
3204
žene su 40% ekspresivnije od muškaraca,
07:36
but curiouslyЗанимљиво, we don't see any differenceразлика
in the U.K. betweenизмеђу menмушкарци and womenЖене.
141
444108
3645
ali neobično je to da nema razlike
u UK između muškaraca i žena.
07:39
(LaughterSmeh)
142
447753
2506
(Smeh)
07:43
AgeGodinama: People who are 50 yearsгодине and olderстарији
143
451296
4027
Godine. Ljudi koji imaju
50 godina ili stariji od toga
07:47
are 25 percentпроценат more emotiveemotivnim
than youngerмлађи people.
144
455323
3436
su 25% emotivniji od mlađih ljudi.
Žene u dvadesetima osmehuju se
mnogo više od muškaraca istih godina,
07:51
WomenŽene in theirњихова 20s smileосмех a lot more
than menмушкарци the sameисти ageстарост,
145
459899
3852
što je možda neophodno pri zabavljanju.
07:55
perhapsможда a necessitypotreba for datingУпознавање.
146
463751
3839
07:59
But perhapsможда what surprisedизненађени us
the mostнајвише about this dataподаци
147
467590
2617
Ipak, možda najveće iznenađenje
u vezi ovih podataka
je to da smo stalno izražajni,
08:02
is that we happenдесити се
to be expressivesa značenjem all the time,
148
470207
3203
čak i kada sedimo sami
ispred naših uređaja,
08:05
even when we are sittingседење
in frontфронт of our devicesуређаји aloneсами,
149
473410
2833
08:08
and it's not just when we're watchingгледа
catцат videosвидеос on FacebookFacebook.
150
476243
3274
i to ne samo kada gledamo
klipove sa mačkama na Fejbuku.
08:12
We are expressivesa značenjem when we're emailingmejlom,
textingporuke, shoppingшопинг onlineонлине,
151
480217
3010
Izražajni smo kada šaljemo i-mejlove,
SMS-ove, kupujemo onlajn,
08:15
or even doing our taxesпорези.
152
483227
2300
čak i kada obrađujemo porez.
08:17
Where is this dataподаци used todayданас?
153
485527
2392
Gde se ovi podaci koriste danas?
08:19
In understandingразумевање how we engageангажовати with mediaмедији,
154
487919
2763
Kada treba da razumemo
kako da se angažujemo na mrežama,
08:22
so understandingразумевање viralityvirality
and votingгласање behaviorпонашање;
155
490682
2484
da razumemo viralnost
i ponašanja pri glasanju,
08:25
and alsoтакође empoweringоснаживање
or emotion-enablingOmogućavanje emocija- technologyтехнологија,
156
493166
2740
kao i da razumemo tehnologije
koje osnažuju i omogućuju emocije.
08:27
and I want to shareОбјави some examplesпримери
that are especiallyпосебно closeБлизу to my heartсрце.
157
495906
4621
Želim takođe da podelim
i primere koji su mi posebno dragi.
08:33
Emotion-enabledOmogućeni za emocije wearableodevni glassesнаочаре
can help individualsпојединци
158
501197
3068
Naočare koje omogućuju emocije
mogu da pomognu pojedincima
08:36
who are visuallyвизуелно impairedпоремећени
readчитати the facesлица of othersдруги,
159
504265
3228
koji imaju oštećen vid
da čitaju lica drugih ljudi
08:39
and it can help individualsпојединци
on the autismаутизам spectrumспектар interprettumačenje emotionемоција,
160
507493
4187
i mogu da pomognu pojedincima
sa autizmom da protumače emocije,
nešto sa čim stvarno imaju problema.
08:43
something that they really struggleборба with.
161
511680
2778
U obrazovanju, zamislite
kada bi vaše aplikacije za učenje
08:47
In educationобразовање, imagineзамислити
if your learningучење appsаппс
162
515918
2859
08:50
senseсмисао that you're confusedзбуњено and slowспор down,
163
518777
2810
mogle da osete kada ste zbunjeni i uspore,
08:53
or that you're boredдосадно, so it's spedŠPED up,
164
521587
1857
ili kada vam je dosadno i ubrzaju,
kao što bi dobar profesor
uradio u učionici.
08:55
just like a great teacherнаставник
would in a classroomучионица.
165
523444
2969
Šta bi bilo ako bi vaš ručni sat
mogao da prati vaše raspoloženje,
08:59
What if your wristwatchRučni sat trackedтрацкед your moodрасположење,
166
527043
2601
09:01
or your carауто sensedсенсед that you're tiredуморан,
167
529644
2693
ili kada bi vaš auto mogao
da oseti kada ste umorni,
09:04
or perhapsможда your fridgefrižider
knowsзна that you're stressedpod stresom,
168
532337
2548
ili kada bi vaš frižider
znao kada ste pod stresom,
09:06
so it auto-locksauto-brave to preventспречити you
from bingemiran, miran eatingјести. (LaughterSmeh)
169
534885
6066
pa se automatski zatvori
da vas spreči da se opsesivno prejedate?
Da, i ja bih to volela.
(Smeh)
09:12
I would like that, yeah.
170
540951
2717
09:15
What if, when I was in CambridgeCambridge,
171
543668
1927
Šta bi bilo da sam na Kembridžu
imala pristup svom emotivnom prenosu
u realnom vremenu,
09:17
I had accessприступ to my real-timeреалном времену
emotionемоција streamстреам,
172
545595
2313
09:19
and I could shareОбјави that with my familyпородица
back home in a very naturalприродно way,
173
547908
3529
da sam mogla da ga podelim to
sa porodicom kod kuće na prirodan način,
09:23
just like I would'vebi sam if we were all
in the sameисти roomсоба togetherзаједно?
174
551437
3971
kao što bih uradila
da smo svi u istoj sobi zajedno?
09:27
I think fiveпет yearsгодине down the lineлине,
175
555408
3142
Mislim da će kroz pet godina,
svi naši uređaji imati emotivni čip
09:30
all our devicesуређаји are going
to have an emotionемоција chipчип,
176
558550
2337
09:32
and we won'tнеће rememberзапамтити what it was like
when we couldn'tније могао just frownZaboravi at our deviceуређај
177
560887
4064
i nećemo se sećati kako je bilo
kada nismo mogli
samo da se namrštimo uređajima,
09:36
and our deviceуређај would say, "HmmHmm,
you didn't like that, did you?"
178
564951
4249
a da oni ne kažu:
„Hmm, to ti se nije baš svidelo, zar ne?”
09:41
Our biggestнајвеће challengeизазов is that there are
so manyмноги applicationsапликације of this technologyтехнологија,
179
569200
3761
Naš najveći izazov je
veliki broj korisnika ove tehnologije.
Moj tim i ja smo shvatili
da je ne možemo napraviti sami,
09:44
my teamтим and I realizeсхватите that we can't
buildизградити them all ourselvesсами,
180
572961
2903
09:47
so we'veми смо madeмаде this technologyтехнологија availableдоступан
so that other developersпрограмери
181
575864
3496
pa smo ovu tehnologiju učinili dostupnom
tako da i drugi programeri
mogu da počnu sa građenjem
i iskažu kreativnost.
09:51
can get buildingзграде and get creativeкреативан.
182
579360
2114
09:53
We recognizeпрепознати that
there are potentialпотенцијал risksризике
183
581474
4086
Razumemo da su mogući i rizici
09:57
and potentialпотенцијал for abuseзлоупотреба,
184
585560
2067
i da je moguća zloupotreba,
09:59
but personallyлично, havingимати spentпотрошено
manyмноги yearsгодине doing this,
185
587627
2949
ali, budući da sam mnogo godina
provela u radu na ovome,
verujem da su prednosti čovečanstva
10:02
I believe that the benefitsПредности to humanityчовечанство
186
590576
2972
sa emocionalno inteligentnom tehnologijom
10:05
from havingимати emotionallyемоционално
intelligentинтелигентан technologyтехнологија
187
593548
2275
važnije od moguće zloupotrebe.
10:07
farдалеко outweighпревише the potentialпотенцијал for misusezloupotreba.
188
595823
3576
Pozivam vas sve da budete deo te rasprave.
10:11
And I inviteпозовите you all to be
partдео of the conversationразговор.
189
599399
2531
10:13
The more people who know
about this technologyтехнологија,
190
601930
2554
Što više ljudi zna za ovu tehnologiju,
10:16
the more we can all have a voiceглас
in how it's beingбиће used.
191
604484
3177
to će više nas imati pravo
da odlučuje kako će se ona koristiti.
10:21
So as more and more
of our livesживи becomeпостати digitalдигитални,
192
609081
4574
Dakle, kako naši životi postaju
sve više i više digitalni,
10:25
we are fightingборбе a losingгубе battleбитка
tryingпокушавајући to curbivičnjak our usageупотреба of devicesуређаји
193
613655
3498
sve više gubimo bitku u pokušaju
da smanjimo korišćenje ovih uređaja
10:29
in orderнаручи to reclaimповратити our emotionsемоције.
194
617153
2229
da bismo povratili naše emocije.
Dakle, ono što ja pokušavam umesto toga
je da uvedem emocije u našu tehnologiju
10:32
So what I'm tryingпокушавајући to do insteadуместо тога
is to bringдовести emotionsемоције into our technologyтехнологија
195
620622
3914
10:36
and make our technologiesтехнологије more responsiveОдговарајуће.
196
624536
2229
da bi tehnologija bila prijemčivija.
10:38
So I want those devicesуређаји
that have separatedодвојен us
197
626765
2670
Dakle, želim da nas ovi uređaji
koji su nas rastavili ponovo spoje.
10:41
to bringдовести us back togetherзаједно.
198
629435
2462
10:43
And by humanizinghumanizujuжi technologyтехнологија,
we have this goldenзлатни opportunityприлика
199
631897
4588
Kada damo ljudska svojstva tehnologiji,
dobijamo zlatnu priliku
10:48
to reimagineredefiniљemo how we
connectцоннецт with machinesмашине,
200
636485
3297
da obnovimo način
na koji se povezujemo sa mašinama
10:51
and thereforeстога, how we, as humanљудско beingsбића,
201
639782
4481
i stoga, kako se mi, kao ljudska bića,
povezujemo jedni sa drugima.
10:56
connectцоннецт with one anotherдруги.
202
644263
1904
10:58
Thank you.
203
646167
2160
Hvala vam.
(Aplauz)
11:00
(ApplauseAplauz)
204
648327
3313
Translated by Marija Kojić
Reviewed by Tijana Mihajlović

▲Back to top

ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee