ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com
TEDWomen 2015

Rana el Kaliouby: This app knows how you feel -- from the look on your face

Rana el Kaliouby: Ne hissettiğinizi bilen uygulama — yüzünüzün görünüşünden

Filmed:
1,613,290 views

Duygularımız hayatımızın her alanını etkiliyor - nasıl öğrendiğimizi, nasıl iletişim kurduğumuzu, nasıl karar verdiğimizi. Ancak dijital hayatlarımızda yoklar; etkileşim içinde olduğumuz cihazlar ve uygulamalar hiçbir şekilde ne hissettiğimizi bilmiyorlar. Bilim kadını Rana el Kaliouby, bunu değiştirmeyi amaçlıyor. Yüzünüzdeki ifadeleri okuyup, ona karşılık gelen duygularla eşleştiren güçlü ve yeni bir teknolojiyi gösteriyor. Bu duygu makinesinin büyük etkileri olduğunu ve sadece makinelerle değil, birbirimizle de etkileşimimizi değiştirebileceğini söylüyor.
- Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware. Full bio

Double-click the English transcript below to play the video.

00:12
Our emotionsduygular influenceetki
everyher aspectGörünüş of our liveshayatları,
0
556
4017
Duygularımız hayatımızın
her alanını etkiliyor,
00:16
from our healthsağlık and how we learnöğrenmek,
to how we do business and make decisionskararlar,
1
4573
3576
sağlığımız ve nasıl öğrendiğimizden,
nasıl iş yaptığımız ve karar aldığımıza kadar,
00:20
bigbüyük onesolanlar and smallküçük.
2
8149
1773
büyük olanları ve küçükleri.
00:22
Our emotionsduygular alsoAyrıca influenceetki
how we connectbağlamak with one anotherbir diğeri.
3
10672
3490
Duygularımız aynı zamanda birbirimizle
nasıl bağlantı kuracağımızı da etkiliyor.
00:27
We'veBiz ettik evolvedgelişti to livecanlı
in a worldDünya like this,
4
15132
3976
Böyle bir dünyada yaşamak
üzere evrildik,
00:31
but insteadyerine, we're livingyaşam
more and more of our liveshayatları like this --
5
19108
4319
ama onun yerine hayatlarımızı giderek
daha fazla böyle yaşıyoruz --
00:35
this is the textMetin messagemesaj
from my daughterkız evlat last night --
6
23427
3134
bu dün gece kızımdan gelen kısa mesaj --
00:38
in a worldDünya that's devoidyoksun of emotionduygu.
7
26561
2740
duygulardan yoksun bir dünyada.
00:41
So I'm on a missionmisyon to changedeğişiklik that.
8
29301
1951
Bu durumu değiştirmek üzere görevdeyim.
00:43
I want to bringgetirmek emotionsduygular
back into our digitaldijital experiencesdeneyimler.
9
31252
4091
Dijital deneyimlerimize duyguları tekrar
getirmek istiyorum.
00:48
I startedbaşladı on this pathyol 15 yearsyıl agoönce.
10
36223
3077
Bu yola 15 sene önce koyuldum.
00:51
I was a computerbilgisayar scientistBilim insanı in EgyptMısır,
11
39300
2066
Mısır'da bilgisayar bilimciydim
00:53
and I had just gottenkazanılmış acceptedkabul edilmiş to
a PhPH.D. programprogram at CambridgeCambridge UniversityÜniversitesi.
12
41366
4505
ve Cambridge Üniversitesi'nde doktora
programına yeni kabul edilmiştim.
00:57
So I did something quiteoldukça unusualolağandışı
13
45871
2113
Genç, yeni evli, Müslüman, Mısırlı
00:59
for a younggenç newlywedYeni evli MuslimMüslüman EgyptianMısır wifekadın eş:
14
47984
4225
bir eş için oldukça alışılmadık
bir şey yaptım:
01:05
With the supportdestek of my husbandkoca,
who had to staykalmak in EgyptMısır,
15
53599
2999
Mısır'da kalmak zorunda
olan eşimin desteğiyle
01:08
I packedpaketlenmiş my bagsçantalar and I movedtaşındı to Englandİngiltere.
16
56598
3018
bavullarımı toplayıp
İngiltere'ye taşındım.
01:11
At CambridgeCambridge, thousandsbinlerce of milesmil
away from home,
17
59616
3228
Cambridge'de, evimden binlerce mil uzakta,
01:14
I realizedgerçekleştirilen I was spendingharcama
more hourssaatler with my laptopdizüstü
18
62844
3413
dizüstü bilgisayarımla herhangi
bir insanla olduğundan
01:18
than I did with any other humaninsan.
19
66257
2229
daha fazla zaman geçirdiğimi fark ettim.
01:20
YetHenüz despiterağmen this intimacysamimiyet, my laptopdizüstü
had absolutelykesinlikle no ideaFikir how I was feelingduygu.
20
68486
4853
Bu yakınlığa rağmen, bilgisayarımın ne
hissettiğime dair kesinlikle en ufak bir fikri yoktu.
01:25
It had no ideaFikir if I was happymutlu,
21
73339
3211
Mutlu mu olduğum,
kötü bir gün mü geçirdiğim
01:28
havingsahip olan a badkötü day, or stressedvurguladı, confusedŞaşkın,
22
76550
2988
veya stresli, şaşkın mı olduğumla ilgili
01:31
and so that got frustratingsinir bozucu.
23
79538
2922
bir fikri yoktu ve bu
sinir bozmaya başladı.
01:35
Even worsedaha da kötüsü, as I communicatedtebliğ
onlineinternet üzerinden with my familyaile back home,
24
83600
5231
Daha da kötüsü, ülkemdeki ailemle
internette iletişim kurduğumda,
01:41
I feltkeçe that all my emotionsduygular
disappearedkayboldu in cyberspacesiber.
25
89421
3282
bütün duygularımın sanal gerçeklik içinde
kaybolduğunu hissettim.
01:44
I was homesicksıla hasreti, I was lonelyyalnız,
and on some daysgünler I was actuallyaslında cryingağlıyor,
26
92703
5155
Evimi özlüyordum, yalnızdım
ve bazı günler gerçekten ağlıyordum,
01:49
but all I had to communicateiletişim kurmak
these emotionsduygular was this.
27
97858
4928
ancak bütün bu duyguları
iletme şeklim böyleydi.
01:54
(LaughterKahkaha)
28
102786
2020
(Gülüşmeler)
01:56
Today'sBugünün technologyteknoloji
has lots of I.Q., but no E.Q.;
29
104806
4974
Bugünün teknolojisinin çok fazla
I.Q.'su var, ancak E.Q.'su yok;
oldukça fazla kavramsal zekâ var,
ancak duygusal zekâ yok.
02:01
lots of cognitivebilişsel intelligencezeka,
but no emotionalduygusal intelligencezeka.
30
109780
3176
02:04
So that got me thinkingdüşünme,
31
112956
2197
İşte bu beni düşündürdü,
02:07
what if our technologyteknoloji
could senseduyu our emotionsduygular?
32
115153
3624
teknolojimiz duygularımızı
hissetse ne olurdu?
02:10
What if our devicescihazlar could senseduyu
how we feltkeçe and reactedtepki gösterdi accordinglyBuna göre,
33
118777
4076
Eğer cihazlarımız nasıl hissettiğimizi bilseler
ve ona göre reaksiyon verseler ne olurdu,
02:14
just the way an emotionallyduygusal yönden
intelligentakıllı friendarkadaş would?
34
122853
3013
aynen duygusal zekâya sahip
bir arkadaşın yapacağı gibi?
02:18
Those questionssorular led me and my teamtakım
35
126666
3564
Bu sorular beni ve ekibimi
02:22
to createyaratmak technologiesteknolojiler that can readokumak
and respondyanıtlamak to our emotionsduygular,
36
130230
4377
duygularımızı okuyup cevap verecek
teknolojiler yaratmaya götürdü
02:26
and our startingbaşlangıç pointpuan was the humaninsan faceyüz.
37
134607
3090
ve başlangıç noktamız insan yüzüydü.
02:30
So our humaninsan faceyüz happensolur to be
one of the mostçoğu powerfulgüçlü channelskanallar
38
138577
3173
İnsan yüzü, hepimizin sosyal ve
duygusal durumumuzu iletmek için
02:33
that we all use to communicateiletişim kurmak
socialsosyal and emotionalduygusal statesdevletler,
39
141750
4016
kullandığı en güçlü yollardan biri.
02:37
everything from enjoymenthoşlanma, surprisesürpriz,
40
145766
3010
Hoşlanmadan, sürprize,
02:40
empathyempati and curiositymerak.
41
148776
4203
empati ve meraka kadar her şeyi.
02:44
In emotionduygu scienceBilim, we call eachher
facialYüz Bakımı musclekas movementhareket an actionaksiyon unitbirim.
42
152979
4928
Duygu biliminde, her yüz kası
hareketine eylem birimi diyoruz.
02:49
So for exampleörnek, actionaksiyon unitbirim 12,
43
157907
2925
Örneğin, eylem birimi 12,
02:52
it's not a HollywoodHollywood blockbustergişe rekorları kıran,
44
160832
2038
bir Hollywood kapalı gişesi değil,
02:54
it is actuallyaslında a lipdudak cornerköşe pullÇek,
whichhangi is the mainana componentbileşen of a smilegülümseme.
45
162870
3442
aslında gülüşün ana unsuru olan dudak
kenarının yukarı doğru çekilmesi.
02:58
Try it everybodyherkes. Let's get
some smilesgülümsüyor going on.
46
166312
2988
Herkes denesin. Hadi biraz gülümseyelim.
03:01
AnotherBaşka bir exampleörnek is actionaksiyon unitbirim 4.
It's the browkaş furrowKarık.
47
169300
2654
Diğer bir örnek, eylem birimi 4.
Alnın kırışması.
03:03
It's when you drawçekmek your eyebrowskaşları togetherbirlikte
48
171954
2238
Kaşlarınızı birbirine yaklaştırıp,
03:06
and you createyaratmak all
these texturesdokular and wrinkleskırışıklıkları.
49
174192
2267
bütün o kıvrımları ve kırışıklıkları
yarattığınız zaman olur.
03:08
We don't like them, but it's
a stronggüçlü indicatorgösterge of a negativenegatif emotionduygu.
50
176459
4295
Onları sevmeyiz, ama negatif duyguların
güçlü bir göstergesidir.
Bu eylem birimlerinden
45 tane kadarına sahibiz
03:12
So we have about 45 of these actionaksiyon unitsbirimler,
51
180754
2206
ve yüzlerce duyguyu ifade
etmek için bir araya gelirler.
03:14
and they combinebirleştirmek to expressekspres
hundredsyüzlerce of emotionsduygular.
52
182960
3390
03:18
TeachingÖğretim a computerbilgisayar to readokumak
these facialYüz Bakımı emotionsduygular is hardzor,
53
186350
3901
Bir bilgisayara yüzdeki bu duyguları
okumayı öğretmek zordur,
03:22
because these actionaksiyon unitsbirimler,
they can be fasthızlı, they're subtleince,
54
190251
2972
çünkü bu eylem birimleri
hızlı olabilir, gizli olabilir
03:25
and they combinebirleştirmek in manyçok differentfarklı waysyolları.
55
193223
2554
ve birçok farklı şekilde
bir araya gelebilirler.
03:27
So take, for exampleörnek,
the smilegülümseme and the smirksırıtıp.
56
195777
3738
Örneğin, gülümseme ve
zoraki tebessümü ele alalım.
03:31
They look somewhatbiraz similarbenzer,
but they mean very differentfarklı things.
57
199515
3753
Bir şekilde benzerler,
ancak çok farklı anlamlara gelirler.
03:35
(LaughterKahkaha)
58
203268
1718
(Gülüşmeler)
03:36
So the smilegülümseme is positivepozitif,
59
204986
3004
Gülümseme pozitif,
zoraki tebessüm ise
çoğunlukla negatiftir.
03:39
a smirksırıtıp is oftensık sık negativenegatif.
60
207990
1270
03:41
SometimesBazen a smirksırıtıp
can make you becomeolmak famousünlü.
61
209260
3876
Bazen zoraki tebessüm sizi ünlü yapabilir.
03:45
But seriouslycidden mi, it's importantönemli
for a computerbilgisayar to be ableyapabilmek
62
213136
2824
Ancak sahiden bir bilgisayarın
iki ifade arasındaki
03:47
to tell the differencefark
betweenarasında the two expressionsifade.
63
215960
2855
farkı bilebilmesi önemlidir.
Öyleyse bunu nasıl yaparız?
03:50
So how do we do that?
64
218815
1812
Algoritmalarımıza farklı
03:52
We give our algorithmsalgoritmalar
65
220627
1787
03:54
tensonlarca of thousandsbinlerce of examplesörnekler
of people we know to be smilinggülümseyen,
66
222414
4110
etnik gruplardan, yaşlardan,
cinsiyetlerden gülümsediğini
03:58
from differentfarklı ethnicitiesetnikler, agesyaşlar, genderscinsiyet,
67
226524
3065
bildiğimiz on binlerce örnek veririz
04:01
and we do the sameaynı for smirkssmirks.
68
229589
2811
ve aynısını zoraki
tebessüm için de yaparız.
Sonra derin öğrenme yoluyla,
04:04
And then, usingkullanma deepderin learningöğrenme,
69
232400
1554
04:05
the algorithmalgoritma looksgörünüyor for all these
texturesdokular and wrinkleskırışıklıkları
70
233954
2856
algoritma yüzümüzdeki bütün bu
kıvrımlara, kırışıklıklara
04:08
and shapeşekil changesdeğişiklikler on our faceyüz,
71
236810
2580
ve şekil değişimlerine bakar,
04:11
and basicallytemel olarak learnsöğrenir that all smilesgülümsüyor
have commonortak characteristicskarakteristikleri,
72
239390
3202
kısaca bütün gülümsemelerin ortak
özellikleri olduğunu öğrenir,
04:14
all smirkssmirks have subtlyustaca
differentfarklı characteristicskarakteristikleri.
73
242592
3181
bütün zoraki tebessümlerin hemen göze
çarpmayan farklı özellikleri var.
04:17
And the nextSonraki time it seesgörür a newyeni faceyüz,
74
245773
2368
Bir daha yeni bir yüz gördüğünde,
04:20
it essentiallyesasen learnsöğrenir that
75
248141
2299
o yüzün esasen bir gülümsemeye
04:22
this faceyüz has the sameaynı
characteristicskarakteristikleri of a smilegülümseme,
76
250440
3033
özgü karakteristikleri olduğunu öğrenir
04:25
and it saysdiyor, "AhaAha, I recognizetanımak this.
This is a smilegülümseme expressionifade."
77
253473
4278
ve şöyle der, "Evet, bunu tanıyorum.
Bu bir gülümseme ifadesi."
04:30
So the besten iyi way to demonstrategöstermek
how this technologyteknoloji worksEserleri
78
258381
2800
Bu teknolojinin nasıl çalıştığını
göstermenin en iyi yolu
04:33
is to try a livecanlı demodemo,
79
261181
2136
canlı bir demo denemek,
04:35
so I need a volunteergönüllü,
preferablytercihen somebodybirisi with a faceyüz.
80
263317
3913
bu yüzden bir gönüllüye ihtiyacım var,
tercihen yüzü olan biri.
04:39
(LaughterKahkaha)
81
267230
2334
(Gülüşmeler)
04:41
Cloe'sCloe'nın going to be our volunteergönüllü todaybugün.
82
269564
2771
Chloe bugün gönüllümüz olacak.
04:45
So over the pastgeçmiş fivebeş yearsyıl, we'vebiz ettik movedtaşındı
from beingolmak a researchAraştırma projectproje at MITMIT
83
273325
4458
Geçen beş sene içinde, MIT'de bir
araştırma projesi olmaktan
04:49
to a companyşirket,
84
277783
1156
bir şirket olmaya geçtik,
04:50
where my teamtakım has workedişlenmiş really hardzor
to make this technologyteknoloji work,
85
278939
3192
ekibim bu teknolojinin çalışması
için gerçekten çok çalıştı,
04:54
as we like to say, in the wildvahşi.
86
282131
2409
şu an piyasada kullanılması
için diyebiliriz.
04:56
And we'vebiz ettik alsoAyrıca shrunkFunda it so that
the coreçekirdek emotionduygu enginemotor
87
284540
2670
Aynı zamanda onu küçülttük ki,
çekirdek duygu makinesi,
04:59
worksEserleri on any mobileseyyar devicecihaz
with a camerakamera, like this iPadiPad.
88
287210
3320
bu iPad gibi kameraya sahip herhangi
bir mobil araçta çalışabilsin.
05:02
So let's give this a try.
89
290530
2786
Hadi bir deneme yapalım.
05:06
As you can see, the algorithmalgoritma
has essentiallyesasen foundbulunan Cloe'sCloe'nın faceyüz,
90
294756
3924
Gördüğünüz gibi, algoritma
sonuçta Chloe'nin yüzünü buldu,
05:10
so it's this whitebeyaz boundingsınırlayıcı boxkutu,
91
298680
1692
işte bu beyaz sınırlı kutu
05:12
and it's trackingizleme the mainana
featureözellik pointsmakas on her faceyüz,
92
300372
2571
ve yüzündeki ana
hatları takip ediyor,
05:14
so her eyebrowskaşları, her eyesgözleri,
her mouthağız and her noseburun.
93
302943
2856
işte kaşları, gözleri, ağzı ve burnu.
05:17
The questionsoru is,
can it recognizetanımak her expressionifade?
94
305799
2987
Soru şu; ifadesini tanıyabilecek mi?
05:20
So we're going to testÖlçek the machinemakine.
95
308786
1671
Bu yüzden makineyi test edeceğiz.
05:22
So first of all, give me your pokerPoker faceyüz.
YepEvet, awesomemüthiş. (LaughterKahkaha)
96
310457
4186
İlk önce, bana ifadesiz yüzünü göster.
Evet, harika. (Gülüşmeler)
05:26
And then as she smilesgülümsüyor,
this is a genuinehakiki smilegülümseme, it's great.
97
314643
2813
Sonra gülümsedikçe, bu gerçek
bir gülümseme, harika.
05:29
So you can see the greenyeşil barbar
go up as she smilesgülümsüyor.
98
317456
2300
Evet, gülümsedikçe yeşil çubuğun
arttığını görebilirsiniz.
05:31
Now that was a bigbüyük smilegülümseme.
99
319756
1222
Evet, bu büyük bir gülümsemeydi.
05:32
Can you try a subtleince smilegülümseme
to see if the computerbilgisayar can recognizetanımak?
100
320978
3043
Bakalım hafif gülümsediğinde
bilgisayarın tanıyabilecek mi?
Hafif gülümsemeleri de tanıyor.
05:36
It does recognizetanımak subtleince smilesgülümsüyor as well.
101
324021
2331
Bunu gerçekleştirmek için
gerçekten çok çalıştık.
05:38
We'veBiz ettik workedişlenmiş really hardzor
to make that happenolmak.
102
326352
2125
Sonra kaşlar kalkıyor,
şaşırmanın göstergesi.
05:40
And then eyebrowkaş raisedkalkık,
indicatorgösterge of surprisesürpriz.
103
328477
2962
05:43
BrowKaş furrowKarık, whichhangi is
an indicatorgösterge of confusionkarışıklık.
104
331439
4249
Alnın kırışması,
kafa karışıklığının göstergesi.
05:47
FrownKaşlarını. Yes, perfectmükemmel.
105
335688
4007
Somurtma. Evet, mükemmel.
05:51
So these are all the differentfarklı
actionaksiyon unitsbirimler. There's manyçok more of them.
106
339695
3493
İşte bunların hepsi farklı eylem
birimleri. Daha çok var.
05:55
This is just a slimmed-downslimmed aşağı demodemo.
107
343188
2032
Bu sadece kısaltılmış bir demo.
05:57
But we call eachher readingokuma
an emotionduygu dataveri pointpuan,
108
345220
3148
Her okumaya, bir duygu veri
noktası adını veriyoruz.
06:00
and then they can fireateş togetherbirlikte
to portraytasvir differentfarklı emotionsduygular.
109
348368
2969
Sonra farklı duyguları resmetmek
için birlikte harekete geçerler.
06:03
So on the right sideyan of the demodemo --
look like you're happymutlu.
110
351337
4653
Demonun sağ tarafında --
mutlu görün.
06:07
So that's joysevinç. JoySevinç firesyangınlar up.
111
355990
1454
İşte bu neşe.
Neşe harekete geçiyor.
06:09
And then give me a disgustiğrenme/tiksinme faceyüz.
112
357444
1927
Şimdi bana iğrenme ifadesi ver.
06:11
Try to rememberhatırlamak what it was like
when ZaynZayn left One DirectionYön.
113
359371
4272
Zayn One Direction'ı terk ettiğinde
nasıl olduğunu hatırlamaya çalış.
06:15
(LaughterKahkaha)
114
363643
1510
(Gülüşmeler)
06:17
Yeah, wrinklekırışıklık your noseburun. AwesomeKorku veren.
115
365153
4342
Evet, burnunu kırıştır. Harika.
06:21
And the valenceValence is actuallyaslında quiteoldukça
negativenegatif, so you mustşart have been a bigbüyük fanyelpaze.
116
369495
3731
Değerlik oldukça negatif, herhâlde
çok büyük bir hayranısın.
06:25
So valenceValence is how positivepozitif
or negativenegatif an experiencedeneyim is,
117
373226
2700
Değerlik, deneyimin ne kadar pozitif
veya negatif olduğuyla ilgili;
06:27
and engagementnişan is how
expressiveifade she is as well.
118
375926
2786
bağlantı ise, kişinin bunu ne
kadar ifade edebildiğiyle.
06:30
So imaginehayal etmek if CloeCloe had accesserişim
to this real-timegerçek zaman emotionduygu streamakım,
119
378712
3414
O zaman Chloe'nin bu gerçek zamanlı
duygu akışına erişimi olduğunu
06:34
and she could sharepay it
with anybodykimse she wanted to.
120
382126
2809
ve istediği kişilerle
paylaşabileceğini hayal edin.
06:36
Thank you.
121
384935
2923
Teşekkürler.
06:39
(ApplauseAlkış)
122
387858
4621
(Alkış)
06:45
So, so faruzak, we have amassedtopladı
12 billionmilyar of these emotionduygu dataveri pointsmakas.
123
393749
5270
Şimdiye kadar bu duygu veri noktalarından
12 milyar adet topladık.
06:51
It's the largesten büyük emotionduygu
databaseveritabanı in the worldDünya.
124
399019
2611
Dünyadaki en büyük duygu veri tabanı.
06:53
We'veBiz ettik collectedtoplanmış it
from 2.9 millionmilyon faceyüz videosvideolar,
125
401630
2963
Bunu 2,9 milyon yüz videosundan topladık,
06:56
people who have agreedkabul
to sharepay theironların emotionsduygular with us,
126
404593
2600
bizimle duygularını paylaşmaya
gönüllü insanlardan
06:59
and from 75 countriesülkeler around the worldDünya.
127
407193
3205
ve dünyadaki 75 ülkeden.
07:02
It's growingbüyüyen everyher day.
128
410398
1715
Her gün büyüyor.
07:04
It blowsdarbeler my mindus away
129
412603
2067
Duygular kadar kişisel bir şeyi
07:06
that we can now quantifyölçmek something
as personalkişisel as our emotionsduygular,
130
414670
3195
artık ölçebiliyor olmamız
beni çok şaşırtıyor
07:09
and we can do it at this scaleölçek.
131
417865
2235
ve bunu bu ölçekte yapabiliyoruz.
07:12
So what have we learnedbilgili to datetarih?
132
420100
2177
Peki şimdiye kadar ne öğrendik?
07:15
GenderCinsiyet.
133
423057
2331
Cinsiyet.
07:17
Our dataveri confirmsonaylar something
that you mightbelki suspectşüpheli.
134
425388
3646
Şüpheleniyor olduğunuz
bir şeyi verimiz doğruluyor.
07:21
WomenKadınlar are more expressiveifade than menerkekler.
135
429034
1857
Kadınlar erkeklerden daha
fazla duygularını ifade ediyor.
07:22
Not only do they smilegülümseme more,
theironların smilesgülümsüyor last longeruzun,
136
430891
2683
Daha çok gülümsemeleri yanında,
gülümsemeleri daha uzun sürüyor
07:25
and we can now really quantifyölçmek
what it is that menerkekler and womenkadınlar
137
433574
2904
ve erkeklerle kadınların
gerçekten neye farklı
07:28
respondyanıtlamak to differentlyfarklı olarak.
138
436478
2136
yanıt verdiğini artık ölçebiliyoruz.
07:30
Let's do culturekültür: So in the UnitedAmerika StatesBirleşik,
139
438614
2290
Hadi kültüre bakalım:
Amerika Birleşik Devletleri'nde,
07:32
womenkadınlar are 40 percentyüzde
more expressiveifade than menerkekler,
140
440904
3204
kadınlar erkeklerden yüzde 40
daha fazla ifadelerini gösteriyor,
07:36
but curiouslymerakla, we don't see any differencefark
in the U.K. betweenarasında menerkekler and womenkadınlar.
141
444108
3645
ancak ilginç biçimde Birleşik Krallık'ta erkekler
ve kadınlar arasında fark görmüyoruz.
07:39
(LaughterKahkaha)
142
447753
2506
(Gülüşmeler)
07:43
AgeYaş: People who are 50 yearsyıl and olderdaha eski
143
451296
4027
Yaş: 50 ve üzerindeki yaştaki insanlar
07:47
are 25 percentyüzde more emotiveduygusal
than youngerdaha genç people.
144
455323
3436
gençlerden yüzde 25 daha duygusal.
07:51
WomenKadınlar in theironların 20s smilegülümseme a lot more
than menerkekler the sameaynı ageyaş,
145
459899
3852
Yirmilerindeki kadınlar aynı yaştaki
erkeklerden daha fazla gülümsüyor,
07:55
perhapsbelki a necessityzorunluluk for datingescort.
146
463751
3839
belki de flört için bir gereklilik.
07:59
But perhapsbelki what surprisedşaşırmış us
the mostçoğu about this dataveri
147
467590
2617
Ancak belki de bu veriyle ilgili
bizi en fazla şaşırtan şey,
08:02
is that we happenolmak
to be expressiveifade all the time,
148
470207
3203
her zaman duygularımızı
ifade ediyor oluşumuz,
08:05
even when we are sittingoturma
in frontön of our devicescihazlar aloneyalnız,
149
473410
2833
cihazlarımızın başında tek
başımıza oturuyor olsak bile
08:08
and it's not just when we're watchingseyretme
catkedi videosvideolar on FacebookFacebook.
150
476243
3274
ve sadece Facebook'ta
kedi videoları izlerken değil.
08:12
We are expressiveifade when we're emailinge-posta gönderme,
textingmanifatura, shoppingalışveriş yapmak onlineinternet üzerinden,
151
480217
3010
E-posta atarken, mesajlaşırken, internette
alışveriş yaparken veya vergilerimizi
08:15
or even doing our taxesvergileri.
152
483227
2300
hallederken bile duygularımızı
ifade ediyoruz.
08:17
Where is this dataveri used todaybugün?
153
485527
2392
Bu veri bugün nerede kullanılıyor?
08:19
In understandinganlayış how we engagetutmak with mediamedya,
154
487919
2763
Medya ile nasıl bağ
kurduğumuzu anlamada,
08:22
so understandinganlayış viralityVirality
and votingoylama behaviordavranış;
155
490682
2484
yani yayılma ve oy verme
davranışını anlamada
08:25
and alsoAyrıca empoweringgüçlendirici
or emotion-enablingduygu etkinleştirme technologyteknoloji,
156
493166
2740
ve bunun yanında teknolojik güçlendirme
veya duygu-etkinleştirmede.
08:27
and I want to sharepay some examplesörnekler
that are especiallyözellikle closekapat to my heartkalp.
157
495906
4621
Özellikle çok sevdiğim bazı örnekleri
sizinle paylaşmak istiyorum.
08:33
Emotion-enabledDuygu etkin wearabletakılabilir glassesgözlük
can help individualsbireyler
158
501197
3068
Duygu-etkinleştirilmiş, giyilebilir
gözlükler, görme engelli olan
08:36
who are visuallygörsel impairedayrılmış
readokumak the facesyüzleri of othersdiğerleri,
159
504265
3228
bireylere diğerlerinin yüzlerini
okumada yardımcı olabilir
08:39
and it can help individualsbireyler
on the autismotizm spectrumspektrum interpretyorumlamak emotionduygu,
160
507493
4187
ve otizm spektrumu olan bireylere
duyguları anlamada yardımcı olabilir,
bu onların gerçekten çok
zorluk çektiği bir şey.
08:43
something that they really strugglemücadele with.
161
511680
2778
Eğitimde, öğrenme uygulamalarınızın
kafanızın karıştığını
08:47
In educationEğitim, imaginehayal etmek
if your learningöğrenme appsuygulamaların
162
515918
2859
08:50
senseduyu that you're confusedŞaşkın and slowyavaş down,
163
518777
2810
hissettiğini ve yavaşladığını veya
sıkıldığınızı hissettiğini,
08:53
or that you're boredcanı sıkkın, so it's spedhızlandırdı up,
164
521587
1857
bu yüzden hızlandığını hayal edin,
08:55
just like a great teacheröğretmen
would in a classroomsınıf.
165
523444
2969
aynı iyi bir öğretmenin
sınıfta yapacağı gibi.
08:59
What if your wristwatchkol saati trackedizlenen your moodruh hali,
166
527043
2601
Eğer kolunuzdaki saatiniz ruh hâlinizi
takip etseydi ne olurdu
09:01
or your cararaba sensedalgılanan that you're tiredyorgun,
167
529644
2693
veya arabanız yorgun
olduğunuzu hissetseydi
09:04
or perhapsbelki your fridgebuzdolabı
knowsbilir that you're stressedvurguladı,
168
532337
2548
veya belki de buzdolabınız stresli
olduğunuzu bilseydi,
09:06
so it auto-locksotomatik kilit to preventönlemek you
from bingealem eatingyemek yiyor. (LaughterKahkaha)
169
534885
6066
o zaman sizi aşırı yemeden korumak için
otomatik olarak kilitlenirdi. (Gülüşmeler)
Bunu isterdim, evet.
09:12
I would like that, yeah.
170
540951
2717
09:15
What if, when I was in CambridgeCambridge,
171
543668
1927
Eğer Cambridge'deyken
09:17
I had accesserişim to my real-timegerçek zaman
emotionduygu streamakım,
172
545595
2313
gerçek zamanlı duygu
akışına erişimim olsaydı
09:19
and I could sharepay that with my familyaile
back home in a very naturaldoğal way,
173
547908
3529
ve bunu ülkemdeki ailemle çok doğal
bir şekilde paylaşabilseydim,
09:23
just like I would'veolurdu if we were all
in the sameaynı roomoda togetherbirlikte?
174
551437
3971
aynı hepimiz aynı odada
olsaydık yapacağım gibi.
09:27
I think fivebeş yearsyıl down the linehat,
175
555408
3142
Bence beş yıl içinde,
09:30
all our devicescihazlar are going
to have an emotionduygu chipyonga,
176
558550
2337
bütün cihazlarımızın duygu çipi olacak,
09:32
and we won'talışkanlık rememberhatırlamak what it was like
when we couldn'tcould just frownkaşlarını at our devicecihaz
177
560887
4064
yalnızca cihazımıza somurttuğumuzda,
"Hımm, bunu sevmedin, değil mi?"
09:36
and our devicecihaz would say, "HmmHmm,
you didn't like that, did you?"
178
564951
4249
diyecek bir cihazımızın olmamasının
nasıl bir şey olduğunu hatırlamayacağız.
09:41
Our biggesten büyük challengemeydan okuma is that there are
so manyçok applicationsuygulamaları of this technologyteknoloji,
179
569200
3761
En büyük sorunumuz, bu teknolojinin
pek çok uygulaması olması,
09:44
my teamtakım and I realizegerçekleştirmek that we can't
buildinşa etmek them all ourselveskendimizi,
180
572961
2903
ekibim ve ben hepsini tek başımıza
yapamayacağımızın farkındayız,
09:47
so we'vebiz ettik madeyapılmış this technologyteknoloji availablemevcut
so that other developersgeliştiriciler
181
575864
3496
o yüzden bu teknolojiyi kullanılabilir hâle
getirdik, böylece diğer geliştiriciler
09:51
can get buildingbina and get creativeyaratıcı.
182
579360
2114
de yapmaya başlayabilir
ve yaratıcı olabilirler.
09:53
We recognizetanımak that
there are potentialpotansiyel risksriskler
183
581474
4086
Olası risklerin ve istismar olasılığının
09:57
and potentialpotansiyel for abusetaciz,
184
585560
2067
olduğunun farkındayız,
09:59
but personallyŞahsen, havingsahip olan spentharcanmış
manyçok yearsyıl doing this,
185
587627
2949
ancak şahsen bunu yıllardır
yapan biri olarak ben,
10:02
I believe that the benefitsfaydaları to humanityinsanlık
186
590576
2972
duygusal olarak akıllı
teknolojilere sahip olmanın
10:05
from havingsahip olan emotionallyduygusal yönden
intelligentakıllı technologyteknoloji
187
593548
2275
insanlığa getirdiği yararların,
yanlış kullanılma
10:07
faruzak outweighdaha ağır gelmek the potentialpotansiyel for misuseyanlış kullanım.
188
595823
3576
olasılığından çok daha
ağır bastığına inanıyorum.
10:11
And I inviteDavet etmek you all to be
partBölüm of the conversationkonuşma.
189
599399
2531
Hepinizi bu etkileşimin bir parçası
olmaya davet ediyorum.
10:13
The more people who know
about this technologyteknoloji,
190
601930
2554
Bu teknolojiyi bilen daha
fazla insan oldukça,
10:16
the more we can all have a voiceses
in how it's beingolmak used.
191
604484
3177
nasıl kullanıldığıyla ilgili daha
fazla söz hakkımız olur.
10:21
So as more and more
of our liveshayatları becomeolmak digitaldijital,
192
609081
4574
Hayatlarımız daha fazla
dijital hâle geldikçe,
10:25
we are fightingkavga a losingkaybetme battlesavaş
tryingçalışıyor to curbKaldırıma our usagekullanım of devicescihazlar
193
613655
3498
duygularımızı geri kazanmak için,
cihazlarımızı kullanmayı frenlemeye
10:29
in ordersipariş to reclaimıslah our emotionsduygular.
194
617153
2229
çalışarak beyhude savaş veriyoruz.
10:32
So what I'm tryingçalışıyor to do insteadyerine
is to bringgetirmek emotionsduygular into our technologyteknoloji
195
620622
3914
Bu yüzden bunun yerine yapmaya çalıştığım
şey, duyguları teknolojimize getirmek
10:36
and make our technologiesteknolojiler more responsiveduyarlı.
196
624536
2229
ve teknolojilerimizi daha cevap
verir hâle getirmek.
10:38
So I want those devicescihazlar
that have separatedayrıldı us
197
626765
2670
Bu yüzden bizi ayıran bu cihazlarımızın,
10:41
to bringgetirmek us back togetherbirlikte.
198
629435
2462
bizi tekrar bir araya
getirmesini istiyorum.
10:43
And by humanizinghumanizing technologyteknoloji,
we have this goldenaltın opportunityfırsat
199
631897
4588
Teknolojiyi insanlaştırarak, makinelerle
nasıl bağlantı kuracağımızı
10:48
to reimaginereimagine how we
connectbağlamak with machinesmakineler,
200
636485
3297
ve böylece insanlık olarak birbirimizle
nasıl bağlantı kuracağımızı
10:51
and thereforebu nedenle, how we, as humaninsan beingsvarlıklar,
201
639782
4481
tekrar düşünmek için
10:56
connectbağlamak with one anotherbir diğeri.
202
644263
1904
bulunmaz bir fırsatımız var.
10:58
Thank you.
203
646167
2160
Teşekkürler.
11:00
(ApplauseAlkış)
204
648327
3313
(Alkış)
Translated by Eren Gokce
Reviewed by Ramazan Şen

▲Back to top

ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee