ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com
TEDWomen 2015

Rana el Kaliouby: This app knows how you feel -- from the look on your face

Rana el Kaliouby: ဒီအက်ပ်က ကျွန်ုပ်တို့ မျက်နှာကို ကြည့်ရုံနဲ့ ကျွန်ုပ်တို့ရဲ့ ခံစားမှုကို သိနိုင်တယ်

Filmed:
1,613,290 views

ကျွန်ုပ်တို့ရဲ့ ခံစားမှုတွေဟာ ကျွန်ုပ်တို့ဘဝရဲ့ မျက်နှာအစာ အသီးသီးကို၊ ကျွန်ုပ်တို့ရဲ့ သင်ယူမှုကို၊ ကျွန်ုပ်တို့ ဆက်သွယ်ပြောဆိုပုံကို၊ ကျွန်ုပ်တို့ ဆုံးဖြတ်ကြပုံကို၊ လွှမ်းမိုးတယ်။ ဒါပေမဲ့ ကျွန်ုပ်တို့ရဲ့ ဒီဂျီတယ် ဘဝထဲမှာကျတော့ ခံစးမှုဆိုတာ မရှိဖြစ်နေပါတယ်၊ ကျွန်ုပ်တို့ ထိတွေ့သံးစွဲကြတဲ့ ကိရိယာတွေဟာ ကျွန်ုပ်တို့ ဘယ်လို ခံစးနေကြတာကို မသိကြပါ။ သိပ္ပံပညာရှင် Rana el Kaliouby ဟာ အဲဒါကို ပြေင်းလဲပစ်လိုပါတယ်။ သူဟာ ကျွန်ုပ်တို့ရဲ့ မျက်နှာပေါ်က ခံစားမှုတွေကို ဖတ်နိုင်ကာ သက်ဆိုင်ရာ ခံစားမှုတွေနဲ့ တိုက်ကြည့်နိုင်တဲ့ အားကောင်းလှတဲ့ နည်းပညာအသစ်ကို စမ်းသပ်ပြထားပါတယ်။ အဲဒီ “စိတ်ခံစားမှု အင်ဂျင်”ကို အသုံးပြုနိုင်တဲ့ လက်တွေ့နည်းတွေ အများအပြား ရှိတာကို သူမက ထောက်ပြထးကာ အဲဒါဟာ ကျွန်ုပ်တို့ စက်ပစ္စည်းတွေနဲ့ တုံ့ပြန်ဆက်ဆံကြပုံကိုသာမက လူတွေ အပြန်အလှန် ဆက်ဆံကြပုံကိုပါ ပြောင်းလဲပစ်နိုင်တာကို တင်ပြထားပါတယ်။
- Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware. Full bio

Double-click the English transcript below to play the video.

00:12
Our emotions influence
every aspect of our lives,
0
556
4017
ကျွန်မတို့ရဲ့ ခံစားမှုများဟာ ကျွန်မတို့ ဘဝ
မျက်နှာစာတိုင်းကို ဩဇာလွှမ်းမိုးပါတယ်၊
00:16
from our health and how we learn,
to how we do business and make decisions,
1
4573
3576
ကျွန်မတို့ရဲ့ ကျန်းမာရေး နှင့် ပညာသင်မှု
မှအစ လုပ်ငန်းလုပ်ကိုင်ကြပုံ နဲ့
ကြီးကြီးငယ်ငယ် ဆုံးဖြတ်ချက်များ
ချမှတ်ကြပုံ အဆုံးပါပဲ။
00:20
big ones and small.
2
8149
1773
00:22
Our emotions also influence
how we connect with one another.
3
10672
3490
ကျွန်မတို့ တဦးနဲ့တဦး ဆက်သွယ်ကြပုံကိုပါ
ခံစားမှုများက ဩဇာလွှမ်းမိုးပါသေးတယ်။
00:27
We've evolved to live
in a world like this,
4
15132
3976
ကျွန်မတို့ဟာ ဒီလို ကမ္ဘာကြီးမှာ
နေထိုင်နိုင်ဖို့ ဆင့်ကဲပြောင်းလဲခဲ့ပေမဲ့၊
00:31
but instead, we're living
more and more of our lives like this --
5
19108
4319
တကယ်နေထိုင်နေကြတာက
ဒီလို ပုံစံမျိုး ဖြစ်နေပါတယ် --
00:35
this is the text message
from my daughter last night --
6
23427
3134
ဒါက ကျွန်မသမီးဆီက ဝင်လာတဲ့
မနေ့ညက စာတိုပါ --
00:38
in a world that's devoid of emotion.
7
26561
2740
ခံစားမှုတွေ ကင်းမဲ့နေတဲ့
ကမ္ဘာကြီး ဖြစ်နေပါတယ်။
00:41
So I'm on a mission to change that.
8
29301
1951
အဲဒါကို ပြောင်းလဲပစ်ရေး တာဝန်ကို
ကျွန်မ ယူလိုက်ပါတယ်။
00:43
I want to bring emotions
back into our digital experiences.
9
31252
4091
ကျွန်မဟာ ခံစားမှုတွေကို ဒီဂျီတယ်
အတွေ့အကြုံများထဲ ပြန်ထည့်ပေးချင်ပါတယ်။
00:48
I started on this path 15 years ago.
10
36223
3077
ကျွန်မဟာ ဒီလမ်းကြောင်း အတိုင်း စတင်ခဲ့တာ
လွန်ခဲ့တဲ့ ၁၅ နှစ်ကပါ။
00:51
I was a computer scientist in Egypt,
11
39300
2066
ကျွန်မ အီဂျစ်နိုင်ငံက ကွန်ပျူတာ
သိပ္ပံပညာရှင်ပါ၊
00:53
and I had just gotten accepted to
a Ph.D. program at Cambridge University.
12
41366
4505
Cambridge University မှာ Ph.D. သင်တန်း
တက်ဖို့ ကျွန်မကို လက်ခံခဲ့စဉ်ကပါ။
00:57
So I did something quite unusual
13
45871
2113
အိမ်ထောင်ကျခါစ မူစလင် အီဂျစ် ဇနီးအတွက်
00:59
for a young newlywed Muslim Egyptian wife:
14
47984
4225
သမရိုးကျ မဟုတ်တဲ့
ခြေလှမ်းကို လှမ်းခဲ့သူရပါ၊
01:05
With the support of my husband,
who had to stay in Egypt,
15
53599
2999
အီဂျင် နိင်ငံမှာ ကျန်ရစ်ခဲ့ရမှာ ဖြစ်တဲ့
ကျွန်မ ယောက်ျားရဲ့ ကူညီမှုဖြင့်
01:08
I packed my bags and I moved to England.
16
56598
3018
ကျွန်မဟာ ပစ္စည်းတွေ ထုပ်ပိုးလျက်
အင်္ဂလန်ကို ထွက်လာခဲ့တယ်။
01:11
At Cambridge, thousands of miles
away from home,
17
59616
3228
အိမ်နဲ့ မိုင်ထောင်ချီ ဝေးတဲ့
Cambridge မှာကျတော့၊
01:14
I realized I was spending
more hours with my laptop
18
62844
3413
ကျွန်မဟာ ကျွန်မ လက်တော့နဲ့ ဖြုန်းတဲ့
အချိန်ဟာ ဘယ်လူသားနဲ့မဆို
01:18
than I did with any other human.
19
66257
2229
ဖြုန်းတဲ့ အချိန်ထက်
ပိုများနေတာကို တွေ့ရှိလာတယ်။
01:20
Yet despite this intimacy, my laptop
had absolutely no idea how I was feeling.
20
68486
4853
အဲဒီလို နီးကပ်မှု ရှိနေခဲ့ပေမဲ့၊ လက်တော့က
ကျွန်မ ဘယ်လို ခံစားနေရမှန်း မသိခဲ့ပါ။
01:25
It had no idea if I was happy,
21
73339
3211
ကျွန်မ စိတ်ပျော်ရဲ့လား၊ ကံဆိုးတဲ့နေ့လား၊
01:28
having a bad day, or stressed, confused,
22
76550
2988
ဖိစီးခံနေရသလား ဒါမှမဟုတ် စိတ်ရှုပ်နေလို့
01:31
and so that got frustrating.
23
79538
2922
စိတ်ဓာတ်များ ကျနေလား၊ ဘာဆိုဘာမှ မသိခဲ့ပါ။
01:35
Even worse, as I communicated
online with my family back home,
24
83600
5231
ပိုဆိုးတာက၊ ကျွန်မဟာ အိမ်မှာ ကျန်ရစ်ခဲ့တဲ့
မိသားစုနဲ့ အွန်လိုင် ဆက်သွယ်ပြောနေရတော့၊
01:41
I felt that all my emotions
disappeared in cyberspace.
25
89421
3282
ကျွန်မရဲ့ ခံစားချက်တွေ အားလုံး ဆိုက်ဘာ
ဟင်းလင်းပြင်ထဲ လွင့်ပျောက်သွားပါတယ်။
01:44
I was homesick, I was lonely,
and on some days I was actually crying,
26
92703
5155
ကျွန်မဟာ လွမ်းနေခဲ့တယ်၊ တယောက်တည်းဖြစ်လို့
တနေ့မှာ ငိုတောင်ငိုမ်ခဲ့တယ်၊
01:49
but all I had to communicate
these emotions was this.
27
97858
4928
ဒါပေမဲ့ အဲဒီလို ခံစားမှုတွေကို ဆက်သွယ်
ပြောပြဖို့ ဆိုလို့ ဒါပဲ ရှိခဲ့တယ်။
01:54
(Laughter)
28
102786
2020
(ရယ်မောသံများ)
01:56
Today's technology
has lots of I.Q., but no E.Q.;
29
104806
4974
ဒီနေ့ နည်းပညာတွေရဲ့ I.Q.ဟာ မြင့်မားလှပေမဲ့၊
E.Q.ကတော့ လုံးဝ မရှိပါ၊
02:01
lots of cognitive intelligence,
but no emotional intelligence.
30
109780
3176
သိရှိနိုင်စွမ်းတွေ အများကြီး ရှိပေမဲ့၊
ခံစားမှု အသိပညာ မဲ့နေပါတယ်။
02:04
So that got me thinking,
31
112956
2197
အဲဒါနဲ့ ကျွန်မ စိတ်ကူးရလာတာက၊
02:07
what if our technology
could sense our emotions?
32
115153
3624
ကျွန်မတို့ရဲ့ နည်းပညာတွေဟာ ကျွန်မတို့ရဲ့
ခံစားမှုတွေကို ခံစားလာနိုင်မယ်ဆိုရင်ကော?
02:10
What if our devices could sense
how we felt and reacted accordingly,
33
118777
4076
အလိုက်သိတဲ့ မိတ်ဆွေလိုပဲ ကျွန်မတို့ရဲ့
ကိရိယာတွေကပါ ကျွန်မတို့ရဲ့ ခံစားမှုတွေကို
02:14
just the way an emotionally
intelligent friend would?
34
122853
3013
သိရှိနိုင်ကာ ထိုက်သင့်စွာ တုံ့ပြန်နိုင်မယ်
ဆိုရင်ကော?
02:18
Those questions led me and my team
35
126666
3564
အဲဒီလို မေးခွန်းတွေကြောင့်
ကျွန်မ နဲ့ ကျွန်မ အဖွဲ့ဟာ
ကျွန်မတို့ရဲ့ ခံစားမှုတွေကို ဖတ်နိုင်ကာ
တုံ့ပြန်နိုင်မဲ့ နည်းပညာတွေ တီထွင်လိုခဲ့တယ်၊
02:22
to create technologies that can read
and respond to our emotions,
36
130230
4377
02:26
and our starting point was the human face.
37
134607
3090
အဲဒါကို ကျွန်မတို့ဟာ
လူသားရဲ့ မျက်နှာဖြင့် စတင်ခဲ့ကြတယ်။
02:30
So our human face happens to be
one of the most powerful channels
38
138577
3173
လူသားရဲ့ မျက်နှာဟာဖြင့် ကျွန်မတို့ရဲ့
02:33
that we all use to communicate
social and emotional states,
39
141750
4016
ပျော်ရွှင်မှု၊ အံ့အားသင့်မှု၊
စာနာမှု နှင့် စပ်စုမှုတို့လို
02:37
everything from enjoyment, surprise,
40
145766
3010
လူမှုရေး နဲ့ ခံစားမှု အခြေအနေများကို
ဆက်သွယ်ဖေါ်ပြပေးဖို့အတွက်
02:40
empathy and curiosity.
41
148776
4203
အားအကောင်းဆုံး နည်းလမ်းပါပဲ။
02:44
In emotion science, we call each
facial muscle movement an action unit.
42
152979
4928
ခံစားမှု သိပ္ပံပညာထဲမှာ၊ မျက်နှာပြင်
ကြွက်သားလှုပ်ရှားမှု တခုကို ယူနစ်ခေါ်တယ်။
02:49
So for example, action unit 12,
43
157907
2925
ဥပမာ၊ လုပ်ဆောင်ချက် ယူနစ် ၁၂ ဆိုတာက
02:52
it's not a Hollywood blockbuster,
44
160832
2038
Hollywood နာမည်ကြီး ရုပ်ရှင် မဟုတ်ဘူးနော်၊
02:54
it is actually a lip corner pull,
which is the main component of a smile.
45
162870
3442
နှုတ်ခမ်း ထောင့်ဆွဲဆန့်မှု ဖြစ်ပြီး
အပြုံးရဲ့ အဓိက အစိတ်အပိုင်းပါ။
02:58
Try it everybody. Let's get
some smiles going on.
46
166312
2988
လူတိုင်း အဲဒါကို စမ်းကြည့်ပါ။ ပြုံးရွှင်လျက်
ဆက်ပြီး လုပ်ကိုင်ကြတာပေါ့။
03:01
Another example is action unit 4.
It's the brow furrow.
47
169300
2654
နောက် ဥပမာ တခုအဖြစ် ယူနစ် ၄ ကို ယူနိုင်တယ်။
နဖူး အရေးကြောင်းတွေပါ။
03:03
It's when you draw your eyebrows together
48
171954
2238
ရှင်တို့ရဲ့ မျက်ခုံးမွှေးနှစ်ခုစလုံးကို
အတူတူ ဆွဲယူလိုက်တဲ့ပုံပါ၊
03:06
and you create all
these textures and wrinkles.
49
174192
2267
အဲဒီလိုနည်းဖြင့် အဲဒီလို သဏ္ဍာန်တွေ
အရေးကြောင်းတွေ ပေါ်လာကြရတယ်။
03:08
We don't like them, but it's
a strong indicator of a negative emotion.
50
176459
4295
ကျွန်မတို့ အဲဒါတွေကို မကြိုက်ပေမဲ့၊ အဲဒါဟာ
အနှုတ်လက္ခဏာ ခံစားမှု ညွှန်ပြချက်ပါ။
03:12
So we have about 45 of these action units,
51
180754
2206
ကျွန်မတို့ဆီမှာ အဲဒီလို လုပ်ဆောင်ချက်
ယူနစ်တွေ ၄၅ ခုခန့် ရှိကြရာ၊
03:14
and they combine to express
hundreds of emotions.
52
182960
3390
အဲဒါတွေကို ပေါင်းစပ်လျက် ရာချီရှိမယ့်
ခံစးချက်တွေကို ဖေါ်ပြပေးနိုင်ပါတ်။
03:18
Teaching a computer to read
these facial emotions is hard,
53
186350
3901
အဲဒီလို မျက်နှာပေါ်က ခံစားပုံတွေကို
ဖတ်ရန် ကွန်ပျူတာကို သင်ရတာ ခဲယဉ်းပါတယ်၊
03:22
because these action units,
they can be fast, they're subtle,
54
190251
2972
အဲဒီ လုပ်ဆောင်ချက် ယူနစ်တွေဟာ
မြန်လွန်းနိုင်ပြီး သိသာရန် ခဲယဉ်းနိုင်ကာ
03:25
and they combine in many different ways.
55
193223
2554
ပေါင်းစပ်ပုံဟာ အမျိုးမျိုး ဖြစ်နိုင်လို့ပါ။
03:27
So take, for example,
the smile and the smirk.
56
195777
3738
ဥပမာအဖြစ် ပြုံးခြင်း နဲ့
လှောင်ပြုံးပြုံးခြင်းကို ယူကြည့်ကြပါစို့။
03:31
They look somewhat similar,
but they mean very different things.
57
199515
3753
ကြည့်လိုက်ရင် ခပ်ဆင်ဆင် ရှိပေမဲ့
ဆိုလိုချက်က သိပ်ကို ခြားနားလှပါတယ်။
03:35
(Laughter)
58
203268
1718
(ရယ်မောသံများ)
03:36
So the smile is positive,
59
204986
3004
ဒီတော့ ပြုံးခြင်းဟာ အပြုသဘောဆောင်တယ်၊
03:39
a smirk is often negative.
60
207990
1270
လှောင်ပြုံးပြုံးခြင်းကျတော့
အနှုတ်လက္ခဏာ သဘောပါ။
03:41
Sometimes a smirk
can make you become famous.
61
209260
3876
တခါတရံမှာ လှောင်ပြုံးမှုကို
တယောက်ယောက်ကို ကျော်ကြားလာစေနိုင်တယ်။
03:45
But seriously, it's important
for a computer to be able
62
213136
2824
ဒါပေမဲ့ တကယ်တမ်းတွင် ကွန်ပျူတာ အနေနဲ့
အဲဒီ အမူအယာ နှစ်ခုအကြားက
03:47
to tell the difference
between the two expressions.
63
215960
2855
ခြားနားချက်ကို ပြောတတ်ဖို့ လိုပါတယ်။
03:50
So how do we do that?
64
218815
1812
ဒီတော့ အဲဒါကို ကျွန်မတို့ ဘယ်လို လုပ်ကြလဲ?
03:52
We give our algorithms
65
220627
1787
ကျွန်မတို့ဟာ ပြုံးနေကြသူတို့ရဲ့ သာဓက
ထောင်သောင်းချီကို၊
03:54
tens of thousands of examples
of people we know to be smiling,
66
222414
4110
လူမျိုးအမျိုးမျိုး၊ အသက် အမျိုးမျိုး
ကျားမများ စသဖြင့် အယ်ဂိုရစ်သမ် ထည့်ပေးတယ်၊
03:58
from different ethnicities, ages, genders,
67
226524
3065
အလားတူပဲ လှောင်ပြုံးခြင်းအတွက်ကိုလဲ
04:01
and we do the same for smirks.
68
229589
2811
ကွန်ပျူတာထဲကို ထည့်ပေးကြပါတယ်။
04:04
And then, using deep learning,
69
232400
1554
အဲဒီနောက်မှာ၊ နက်ရှိုင်းတဲ့ လေ့လာမှုဖြင့်၊
04:05
the algorithm looks for all these
textures and wrinkles
70
233954
2856
အယ်ဂိုရီသမ်က ရှိနေကြတဲ့ အသားအရေ
အနေအထားတွေ အရေပြား အတွန့်ကြောင်းတွေကို
04:08
and shape changes on our face,
71
236810
2580
ကျွန်မတို့ မျက်နှာ အသွင် ပြောင်းလဲပုံကို
စစ်ကြည့်လျက်၊
04:11
and basically learns that all smiles
have common characteristics,
72
239390
3202
ပြုံးခြင်း အားလုံးတို့ထဲက
တူညီတဲ့ အချင်းလက္ခဏာတွေကို
04:14
all smirks have subtly
different characteristics.
73
242592
3181
လှောင်ပြုံးခြင်းထဲမှာ မသိမသာ ခြားနားတဲ့
လက္ခဏာတွေ ရှိတာကို ရှာတွေ့ပါတယ်။
04:17
And the next time it sees a new face,
74
245773
2368
အဲဒီနောက်မှာ ၎င်းက မျက်နှာအသစ်ကို မြင်ရရင်၊
04:20
it essentially learns that
75
248141
2299
အဲဒီမျက်နှာမှာလည်း ဆင်တူတဲ့
ပြုံးခြင်းရဲ့ လက္ခဏာတွေ
04:22
this face has the same
characteristics of a smile,
76
250440
3033
ရှိနေတာကို မြင်လာတာနဲ့၊
04:25
and it says, "Aha, I recognize this.
This is a smile expression."
77
253473
4278
"ဟာ၊ ဒါကို ကျွန်တော် သိတယ်၊
ဒါဟာ ပြုံးခြင်း အမူအယာပါ။"
ဒီနည်းပညာ အလုပ်လုပ်ပုံကို ပြသပေးရန်
အကောင်းဆုံးမှာ
04:30
So the best way to demonstrate
how this technology works
78
258381
2800
တိုက်ရိုက်သရုပ်ပြချက်ကို စမ်းကြည့်ရန်ပါပဲ၊
04:33
is to try a live demo,
79
261181
2136
04:35
so I need a volunteer,
preferably somebody with a face.
80
263317
3913
ဒီတော့ စေတနာ့ဝန်ထမ်း တဦး
မျက်နှာနဲ့လူ တယောက်လိုပါတယ်။
04:39
(Laughter)
81
267230
2334
(ရယ်မောသံများ)
04:41
Cloe's going to be our volunteer today.
82
269564
2771
Cloe ဟာ ဒီနေ့ ကျွန်မတို့အတွက်
စေတနာ့ဝန်ထမ်း လုပ်မယ့်သူပါ။
04:45
So over the past five years, we've moved
from being a research project at MIT
83
273325
4458
လွန်ခဲ့တဲ့ ငါးနှစ်အတွင်းမှာ ကျွန်မတို့ဟာ
MIT ထဲက သုတေသန စီမံကိန်း အဖြစ်ကနေပြီး
04:49
to a company,
84
277783
1156
ကုမ္ပဏီ တစ်ခုဆီ ပြောင်းခဲ့ကြကာ
04:50
where my team has worked really hard
to make this technology work,
85
278939
3192
ကျွန်မ အဖွဲ့ဟာ အဲဒီနည်းပညာ အလုပ်လုပ်ဖို့
အတော့ကို အားထုတ်လုပ်ကိုင်ခဲ့ရတယ်၊
04:54
as we like to say, in the wild.
86
282131
2409
အခုတော့ ပုံကြမ်းမျိုး ပေါ်လာပါပြီ။
04:56
And we've also shrunk it so that
the core emotion engine
87
284540
2670
ကျွန်မတို့ဟာ အဲဒါကို ချုံ့ပစ်နိုင်ခဲ့ရာ
ဒီအမာခံ ခံစားမှု အင်ဂျင်ဟာ
04:59
works on any mobile device
with a camera, like this iPad.
88
287210
3320
ဒီ iPad လို ကင်မရာပါတဲ့
ဘယ်မိုဘိုင်း ကိရိယာမှာမဆို အလုပ်လုပ်တယ်။
05:02
So let's give this a try.
89
290530
2786
အခု အဲဒါကို စမ်းကြည့်ကြရအောင်။
05:06
As you can see, the algorithm
has essentially found Cloe's face,
90
294756
3924
အခု ရှင်တို့ မြင်နေရသလို အယ်ဂိုရစ်သမ်ဟာ
Cloe ရဲ့ မျက်နှာကို တွေ့နိုင်ပါပြီ၊
05:10
so it's this white bounding box,
91
298680
1692
အဲဒါက အဖြူရောင် အကွက်ပါ၊
05:12
and it's tracking the main
feature points on her face,
92
300372
2571
အဲဒါဒဟာ သူ့မျက်နှာပေါ်က
အဓိက အင်္ဂါရပ် အချက်တွေကို ခြေရာခံနေပါတယ်၊
05:14
so her eyebrows, her eyes,
her mouth and her nose.
93
302943
2856
သူ့ မျက်ခုံးတွေ၊ သူ့မျက်လုံးတွေ၊
သူ့ပါးစပ် နဲ့ နှာခေါင်းကိုပါ။
05:17
The question is,
can it recognize her expression?
94
305799
2987
အရေးကြီးဆုံးက ၎င်းဟာ
သူ့အမူအယာတွေကို သိမှတ်နားလည်နိုင်ပါ့မလား?
05:20
So we're going to test the machine.
95
308786
1671
အခု ကျွန်မတို့ ဒီစက်ကို
စမ်းသပ်ကြည့်ကြပါမယ်။
05:22
So first of all, give me your poker face.
Yep, awesome. (Laughter)
96
310457
4186
ပထမဦးဆုံး အနေနဲ့၊ ဘာကိုမှ မကြောက်တဲ့
မျက်နှာမျိုးလုပ်ပြပါ။ ဟုတ်ပြီ၊ ကောင်းတယ်။
(ရယ်မောသံများ)
05:26
And then as she smiles,
this is a genuine smile, it's great.
97
314643
2813
အဲဒီနောက်မှာ သူဟာ ပြုံးနေတယ်၊
တကယ့်ကို အပြုံးစစ်စစ်ပါ၊ သိပ်ကောင်းတယ်။
05:29
So you can see the green bar
go up as she smiles.
98
317456
2300
အစိမ်းရောင် ဘားတံ မြင့်တက်လာတာကို
ရှင်တို့ မြင်နိုင်ကြတယ်။
05:31
Now that was a big smile.
99
319756
1222
အဲဒါက တကယ့်ကို ကောင်းတဲ့ အပြုံးပါပဲ။
05:32
Can you try a subtle smile
to see if the computer can recognize?
100
320978
3043
မသိမသာ ပြုံးနေတာမျိုးကော စမ်းကြည့်မလား
ကွန်ပျူတာက အဲဒါကို သိနိုင်မလား?
05:36
It does recognize subtle smiles as well.
101
324021
2331
အဲဒါဟာ မသိမသာ ပြုံးတာကိုလည်း
သိမှတ်နိုင်တယ်။
05:38
We've worked really hard
to make that happen.
102
326352
2125
ဒါကို လုပ်နိုင်ဖို့ ကျွန်မတို့ဟာ တကယ့်ကို
ပင်ပင်ပန်းပန်း အားထုတ်ခဲ့ရပါတယ်။
05:40
And then eyebrow raised,
indicator of surprise.
103
328477
2962
အဲဒီနောက် မျက်ခုံး မြင့်တက်လာတယ်
အံ့အားသင့်မှုရဲ့ ညွှန်းချက်ပါ။
05:43
Brow furrow, which is
an indicator of confusion.
104
331439
4249
မျက်ခုံးတွေအကြားက အရေးကြောင်းတွေ
ရှုပ်ထွေးမှုကို ထောက်ပြနေကြတယ်။
05:47
Frown. Yes, perfect.
105
335688
4007
မျက်မှောက် ကြုတ်မှု။ တကယ်ကောင်းလိုက်တာ။
05:51
So these are all the different
action units. There's many more of them.
106
339695
3493
ဒီတော့ ဒါတွေဟာ အမျိုးမျိုးသာ လုပ်ဆောင်ချက်
ယူနစ်တွေပါ။ အများကြီး ရှိပါသေးတယ်။
05:55
This is just a slimmed-down demo.
107
343188
2032
ဒါက နမူနာပြဖို့အတွက် အသေးစားပါ။
05:57
But we call each reading
an emotion data point,
108
345220
3148
ကျွန်မတို့ဟာ ဖတ်ကြားမှု တစ်ခုစီကို
ခံစားချက် ဒေတာ အချက်လို့ ခေါ်ကြပါတယ်၊
06:00
and then they can fire together
to portray different emotions.
109
348368
2969
အဲဒါတွေ အားလုံး စုပေါင်းလျက်
ခံစားချက်ကို ပုံဖေါ်ပေးနိုင်ကြပါတယ်။
06:03
So on the right side of the demo --
look like you're happy.
110
351337
4653
ဒီတော့ နမူနာရဲ့ ညာဘက်မှာကျတော့
ပျော်ရွှင်နေတဲ့ ပုံစံမျိုးလိုပါ။
06:07
So that's joy. Joy fires up.
111
355990
1454
အဲဒါက ပျော်ရွှင်မှုပါ။
ပျော်ရွှင်စိတ်တွေ မြင်နေရပါတယ်။
06:09
And then give me a disgust face.
112
357444
1927
အခုတော့ မနှစ်မြို့တဲ့ မျက်နှာကို လုပ်ပြပေးပါ။
06:11
Try to remember what it was like
when Zayn left One Direction.
113
359371
4272
One Direction ထဲမှာ Zayn က ထွက်သွားပုံကို
စဉ်းစားကြည့်လိုက်ပါ။
06:15
(Laughter)
114
363643
1510
(ရယ်မောသံများ)
06:17
Yeah, wrinkle your nose. Awesome.
115
365153
4342
ဟုတ်တယ်၊ နှာခေါင်း တွန့်သွားပါစေ၊
ကောင်းလိုက်တာ။
06:21
And the valence is actually quite
negative, so you must have been a big fan.
116
369495
3731
ခြုံကြည့်ရင် အနှုတ်လက္ခဏာ သဘောဖြစ်နေတုန်းပါ၊
ဒီရုပ်ရှင်ကို အတော်လေး ကြိုက်ပုံရတယ်။
06:25
So valence is how positive
or negative an experience is,
117
373226
2700
ဒီတော့ ပေါင်းစပ်မှု ရလဒ်က အတွေ့အကြုံတခုဟာ
အပြုသဘောလား အနှုတ်သဘောလား၊
06:27
and engagement is how
expressive she is as well.
118
375926
2786
ပြီးတော့ ခံစားချက် ဘယ်လောက်
ပြင်းထန်တယ်ဆိုတာကိုပါ ပြပါတယ်။
06:30
So imagine if Cloe had access
to this real-time emotion stream,
119
378712
3414
ဒီတော့ Cloe ဟာ အဲဒီလို အချိန်နဲ့တပြေးညီ
ပြောင်းလဲနေတဲ့ ခံစားချက်ကို သိမြင်နိုင်မယ်၊
06:34
and she could share it
with anybody she wanted to.
120
382126
2809
ပြီးတော့ သူမအနေနဲ့ မျှဝေပေးချင်တဲ့သူကို
မျှဝေပေးနိုင်တာကို စိတ်ကူးကြည့်ကြပါ။
06:36
Thank you.
121
384935
2923
ကျေးဇူးတင်ပါတယ်။
06:39
(Applause)
122
387858
4621
(လက်ခုပ်သံများ)
06:45
So, so far, we have amassed
12 billion of these emotion data points.
123
393749
5270
အခုထိ ကျွန်မတို့ဟာ အဲဒီလို ခံစားချက် ဒေတာ
အချက်တွေ ၁၂ ဘီလီယံ စုစည်းထားကြပါပြီ။
06:51
It's the largest emotion
database in the world.
124
399019
2611
အဲဒါဟာ ကမ္ဘပေါ်က ခံစားချက်များဆိုင်ရာ
အကြီးမားလုံး ဒေတာဘေ့စ်ပါပဲ။
06:53
We've collected it
from 2.9 million face videos,
125
401630
2963
ကျွန်မတို့ဟာ အဲဓါကို မျက်နှာ ဗီဒီယို
၂.၉ သန်းထဲမှနေပြီး စုစည်းခဲ့ကြပါတယ်၊
06:56
people who have agreed
to share their emotions with us,
126
404593
2600
သူတို့ရဲ့ ခံစားချက်တွေကို မျှဝေပေးရန်
သဘောတူခဲ့ကြတဲ့ သူတွေဆီကပါ၊
06:59
and from 75 countries around the world.
127
407193
3205
တကမ္ဘာလုံးက ၇၅ နိုင်ငံမှ သူတွေပါဝင်ကြပါတယ်။
07:02
It's growing every day.
128
410398
1715
နေ့စဉ်နဲ့အမျှ အဲဒါဟာ ပိုပိုကြီးထွားလာနေတယ်။
07:04
It blows my mind away
129
412603
2067
အခု ကျွန်မတို့ဟာ ကျွန်မတို့ရဲ့ ခံစားချက်တွေလို
07:06
that we can now quantify something
as personal as our emotions,
130
414670
3195
ကိုယ်ရေး ခံစားချက်ကို ရေတွက်လာနိုင်ခြင်း
ဟာ အံ့အားသင့်စရာကြီးပါ၊
07:09
and we can do it at this scale.
131
417865
2235
အဲဒါကို ကျွန်မတို့ဟာ
ဒီလို စကေးမျိုးဖြင့် လုပ်နိုင်ကြပါတယ်။
07:12
So what have we learned to date?
132
420100
2177
ဒီတော့ ဒီနေ့အထိ လေ့လာနိုင်ခဲ့တာက ဘာတွေလဲ?
07:15
Gender.
133
423057
2331
လိင်။
07:17
Our data confirms something
that you might suspect.
134
425388
3646
ကျွန်မတို့ရဲ့ ဒေတာတွေဟာ မဖြစ်နိုင်ဘူးလို့
ထင်တဲ့ အရာကိုတောင် အတည်ပြုနိုင်တယ်။
07:21
Women are more expressive than men.
135
429034
1857
အမျိုးသမီးတွေဟာ အမျိုးသားတွေနဲ့စာရင်
ပိုလို့ကို အမူအယာပြမှု ကောင်းကြတယ်။
07:22
Not only do they smile more,
their smiles last longer,
136
430891
2683
သူတို့ ပိုပြုံးကြရုံသာမက
သူတို့ရဲ့ အပြုံးဟာ ပိုပြီး ကြာပါတယ်။
07:25
and we can now really quantify
what it is that men and women
137
433574
2904
ပြီးတော့ ကျွန်မတို့ဟာ အခုဆိုရင်
အမျိုးသားတွေ နဲ့ အမျိုးသမီးတွေ မတူညီဘဲ
07:28
respond to differently.
138
436478
2136
တုံ့ပြန်ကြတဲ့ အရာတွေကို
တွက်ချက်ပြနိုင်ပါပြီ။
07:30
Let's do culture: So in the United States,
139
438614
2290
ယဉ်ကျေးမှုအလိုက် လေ့လာကြည့်တော့
အမေရိက ပြည်ထောင်စုမှာ
07:32
women are 40 percent
more expressive than men,
140
440904
3204
အမျိုးသမီးတွေဟာ အမျိုးသားတွေနဲ့စာရင်
၄၀ % ပိုပြီး ထုတ်ဖေါ်ပြကြပါတယ်၊
07:36
but curiously, we don't see any difference
in the U.K. between men and women.
141
444108
3645
ထူးဆန်းတာက၊ U.K.မှာကျတော့ အမျိုးသားနဲ့
အမျိုးသမီးတွေ အကြား ကွာဟချက် မတွေ့ရဘူး။
07:39
(Laughter)
142
447753
2506
(ရယ်မောသံများ)
07:43
Age: People who are 50 years and older
143
451296
4027
အသက်: အသက် ၅၀ ကျော်သူတို့ဟာ
07:47
are 25 percent more emotive
than younger people.
144
455323
3436
ပိုငယ်သူတို့နဲ့စာရင် ခံစားမှု
၂၅ ရာခိုင်နှုန်း ပိုများပါတယ်။
07:51
Women in their 20s smile a lot more
than men the same age,
145
459899
3852
၂၀ ကျော်အရွယ် အမျိုးသမီးတွေဟာ ရွယ်တူ
အမျိုးသားတွေထက်ကို သိသိသာသာ ပိုပြုံးကြတယ်၊
07:55
perhaps a necessity for dating.
146
463751
3839
တွေ့ဆုံဖို့ ရက်ချိန်းရန် အတွက်
ဖြစ်နိုင်ပါတယ်။
07:59
But perhaps what surprised us
the most about this data
147
467590
2617
ဒီဒေတာတွေနဲ့ ပတ်သက်ပြီး
ကျွန်မတို့ အများဆုံး အံ့အားသင့်ရတာက
08:02
is that we happen
to be expressive all the time,
148
470207
3203
ကျွန်မတို့ဟာ တချိန်လုံး တခုခုကို
ထုတ်ဖေါ် ပြသနေကြပါတယ်၊
08:05
even when we are sitting
in front of our devices alone,
149
473410
2833
တယောက်တည်း ကျွန်မတို့ရဲ့ ကိရိယာတွေနဲ့
ထိုင်နေကြစဉ်မှာတောင်ပါ၊
08:08
and it's not just when we're watching
cat videos on Facebook.
150
476243
3274
ပြီးတော့ ဖေ့စ်ဘွတ်မှာ ကြောင်တွေ အကြောင်း
ဗီဒီယိုကို ကြည့်နေချိန်မှာတင် မကပါဘူး။
08:12
We are expressive when we're emailing,
texting, shopping online,
151
480217
3010
ကျွန်မတို့ အီးမေးလ် ရေးနေစဉ်၊ စာတိုရေးစဉ်၊
အွန်လိုင်း ဈေးဝယ်စဉ် ခံစားချက်ကို ပြနေတယ်၊
08:15
or even doing our taxes.
152
483227
2300
အခွန်တွေကို ပေးဆပ်နေချိန်မှာတောင်ပါ။
08:17
Where is this data used today?
153
485527
2392
ဒီဒေတာတွေကို ဒီနေ့မယ် ဘယ်မှာ သုံးနေသလဲ?
08:19
In understanding how we engage with media,
154
487919
2763
ကျွန်မတို့ဟာ မီဒီယာတွေထဲ ပါဝင်ပတ်သနေတာကို
နားလည်ဖို့အတွက်၊
08:22
so understanding virality
and voting behavior;
155
490682
2484
တခုခုကို မဲပေးခြင်း နှင့် လူတွေ အကြားမှာ
ခံစားချက် ကူးစက်ပျံ့နှံ့မှုကို နားလည်ရန်၊
08:25
and also empowering
or emotion-enabling technology,
156
493166
2740
ပြီးတော့ ခံစားချက် အခြေခံ နည်းပညာများကို
တပ်ဆင် အသုံးချနိုင်ရန် အတွက်ပါ၊
08:27
and I want to share some examples
that are especially close to my heart.
157
495906
4621
ပြီးတော့ ကျွန်မနှလုံးသားနဲ့ သိပ်ကို နီးစပ်တဲ့
ဥပမာ အချို့ကို မျှဝေပေးချင်ပါတယ်။
08:33
Emotion-enabled wearable glasses
can help individuals
158
501197
3068
ခံစားမှုကို ပြနိုင်တဲ့ မျက်မှန်တွေဟာ
မျက်စိအမြင် အားနည်းကြသူတဲ့သူတွေကို
08:36
who are visually impaired
read the faces of others,
159
504265
3228
အခြားသူတွေရဲ့ မျက်နှာတွေကို
ဖတ်နိုင်အောင် ကူပေးနိုင်ကြပါတယ်၊
08:39
and it can help individuals
on the autism spectrum interpret emotion,
160
507493
4187
ပြီးတော့ autism ရောဂါကို ခံစားနေရလို့
ခံစားချက်ကို နားလည်ရန် ခဲယဉ်းတဲ့သူတွေကို
08:43
something that they really struggle with.
161
511680
2778
တနည်းနည်းနဲ့ သိနားလည်အောင် ကူပေးနိုင်မှာပါ။
08:47
In education, imagine
if your learning apps
162
515918
2859
ပညာရေါ်ထဲမှာ ဆိုရင်၊ ရှင်တို့ရဲ့
သင်ယူရေး အက်ပ်က
08:50
sense that you're confused and slow down,
163
518777
2810
ရှင်တို့ဟာ စိတ်ရှုပ် နားမလည်ဖြစ်နေတာကို
သိမှတ်နိုင်လို့ အရှိန် လျှော့ချလိုက်တာ
08:53
or that you're bored, so it's sped up,
164
521587
1857
ဒါမှမဟုတ် စိတ်ကုန်နေတာကို သိလိုက်လို့
တော်တဲ့ ဆရာက လုပ်တတ်သလို
သင်ခန်းစာကို ခဏ ခေါက်ထားလိုက်တာမျိုး
လုပ်ပေးနိုင်ပါတယ်။
08:55
just like a great teacher
would in a classroom.
165
523444
2969
08:59
What if your wristwatch tracked your mood,
166
527043
2601
ရှင်တို့ရဲ့ လက်ပတ်နာရီက ရှင်တို့ရဲ့
ခံစားမှုကို ခြေရာခံ သိနိုင်တယ် ဆိုရင်ကော၊
09:01
or your car sensed that you're tired,
167
529644
2693
ဒါမှမဟုတ် ရှင်တို့ရဲ့ ကားက ရှင်တို့ ပင်ပန်း
နေတာကို သိမှတ်လိုက်တယ်၊
09:04
or perhaps your fridge
knows that you're stressed,
168
532337
2548
ဒါမှမဟတ် ရှင်တို့ရဲ့ ရေခဲ့သေတ္တာက ရှင်တို့
ဖိစီးမှု ခံနေရာတကို သိနားလည်လိုက်လို့၊
09:06
so it auto-locks to prevent you
from binge eating. (Laughter)
169
534885
6066
ရှင်တို့ကို စားမရအောင် အော်တို-သော့ခတ်
လိုက်တယ်ဆိုရင်ကော။ (ရယ်မောသံများ)
09:12
I would like that, yeah.
170
540951
2717
ကျွန်မဆိုရင် အဲဒါမျိုးကို
လိုချင်တယ်၊ တကယ်ပဲ။
09:15
What if, when I was in Cambridge,
171
543668
1927
ကျွန်မ Cambridge မှာ သင်နေခဲ့စဉ်တုန်းက၊
09:17
I had access to my real-time
emotion stream,
172
545595
2313
ကျွန်မဟာ ကျွန်မရဲ့ အချိန်နဲ့ တပြေးညီ
ခံစားချက်တွေကို ရယူသုံးနိုင်ခဲ့မယ်ဆိုရင်၊
09:19
and I could share that with my family
back home in a very natural way,
173
547908
3529
ပြီးတော့ အဲဒါကို အိမ်မှာ ကျန်ရစ်ခဲ့တဲ့
မိသားစုနဲ့ မျှဝေးပေးနိုင်ခဲ့မယ်ဆိုရင်၊
09:23
just like I would've if we were all
in the same room together?
174
551437
3971
သူတို့နဲ့အတူ တခန်းတည်းမှာ ထိုင်လျက်
ရှိနေသလို သူတို့ ခံစားနိုင်မယ်ဆိုရင်ကော?
09:27
I think five years down the line,
175
555408
3142
ကျွန်မစိတ်ထင် နောက် ငါးနှစ် ကြာရင်
09:30
all our devices are going
to have an emotion chip,
176
558550
2337
ကျွန်မတို့ရဲ့ ကိရိယာတွေ အားလုံးဟာ
စိတ်ခံစားချက် ချီပ်လေးတွေ ရှိလာကြမယ်၊
09:32
and we won't remember what it was like
when we couldn't just frown at our device
177
560887
4064
ပြီးတော့ ကျွန်မတို့ရဲ့ ကိရိယာတွေကို
ကြည့်လိုက်တာနဲ့ကို အဲဒီကိရိယာက
09:36
and our device would say, "Hmm,
you didn't like that, did you?"
178
564951
4249
"အင်း၊ ကြည့်ရတာ မင်းဒါကို ကြိုက်ပုံမရဘူး၊
ဟုတ်တယ် မဟုတ်လား?" မေးတာ ရိုးလာမှာပါ။
09:41
Our biggest challenge is that there are
so many applications of this technology,
179
569200
3761
ဒီနည်းပညာကို ထည့်သုံးနိုင်မယ့် အက်ပ်တွေ
သိပ်ကို များလွန်းတာကို နားလည်မိလို့၊
09:44
my team and I realize that we can't
build them all ourselves,
180
572961
2903
အဲဒါတွေ အားလုံးကို ကျွန်မတို့ ကိုယ်တိုင်
လုပ်မရနိုင်တာကို ကျန်မအဖွဲ့ နားလည်တယ်၊
09:47
so we've made this technology available
so that other developers
181
575864
3496
အဲဒါကြောင့်မို့လို့၊ ဒီနည်းပညာကို လူတိုင်း
သုံးနိုင်အောင် မျှပေးထားလို့ အခြားသူတို့ဟာ
09:51
can get building and get creative.
182
579360
2114
တည်ဆောက်နိုင်ကာ ဖန်တီးနိုင်ကြမှာပါ။
09:53
We recognize that
there are potential risks
183
581474
4086
ဒီကိစ္စထဲမှာ အန္တရာယ်တွေ ရှိနိုင်တာကို၊
ပြီးတော့ အလွှဲသုံးစားလို့ ရနိုင်တာကို၊
09:57
and potential for abuse,
184
585560
2067
ကျွန်မတို့ သိနားလည်ပါတယ်၊
09:59
but personally, having spent
many years doing this,
185
587627
2949
ဒါပေမဲ့ ကျွန်မကိုယ်တိုင်ကတော့၊ ဒါကို
နှစ်ပေါင်းများစွာ လုပ်ကိုင်လာခဲ့လို့၊
10:02
I believe that the benefits to humanity
186
590576
2972
ခံစားမှုကို သိနားလည်မယ့် နည်းပညာကို
ရယူသုံးနိုင်ခြင်းမှ ရရှိမယ့်
10:05
from having emotionally
intelligent technology
187
593548
2275
အကျိုးကျေးဇူးတွေဟာ
တလွဲသုံးနိုင်မယ့် အလားအလာတွေထက်ကို
10:07
far outweigh the potential for misuse.
188
595823
3576
သိသိသာသာ ပိုများတယ်လို့ ယုံကြည်ပါတယ်။
10:11
And I invite you all to be
part of the conversation.
189
599399
2531
ရှင်တို့ အားလုံးကို ဒီကိစ္စဆွေးနွေးမှုထဲ
လက်တွဲပါဝင်ဖို့ ကျွန်မ ဖိတ်ကြားပါတယ်။
10:13
The more people who know
about this technology,
190
601930
2554
ဒီနည်းပညာ အကြောင်းကို သိကြမယ့်လူတွေ
များလာလေ၊
10:16
the more we can all have a voice
in how it's being used.
191
604484
3177
အဲဒါကို လက်တွေ့သုံးနေပုံ ဆိုင်ရာ
ထင်မြင်ချက်တွေ တိုးတိုးရလာလေ ဖြစ်မှာပါ။
10:21
So as more and more
of our lives become digital,
192
609081
4574
ကျွန်မတို့ရဲ့ ဘဝဟာ ပိုပိုဒီဂျီတယ်
ဆန်းလာနေတာနဲ့အမျှ၊
10:25
we are fighting a losing battle
trying to curb our usage of devices
193
613655
3498
ကျွန်မတို့ဟာ ကျွန်မတို့ရဲ့ ကိရိယာတွေကို
အသုံးချနေမှုထဲမှာ
10:29
in order to reclaim our emotions.
194
617153
2229
ကျွန်မတို့ရဲ့ စိတ်ခံစားမှုတွေကို ပြန်ပြီး
ထည့်သွင်းပေးဖို့ ကြိုးစားသင့်ပါတယ်။
10:32
So what I'm trying to do instead
is to bring emotions into our technology
195
620622
3914
ဒီတော့ ကျွန်မ အခု ကြိုးပမ်းမှုက ကျွန်မတို့
ခံစားချက်တွေကို နည်းပညာထဲကို ထည့်ပေးလျက်
10:36
and make our technologies more responsive.
196
624536
2229
ကျွန်မတို့ရဲ့ နည်းပညာတွေ ပိုပြီး
တုံ့ပြန်နိုင်စွမ်း ရှိလာဖို့ကိုပါ။
10:38
So I want those devices
that have separated us
197
626765
2670
အဲဒီလိုနည်းဖြင့် ကျွန်မတို့ကို ခွဲခြား
ပစ်ခဲ့ကြတဲ့ ကိရိယာတွေက
10:41
to bring us back together.
198
629435
2462
ကျွန်မတို့ကို ပြန်ပြီး အတူတူ
ဖြစ်လာဖို့ကို ကူပေးရန်ပါ။
10:43
And by humanizing technology,
we have this golden opportunity
199
631897
4588
ပြီးတော့ နည်းပညာကို လူသားဆန်လာအောင်
လုပ်ပေးခြင်းဖြင့် ကျွန်မတို့ဆီမှာ
10:48
to reimagine how we
connect with machines,
200
636485
3297
စက်ပစ္စည်းတွေနဲ့ ကျွန်မတို့ ဆက်သွယ်ကြပုံကို
ပြန်ပြီး စိတ်ကူးစဉ်းစားကြည့်ရန်၊
10:51
and therefore, how we, as human beings,
201
639782
4481
အဲဒီနောက်မှာ၊ ကျွန်မတို့ လူသားတွေ
တဦးနဲ့တဦး ဆက်ဆံပုံကို
10:56
connect with one another.
202
644263
1904
ပြန်လည်စဉ်းစားကြည့်ရန် အခွင့်အရေး
ကောင်းကြီးတခုပါ။
10:58
Thank you.
203
646167
2160
ကျေးဇူးတင်ပါတယ်။
11:00
(Applause)
204
648327
3313
(လက်ခုပ်သံများ)
Translated by Myo Aung
Reviewed by sann tint

▲Back to top

ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com