ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com
TEDWomen 2015

Rana el Kaliouby: This app knows how you feel -- from the look on your face

ラナ・エル・カリウビ: 顔を見るだけで感情がわかるアプリ

Filmed:
1,613,290 views

感情は私たちの生活のあらゆる面に影響します―学び方やコミュニケーションの取り方、決定の仕方まで様々です。しかし、デジタルにおいてはそれが欠けています。私たちが用いる電子機器やアプリは、私たちの感情を知りようがないのです。科学者のラナ・エル・カリウビは、これを変えようとしています。彼女は顔の表情を読み取って、それに対応する感情と結びつける、強力な新しいテクノロジーを実演します。この「感情エンジン」には大きな意味があり、私たちが機械と関わる方法だけでなく、お互いに交流する方法をも変える可能性がある、と彼女は言います。
- Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware. Full bio

Double-click the English transcript below to play the video.

00:12
Our emotions感情 influence影響
everyすべて aspectアスペクト of our lives人生,
0
556
4017
私たちの感情は
生活のあらゆる面に影響します
00:16
from our health健康 and how we learn学ぶ,
to how we do businessビジネス and make decisions決定,
1
4573
3576
健康や学び方
ビジネスのやり方や決定の仕方まで
大小様々です
00:20
big大きい onesもの and small小さい.
2
8149
1773
00:22
Our emotions感情 alsoまた、 influence影響
how we connect接続する with one another別の.
3
10672
3490
感情は私たちがお互いと
結びつく方法にも影響します
00:27
We've私たちは evolved進化した to liveライブ
in a world世界 like this,
4
15132
3976
今まで私たちは
このような世界に順応してきましたが
00:31
but instead代わりに, we're living生活
more and more of our lives人生 like this --
5
19108
4319
現在の世界は どんどん
このようになってきています
00:35
this is the textテキスト messageメッセージ
from my daughter last night --
6
23427
3134
これは昨晩 娘から届いた
携帯メールです
00:38
in a world世界 that's devoid欠けている of emotion感情.
7
26561
2740
感情のない世界ですね
00:41
So I'm on a missionミッション to change変化する that.
8
29301
1951
私はそれを変えるべく活動しています
00:43
I want to bring持参する emotions感情
back into our digitalデジタル experiences経験.
9
31252
4091
デジタルでの体験に
感情を取り戻したいのです
00:48
I started開始した on this pathパス 15 years ago.
10
36223
3077
この道を歩み始めたのは15年前―
00:51
I was a computerコンピューター scientist科学者 in Egyptエジプト,
11
39300
2066
エジプトでコンピューターサイエンスを
学んでいたときのことです
00:53
and I had just gotten得た accepted受け入れられた to
a PhPh.D. programプログラム at Cambridgeケンブリッジ University大学.
12
41366
4505
ケンブリッジ大学の博士課程に
合格したところでした
00:57
So I did something quiteかなり unusual珍しい
13
45871
2113
私が取った行動は
00:59
for a young若い newlywed新婚 Muslimイスラム教徒 Egyptianエジプト人 wife:
14
47984
4225
結婚したての若いイスラム教徒の
エジプト人妻としてはかなり珍しいものでした
01:05
With the supportサポート of my husband,
who had to stay滞在 in Egyptエジプト,
15
53599
2999
エジプトに残らねばならない
夫のサポートを得て
01:08
I packed詰め込まれた my bagsバッグ and I moved移動した to Englandイングランド.
16
56598
3018
私は荷物をまとめて
イングランドにやってきたのです
01:11
At Cambridgeケンブリッジ, thousands of milesマイル
away from home,
17
59616
3228
故郷から何千キロも離れた
ケンブリッジで
01:14
I realized実現した I was spending支出
more hours時間 with my laptopラップトップ
18
62844
3413
私は自分が他の人と過ごすよりも
長い時間を
01:18
than I did with any other human人間.
19
66257
2229
ノートパソコンと過ごしていることに
気づきました
01:20
Yetまだ despite何と this intimacy親密, my laptopラップトップ
had absolutely絶対に no ideaアイディア how I was feeling感じ.
20
68486
4853
とても近しいものでありながら
ノートパソコンに私の感情は分かりません
01:25
It had no ideaアイディア if I was happyハッピー,
21
73339
3211
私が嬉しかろうと
01:28
having持つ a bad悪い day, or stressed強調された, confused混乱した,
22
76550
2988
ストレスを抱えて混乱し
嫌な1日を過ごそうと伝わらないので
01:31
and so that got frustratingイライラする.
23
79538
2922
歯がゆい気持ちになりました
01:35
Even worse悪化する, as I communicated伝えられた
onlineオンライン with my family家族 back home,
24
83600
5231
さらに悪いことに オンラインで
家族と会話をしていても
01:41
I feltフェルト that all my emotions感情
disappeared消えた in cyberspaceサイバースペース.
25
89421
3282
感情がすべてサイバー空間に
消えてしまうような気がしました
01:44
I was homesickホームシック, I was lonely寂しい,
and on some days日々 I was actually実際に crying泣く,
26
92703
5155
ホームシックで寂しい思いをし
泣いたときもありましたが
01:49
but all I had to communicate通信する
these emotions感情 was this.
27
97858
4928
感情を表す手段はこれだけでした
01:54
(Laughter笑い)
28
102786
2020
(笑)
01:56
Today's今日の technology技術
has lots of I.Q., but no E.Q.;
29
104806
4974
現在のテクノロジーには
IQはあってもEQはありません
02:01
lots of cognitive認知 intelligenceインテリジェンス,
but no emotional感情の intelligenceインテリジェンス.
30
109780
3176
知能指数は高くても
心の知能指数はないのです
02:04
So that got me thinking考え,
31
112956
2197
そこで私は考えました
02:07
what if our technology技術
could senseセンス our emotions感情?
32
115153
3624
テクノロジーが感情を
感じ取れるとしたらどうだろう?
02:10
What if our devicesデバイス could senseセンス
how we feltフェルト and reacted反応した accordinglyそれに応じて,
33
118777
4076
心の知能指数を持った友人のように
電子機器が感情を読み取って
02:14
just the way an emotionally感情的に
intelligentインテリジェントな friend友人 would?
34
122853
3013
それに応じて反応したらどうだろう?
02:18
Those questions質問 led me and my teamチーム
35
126666
3564
これらの問いによって
私とチームは
感情を読み取り 対応できる
テクノロジーを開発するに至り
02:22
to create作成する technologiesテクノロジー that can read読む
and respond応答する to our emotions感情,
36
130230
4377
02:26
and our starting起動 pointポイント was the human人間 face.
37
134607
3090
私たちの出発点は人間の顔でした
02:30
So our human人間 face happens起こる to be
one of the most最も powerful強力な channelsチャンネル
38
138577
3173
人間の顔は
社会的・感情的状態を伝えるのに
02:33
that we all use to communicate通信する
socialソーシャル and emotional感情の states,
39
141750
4016
誰もが用いている
非常に強力な手段のひとつです
02:37
everything from enjoyment楽しみ, surprise驚き,
40
145766
3010
喜びや驚き―
02:40
empathy共感 and curiosity好奇心.
41
148776
4203
共感や好奇心まで様々あります
02:44
In emotion感情 science科学, we call each
facialフェイシャル muscle movement移動 an actionアクション unit単位.
42
152979
4928
感情科学では顔面筋肉の動き
それぞれをアクション・ユニットと言います
02:49
So for example, actionアクション unit単位 12,
43
157907
2925
例えば アクション・ユニット12は
02:52
it's not a Hollywoodハリウッド blockbusterブロックバスター,
44
160832
2038
ハリウッド映画のタイトルではありませんよ
02:54
it is actually実際に a lipリップ cornerコーナー pull引く,
whichどの is the mainメイン component成分 of a smileスマイル.
45
162870
3442
これは口の端を引く動きで
笑顔の主な要素です
02:58
Try it everybodyみんな. Let's get
some smiles笑顔 going on.
46
166312
2988
試してみて下さい
笑顔になりますね
03:01
Anotherもう一つ example is actionアクション unit単位 4.
It's the brow furrow.
47
169300
2654
もうひとつの例はアクション・ユニット4で
これは眉をひそめる動きです
03:03
It's when you drawドロー your eyebrows眉毛 together一緒に
48
171954
2238
両眉をひそめると
03:06
and you create作成する all
these texturesテクスチャ and wrinklesシワ.
49
174192
2267
凹凸やしわができますね
03:08
We don't like them, but it's
a strong強い indicatorインジケータ of a negative emotion感情.
50
176459
4295
好まれるものではありませんが
否定的な感情を強く示すサインです
03:12
So we have about 45 of these actionアクション units単位,
51
180754
2206
こうしたアクション・ユニットが45個あり
03:14
and they combine結合する to express表現する
hundreds数百 of emotions感情.
52
182960
3390
これらが組み合わさって
何百もの感情を表します
03:18
Teaching教える a computerコンピューター to read読む
these facialフェイシャル emotions感情 is hardハード,
53
186350
3901
こうした顔の表情をコンピューターに
読み取らせるのは困難です
03:22
because these actionアクション units単位,
they can be fast速い, they're subtle微妙,
54
190251
2972
アクション・ユニットは動きが素早く
加減が微妙ですし
03:25
and they combine結合する in manyたくさんの different異なる ways方法.
55
193223
2554
様々に組み合わせられるためです
03:27
So take, for example,
the smileスマイル and the smirk笑顔.
56
195777
3738
例えば 笑顔と
ぎこちない作り笑いです
03:31
They look somewhat幾分 similar類似,
but they mean very different異なる things.
57
199515
3753
どこかしら似てはいますが
意味合いは随分違います
03:35
(Laughter笑い)
58
203268
1718
(笑)
03:36
So the smileスマイル is positiveポジティブ,
59
204986
3004
笑顔はポジティブで
03:39
a smirk笑顔 is oftenしばしば negative.
60
207990
1270
わざと作った笑顔は
ネガティブなことが多いです
03:41
Sometimes時々 a smirk笑顔
can make you become〜になる famous有名な.
61
209260
3876
作り笑いで有名になることもあります
03:45
But seriously真剣に, it's important重要
for a computerコンピューター to be ableできる
62
213136
2824
ですが真面目な話
コンピューターが
03:47
to tell the difference
betweenの間に the two expressions表現.
63
215960
2855
2つの表情の違いを
読み取れることが重要です
03:50
So how do we do that?
64
218815
1812
では どうすればいいでしょう?
03:52
We give our algorithmsアルゴリズム
65
220627
1787
私達の開発したアルゴリズムに
03:54
tens数十 of thousands of examples
of people we know to be smiling笑う,
66
222414
4110
純粋な笑顔を見せている人々の例を
何万例も与えます
03:58
from different異なる ethnicities民族, ages年齢, genders性別,
67
226524
3065
人種 年齢 性別も様々です
04:01
and we do the same同じ for smirks笑う.
68
229589
2811
そして作り笑いにも
同様のことを行います
04:04
And then, usingを使用して deep深い learning学習,
69
232400
1554
するとディープラーニング(深層学習)で
04:05
the algorithmアルゴリズム looks外見 for all these
texturesテクスチャ and wrinklesシワ
70
233954
2856
アルゴリズムが
顔面に起こる凹凸やしわや
04:08
and shape形状 changes変更 on our face,
71
236810
2580
形状の変化を探し
04:11
and basically基本的に learns学ぶ that all smiles笑顔
have common一般 characteristics特性,
72
239390
3202
笑顔には共通の特徴があり
04:14
all smirks笑う have subtly微妙
different異なる characteristics特性.
73
242592
3181
作り笑いには微妙に異なる
特徴があることを学習します
04:17
And the next time it sees見える a new新しい face,
74
245773
2368
以降は 未知の顔に遭遇しても
04:20
it essentially基本的に learns学ぶ that
75
248141
2299
基本的に この顔が
04:22
this face has the same同じ
characteristics特性 of a smileスマイル,
76
250440
3033
笑顔の特徴を
備えていることを認識し
04:25
and it says言う, "Ahaアハ, I recognize認識する this.
This is a smileスマイル expression表現."
77
253473
4278
「あぁわかった これは笑顔ですね」
と言うのです
このテクノロジーの働きを
お見せする一番の方法は
04:30
So the bestベスト way to demonstrate実証する
how this technology技術 works作品
78
258381
2800
ここで実演することです
04:33
is to try a liveライブ demoデモ,
79
261181
2136
04:35
so I need a volunteerボランティア,
preferably好ましくは somebody誰か with a face.
80
263317
3913
誰か手伝ってもらえませんか
顔がある人がいいのですが
04:39
(Laughter笑い)
81
267230
2334
(笑)
04:41
Cloe'sクロエ going to be our volunteerボランティア today今日.
82
269564
2771
クロイに手伝ってもらいましょう
04:45
So over the past過去 five years, we've私たちは moved移動した
from beingであること a research研究 projectプロジェクト at MITMIT
83
273325
4458
ここ5年間で私たちはMITでの
研究プロジェクトから
04:49
to a company会社,
84
277783
1156
企業へと変化しました
04:50
where my teamチーム has worked働いた really hardハード
to make this technology技術 work,
85
278939
3192
私のチームはこのテクノロジーが
いわば「外の世界で」
04:54
as we like to say, in the wild野生.
86
282131
2409
機能するよう努力してきました
04:56
And we've私たちは alsoまた、 shrunk縮小 it so that
the coreコア emotion感情 engineエンジン
87
284540
2670
またコンパクトにすることで
感情エンジンの核となる部分が
04:59
works作品 on any mobileモバイル deviceデバイス
with a cameraカメラ, like this iPadiPad.
88
287210
3320
iPadのようなカメラ付き携帯機器で
使えるようにしました
05:02
So let's give this a try.
89
290530
2786
では やってみましょう
05:06
As you can see, the algorithmアルゴリズム
has essentially基本的に found見つけた Cloe'sクロエ face,
90
294756
3924
ご覧のように アルゴリズムが
クロイの顔を認識しました
05:10
so it's this white boundingバウンディング boxボックス,
91
298680
1692
白い四角で示されており
05:12
and it's tracking追跡 the mainメイン
feature特徴 pointsポイント on her face,
92
300372
2571
顔の主な部分を追跡しています
05:14
so her eyebrows眉毛, her eyes,
her mouth and her nose.
93
302943
2856
眉、目、口や鼻などです
05:17
The question質問 is,
can it recognize認識する her expression表現?
94
305799
2987
さあ 表情を読み取れるでしょうか?
05:20
So we're going to testテスト the machine機械.
95
308786
1671
機械を試してみましょう
05:22
So first of all, give me your pokerポーカー face.
Yepええ, awesome驚くばかり. (Laughter笑い)
96
310457
4186
まず ポーカーフェイスを見せて下さい
いいですね (笑)
05:26
And then as she smiles笑顔,
this is a genuine純正 smileスマイル, it's great.
97
314643
2813
それから笑顔です
これは心からの笑顔ですね
05:29
So you can see the green barバー
go up as she smiles笑顔.
98
317456
2300
彼女が笑うと
緑色のバーが上がるのが分かります
05:31
Now that was a big大きい smileスマイル.
99
319756
1222
満面の笑みでしたね
05:32
Can you try a subtle微妙 smileスマイル
to see if the computerコンピューター can recognize認識する?
100
320978
3043
コンピューターが認識できるか
微笑みを作ってみましょう
05:36
It does recognize認識する subtle微妙 smiles笑顔 as well.
101
324021
2331
微笑みでも認識できますね
05:38
We've私たちは worked働いた really hardハード
to make that happen起こる.
102
326352
2125
これには大変苦労しました
05:40
And then eyebrow raised育った,
indicatorインジケータ of surprise驚き.
103
328477
2962
眉が上がると
驚きの表情のサインです
05:43
Brow furrow, whichどの is
an indicatorインジケータ of confusion混乱.
104
331439
4249
眉をひそめると
困惑を示すサインです
05:47
Frownかすかな. Yes, perfect完璧な.
105
335688
4007
眉をひそめて
完璧です
05:51
So these are all the different異なる
actionアクション units単位. There's manyたくさんの more of them.
106
339695
3493
これらは全て異なるアクション・ユニットで
まだ他にも多くありますが
05:55
This is just a slimmed-downスリムダウン demoデモ.
107
343188
2032
ほんの一部だけお見せしました
05:57
But we call each reading読書
an emotion感情 dataデータ pointポイント,
108
345220
3148
それぞれの感情のデータポイントを
読み取らせることができ
06:00
and then they can fire火災 together一緒に
to portray描く different異なる emotions感情.
109
348368
2969
それらが合わさって
様々な感情を表現することができます
06:03
So on the right side of the demoデモ --
look like you're happyハッピー.
110
351337
4653
デモの右側には―
喜びの表情を見せて
06:07
So that's joy喜び. Joy喜び fires火災 up.
111
355990
1454
これが喜びですね
「喜び」の項目が上がりました
06:09
And then give me a disgust嫌悪 face.
112
357444
1927
それから 嫌悪の表情を見せて下さい
06:11
Try to remember思い出す what it was like
when Zaynザーン left One Direction方向.
113
359371
4272
ゼインがワン・ダイレクションを
脱退したのを思い出して
06:15
(Laughter笑い)
114
363643
1510
(笑)
06:17
Yeah, wrinkleしわ your nose. Awesome驚くばかり.
115
365153
4342
鼻にもしわが寄ります
いいですね
06:21
And the valence価数 is actually実際に quiteかなり
negative, so you must必須 have been a big大きい fanファン.
116
369495
3731
感情価がかなりネガティブでしたから
熱心なファンだったのでしょう
06:25
So valence価数 is how positiveポジティブ
or negative an experience経験 is,
117
373226
2700
「感情価」は経験がいかにポジティブ
またはネガティブであったか
06:27
and engagementエンゲージメント is how
expressive表現力豊かな she is as well.
118
375926
2786
そして「関与度」は
いかに強く表現したかです
06:30
So imagine想像する if Cloeクロエ had accessアクセス
to this real-timeリアルタイム emotion感情 streamストリーム,
119
378712
3414
クロイがこのリアルタイムでの
感情ストリームを利用でき
06:34
and she could shareシェア it
with anybody she wanted to.
120
382126
2809
それを他の人と共有できると
想像してみて下さい
06:36
Thank you.
121
384935
2923
どうもありがとう
06:39
(Applause拍手)
122
387858
4621
(拍手)
06:45
So, so far遠い, we have amassed集まった
12 billion of these emotion感情 dataデータ pointsポイント.
123
393749
5270
これまでに120億の
感情データポイントを収集しました
06:51
It's the largest最大 emotion感情
databaseデータベース in the world世界.
124
399019
2611
世界最大の感情データベースです
06:53
We've私たちは collected集めました it
from 2.9 million百万 face videosビデオ,
125
401630
2963
290万の顔の写ったビデオから
集めましたが
06:56
people who have agreed同意した
to shareシェア their彼らの emotions感情 with us,
126
404593
2600
感情を共有することに
同意した人たち―
06:59
and from 75 countries around the world世界.
127
407193
3205
世界75か国から集まりました
07:02
It's growing成長する everyすべて day.
128
410398
1715
これは日々 増えています
07:04
It blows吹く my mindマインド away
129
412603
2067
感情というごく個人的なものを
07:06
that we can now quantify定量化する something
as personal個人的 as our emotions感情,
130
414670
3195
今やこれほどの規模で
数量化できるなんて
07:09
and we can do it at this scale規模.
131
417865
2235
私の想像を超えています
07:12
So what have we learned学んだ to date日付?
132
420100
2177
では 今日までにわかったことは
何でしょうか?
07:15
Gender性別.
133
423057
2331
ジェンダーです
07:17
Our dataデータ confirms確認する something
that you mightかもしれない suspect容疑者.
134
425388
3646
皆さんが薄々気づいていることを
データが立証しました
07:21
Women女性 are more expressive表現力豊かな than men男性.
135
429034
1857
女性の方が男性より表情豊かです
07:22
Not only do they smileスマイル more,
their彼らの smiles笑顔 last longerより長いです,
136
430891
2683
より頻繁に笑顔になるだけでなく
笑顔が持続します
07:25
and we can now really quantify定量化する
what it is that men男性 and women女性
137
433574
2904
今や男性と女性が
異なる反応を見せるものについて
07:28
respond応答する to differently異なって.
138
436478
2136
数量化することができます
07:30
Let's do culture文化: So in the Unitedユナイテッド States,
139
438614
2290
文化の違いではどうでしょう
アメリカでは―
07:32
women女性 are 40 percentパーセント
more expressive表現力豊かな than men男性,
140
440904
3204
女性は男性より40%表情豊かですが
07:36
but curiously不思議な, we don't see any difference
in the U.K. betweenの間に men男性 and women女性.
141
444108
3645
面白いことにイギリスでは
男女の差異はありません
07:39
(Laughter笑い)
142
447753
2506
(笑)
07:43
Age年齢: People who are 50 years and olderより古い
143
451296
4027
年齢です
50歳以上の人々は
07:47
are 25 percentパーセント more emotive感情的
than younger若い people.
144
455323
3436
若者よりも25%さらに感情的です
07:51
Women女性 in their彼らの 20s smileスマイル a lot more
than men男性 the same同じ age年齢,
145
459899
3852
20代の女性は同じ年代の男性よりも
ずっと頻繁に笑顔になり
07:55
perhapsおそらく a necessity必要性 for datingデート.
146
463751
3839
これはデートで
必要となるのかもしれません
07:59
But perhapsおそらく what surprised驚いた us
the most最も about this dataデータ
147
467590
2617
このデータで最も驚かされるのは
08:02
is that we happen起こる
to be expressive表現力豊かな all the time,
148
470207
3203
いかに私たちが常に
表情豊かであるかと言うことです
08:05
even when we are sitting座っている
in frontフロント of our devicesデバイス alone単独で,
149
473410
2833
電子機器の前に
独りで座っているときでもです
08:08
and it's not just when we're watching見ている
catネコ videosビデオ on Facebookフェイスブック.
150
476243
3274
Facebookで猫のビデオを
見ているときだけではありません
08:12
We are expressive表現力豊かな when we're emailingメール送信,
textingテキストメッセージ, shoppingショッピング onlineオンライン,
151
480217
3010
メールや携帯メールを書くときや
オンラインショッピング―
08:15
or even doing our taxes税金.
152
483227
2300
確定申告の準備中でも
表情豊かなのです
08:17
Where is this dataデータ used today今日?
153
485527
2392
このデータは今
どこで使われているのでしょう?
08:19
In understanding理解 how we engage従事する with mediaメディア,
154
487919
2763
メディアとの関わり方の研究―
08:22
so understanding理解 viralityウイルス性
and voting投票 behavior動作;
155
490682
2484
つまりバイラリティーや
投票行動などの理解や
08:25
and alsoまた、 empowering力を与える
or emotion-enabling感情を有効にする technology技術,
156
493166
2740
また 能力を高めたり
感情を利用するテクノロジーにも使えます
08:27
and I want to shareシェア some examples
that are especially特に close閉じる to my heartハート.
157
495906
4621
私が特に大切に思う例を
お話ししたいと思います
08:33
Emotion-enabled感情を有効にする wearableウェアラブル glasses眼鏡
can help individuals個人
158
501197
3068
感情を理解する
眼鏡型端末があれば
08:36
who are visually視覚的に impaired障害者
read読む the faces of othersその他,
159
504265
3228
視覚障害者が
他者の表情を読むのに役立ちます
08:39
and it can help individuals個人
on the autism自閉症 spectrumスペクトラム interpret解釈する emotion感情,
160
507493
4187
自閉症のスペクトラムの人が
非常に苦労している―
08:43
something that they really struggle闘争 with.
161
511680
2778
感情の理解にも役立ちます
08:47
In education教育, imagine想像する
if your learning学習 appsアプリ
162
515918
2859
教育においては学習アプリが
08:50
senseセンス that you're confused混乱した and slowスロー down,
163
518777
2810
生徒の困惑や退屈の表情に気付き
08:53
or that you're bored退屈な, so it's spedスピード up,
164
521587
1857
教室で熟練の教師がするように
学習のペースを
調整することができるでしょう
08:55
just like a great teacher先生
would in a classroom教室.
165
523444
2969
08:59
What if your wristwatch腕時計 tracked追跡された your mood気分,
166
527043
2601
腕時計があなたの気分をモニターしたり
09:01
or your car sensed感知された that you're tired疲れた,
167
529644
2693
車があなたの疲労度合いを
感知できたら―
09:04
or perhapsおそらく your fridge冷蔵庫
knows知っている that you're stressed強調された,
168
532337
2548
あるいは冷蔵庫が
ストレスを感知して
09:06
so it auto-locksオートロック to prevent防ぐ you
from binge暴力 eating食べる. (Laughter笑い)
169
534885
6066
ばか食いを防ぐために
自動ロックしたらどうでしょうか (笑)
09:12
I would like that, yeah.
170
540951
2717
私は良いと思いますね
09:15
What if, when I was in Cambridgeケンブリッジ,
171
543668
1927
私がケンブリッジにいた頃
09:17
I had accessアクセス to my real-timeリアルタイム
emotion感情 streamストリーム,
172
545595
2313
リアルタイムの
感情ストリームを利用して
09:19
and I could shareシェア that with my family家族
back home in a very naturalナチュラル way,
173
547908
3529
故郷にいる家族と感情を
ごく自然に―
09:23
just like I would've〜するだろう if we were all
in the same同じ roomルーム together一緒に?
174
551437
3971
まるで同じ部屋にいるように
共有できたらどうだったでしょう?
09:27
I think five years down the lineライン,
175
555408
3142
今から5年もすれば
09:30
all our devicesデバイス are going
to have an emotion感情 chipチップ,
176
558550
2337
電子機器はすべて
感情チップを搭載し
09:32
and we won't〜されません remember思い出す what it was like
when we couldn'tできなかった just frown眉をひそめる at our deviceデバイス
177
560887
4064
電子機器に向かって 眉をひそめれば
「気に入らなかったんだね」と
09:36
and our deviceデバイス would say, "Hmmうーん,
you didn't like that, did you?"
178
564951
4249
言ってくれなかった昔のことなど
忘れてしまうでしょう
09:41
Our biggest最大 challengeチャレンジ is that there are
so manyたくさんの applicationsアプリケーション of this technology技術,
179
569200
3761
最大の難関はこのテクノロジーには
非常に多くの使い道があり
09:44
my teamチーム and I realize実現する that we can't
buildビルドする them all ourselves自分自身,
180
572961
2903
私たちのチームだけでは
全てを開発できないと気づいたことです
09:47
so we've私たちは made this technology技術 available利用可能な
so that other developers開発者
181
575864
3496
そこで このテクノロジーを利用可能にして
他の開発者たちが
09:51
can get building建物 and get creative創造的な.
182
579360
2114
独自に開発を進められるようにしました
09:53
We recognize認識する that
there are potential潜在的な risksリスク
183
581474
4086
私たちはリスクの可能性も
認識しています
09:57
and potential潜在的な for abuse乱用,
184
585560
2067
濫用されるリスクです
09:59
but personally個人的に, having持つ spent過ごした
manyたくさんの years doing this,
185
587627
2949
でも個人的には
何年も携わってきて
10:02
I believe that the benefits利点 to humanity人類
186
590576
2972
心の知能指数の高い
テクノロジーによって
10:05
from having持つ emotionally感情的に
intelligentインテリジェントな technology技術
187
593548
2275
人類にもたらされる利益の方が
10:07
far遠い outweighより重要 the potential潜在的な for misuse悪用.
188
595823
3576
濫用のリスクよりも
ずっと多いと考えています
10:11
And I invite招待する you all to be
part of the conversation会話.
189
599399
2531
皆さんにも対話に参加をお願いします
10:13
The more people who know
about this technology技術,
190
601930
2554
このテクノロジーを
知っている人が多ければ多いほど
10:16
the more we can all have a voice音声
in how it's beingであること used.
191
604484
3177
使用法に関する意見を
多く得ることができます
10:21
So as more and more
of our lives人生 become〜になる digitalデジタル,
192
609081
4574
私たちの生活が
さらにデジタルなものになるにつれ
10:25
we are fighting戦う a losing負け battle戦い
trying試す to curb縁石 our usage使用法 of devicesデバイス
193
613655
3498
私たちは感情を再び手にするために
電子機器の使用を控えようという
10:29
in order注文 to reclaim再生する our emotions感情.
194
617153
2229
負けが明らかな闘いに挑んでいます
10:32
So what I'm trying試す to do instead代わりに
is to bring持参する emotions感情 into our technology技術
195
620622
3914
その代わりに 私が試みているのは
テクノロジーに感情を導入すること
10:36
and make our technologiesテクノロジー more responsive応答性の.
196
624536
2229
そしてテクノロジーが
反応するものにすることです
10:38
So I want those devicesデバイス
that have separated分離された us
197
626765
2670
私たちを引き離した電子機器によって
10:41
to bring持参する us back together一緒に.
198
629435
2462
再び人々を
結びつけようとしているのです
10:43
And by humanizing人化 technology技術,
we have this goldenゴールデン opportunity機会
199
631897
4588
テクノロジーに人間性を付与することで
私たちには
10:48
to reimagine再想像する how we
connect接続する with machines機械,
200
636485
3297
機械との関わりを見つめ直す
絶好の機会が与えられています
10:51
and thereforeしたがって、, how we, as human人間 beings存在,
201
639782
4481
つまり人間として 私たちが
10:56
connect接続する with one another別の.
202
644263
1904
いかにお互いとつながり合うかを
見つめ直す機会なのです
10:58
Thank you.
203
646167
2160
ありがとうございました
11:00
(Applause拍手)
204
648327
3313
(拍手)
Translated by Moe Shoji
Reviewed by Tamami Inoue

▲Back to top

ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com