sponsored links
TEDWomen 2015

Rana el Kaliouby: This app knows how you feel -- from the look on your face

ラナ・エル・カリウビ: 顔を見るだけで感情がわかるアプリ

May 28, 2015

感情は私たちの生活のあらゆる面に影響します―学び方やコミュニケーションの取り方、決定の仕方まで様々です。しかし、デジタルにおいてはそれが欠けています。私たちが用いる電子機器やアプリは、私たちの感情を知りようがないのです。科学者のラナ・エル・カリウビは、これを変えようとしています。彼女は顔の表情を読み取って、それに対応する感情と結びつける、強力な新しいテクノロジーを実演します。この「感情エンジン」には大きな意味があり、私たちが機械と関わる方法だけでなく、お互いに交流する方法をも変える可能性がある、と彼女は言います。

Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware. Full bio

sponsored links
Double-click the English subtitles below to play the video.
Our emotions influence
every aspect of our lives,
私たちの感情は
生活のあらゆる面に影響します
00:12
from our health and how we learn,
to how we do business and make decisions,
健康や学び方
ビジネスのやり方や決定の仕方まで
00:16
big ones and small.
大小様々です
00:19
Our emotions also influence
how we connect with one another.
感情は私たちがお互いと
結びつく方法にも影響します
00:22
We've evolved to live
in a world like this,
今まで私たちは
このような世界に順応してきましたが
00:26
but instead, we're living
more and more of our lives like this --
現在の世界は どんどん
このようになってきています
00:30
this is the text message
from my daughter last night --
これは昨晩 娘から届いた
携帯メールです
00:35
in a world that's devoid of emotion.
感情のない世界ですね
00:38
So I'm on a mission to change that.
私はそれを変えるべく活動しています
00:41
I want to bring emotions
back into our digital experiences.
デジタルでの体験に
感情を取り戻したいのです
00:43
I started on this path 15 years ago.
この道を歩み始めたのは15年前―
00:48
I was a computer scientist in Egypt,
エジプトでコンピューターサイエンスを
学んでいたときのことです
00:51
and I had just gotten accepted to
a Ph.D. program at Cambridge University.
ケンブリッジ大学の博士課程に
合格したところでした
00:53
So I did something quite unusual
私が取った行動は
00:57
for a young newlywed Muslim Egyptian wife:
結婚したての若いイスラム教徒の
エジプト人妻としてはかなり珍しいものでした
00:59
With the support of my husband,
who had to stay in Egypt,
エジプトに残らねばならない
夫のサポートを得て
01:05
I packed my bags and I moved to England.
私は荷物をまとめて
イングランドにやってきたのです
01:08
At Cambridge, thousands of miles
away from home,
故郷から何千キロも離れた
ケンブリッジで
01:11
I realized I was spending
more hours with my laptop
私は自分が他の人と過ごすよりも
長い時間を
01:14
than I did with any other human.
ノートパソコンと過ごしていることに
気づきました
01:18
Yet despite this intimacy, my laptop
had absolutely no idea how I was feeling.
とても近しいものでありながら
ノートパソコンに私の感情は分かりません
01:20
It had no idea if I was happy,
私が嬉しかろうと
01:25
having a bad day, or stressed, confused,
ストレスを抱えて混乱し
嫌な1日を過ごそうと伝わらないので
01:28
and so that got frustrating.
歯がゆい気持ちになりました
01:31
Even worse, as I communicated
online with my family back home,
さらに悪いことに オンラインで
家族と会話をしていても
01:35
I felt that all my emotions
disappeared in cyberspace.
感情がすべてサイバー空間に
消えてしまうような気がしました
01:41
I was homesick, I was lonely,
and on some days I was actually crying,
ホームシックで寂しい思いをし
泣いたときもありましたが
01:44
but all I had to communicate
these emotions was this.
感情を表す手段はこれだけでした
01:49
(Laughter)
(笑)
01:54
Today's technology
has lots of I.Q., but no E.Q.;
現在のテクノロジーには
IQはあってもEQはありません
01:56
lots of cognitive intelligence,
but no emotional intelligence.
知能指数は高くても
心の知能指数はないのです
02:01
So that got me thinking,
そこで私は考えました
02:04
what if our technology
could sense our emotions?
テクノロジーが感情を
感じ取れるとしたらどうだろう?
02:06
What if our devices could sense
how we felt and reacted accordingly,
心の知能指数を持った友人のように
電子機器が感情を読み取って
02:10
just the way an emotionally
intelligent friend would?
それに応じて反応したらどうだろう?
02:14
Those questions led me and my team
これらの問いによって
私とチームは
02:18
to create technologies that can read
and respond to our emotions,
感情を読み取り 対応できる
テクノロジーを開発するに至り
02:22
and our starting point was the human face.
私たちの出発点は人間の顔でした
02:26
So our human face happens to be
one of the most powerful channels
人間の顔は
社会的・感情的状態を伝えるのに
02:30
that we all use to communicate
social and emotional states,
誰もが用いている
非常に強力な手段のひとつです
02:33
everything from enjoyment, surprise,
喜びや驚き―
02:37
empathy and curiosity.
共感や好奇心まで様々あります
02:40
In emotion science, we call each
facial muscle movement an action unit.
感情科学では顔面筋肉の動き
それぞれをアクション・ユニットと言います
02:44
So for example, action unit 12,
例えば アクション・ユニット12は
02:49
it's not a Hollywood blockbuster,
ハリウッド映画のタイトルではありませんよ
02:52
it is actually a lip corner pull,
which is the main component of a smile.
これは口の端を引く動きで
笑顔の主な要素です
02:54
Try it everybody. Let's get
some smiles going on.
試してみて下さい
笑顔になりますね
02:58
Another example is action unit 4.
It's the brow furrow.
もうひとつの例はアクション・ユニット4で
これは眉をひそめる動きです
03:01
It's when you draw your eyebrows together
両眉をひそめると
03:03
and you create all
these textures and wrinkles.
凹凸やしわができますね
03:06
We don't like them, but it's
a strong indicator of a negative emotion.
好まれるものではありませんが
否定的な感情を強く示すサインです
03:08
So we have about 45 of these action units,
こうしたアクション・ユニットが45個あり
03:12
and they combine to express
hundreds of emotions.
これらが組み合わさって
何百もの感情を表します
03:14
Teaching a computer to read
these facial emotions is hard,
こうした顔の表情をコンピューターに
読み取らせるのは困難です
03:18
because these action units,
they can be fast, they're subtle,
アクション・ユニットは動きが素早く
加減が微妙ですし
03:22
and they combine in many different ways.
様々に組み合わせられるためです
03:25
So take, for example,
the smile and the smirk.
例えば 笑顔と
ぎこちない作り笑いです
03:27
They look somewhat similar,
but they mean very different things.
どこかしら似てはいますが
意味合いは随分違います
03:31
(Laughter)
(笑)
03:35
So the smile is positive,
笑顔はポジティブで
03:36
a smirk is often negative.
わざと作った笑顔は
ネガティブなことが多いです
03:39
Sometimes a smirk
can make you become famous.
作り笑いで有名になることもあります
03:41
But seriously, it's important
for a computer to be able
ですが真面目な話
コンピューターが
03:44
to tell the difference
between the two expressions.
2つの表情の違いを
読み取れることが重要です
03:47
So how do we do that?
では どうすればいいでしょう?
03:50
We give our algorithms
私達の開発したアルゴリズムに
03:52
tens of thousands of examples
of people we know to be smiling,
純粋な笑顔を見せている人々の例を
何万例も与えます
03:54
from different ethnicities, ages, genders,
人種 年齢 性別も様々です
03:58
and we do the same for smirks.
そして作り笑いにも
同様のことを行います
04:01
And then, using deep learning,
するとディープラーニング(深層学習)で
04:04
the algorithm looks for all these
textures and wrinkles
アルゴリズムが
顔面に起こる凹凸やしわや
04:05
and shape changes on our face,
形状の変化を探し
04:08
and basically learns that all smiles
have common characteristics,
笑顔には共通の特徴があり
04:11
all smirks have subtly
different characteristics.
作り笑いには微妙に異なる
特徴があることを学習します
04:14
And the next time it sees a new face,
以降は 未知の顔に遭遇しても
04:17
it essentially learns that
基本的に この顔が
04:19
this face has the same
characteristics of a smile,
笑顔の特徴を
備えていることを認識し
04:22
and it says, "Aha, I recognize this.
This is a smile expression."
「あぁわかった これは笑顔ですね」
と言うのです
04:25
So the best way to demonstrate
how this technology works
このテクノロジーの働きを
お見せする一番の方法は
04:30
is to try a live demo,
ここで実演することです
04:33
so I need a volunteer,
preferably somebody with a face.
誰か手伝ってもらえませんか
顔がある人がいいのですが
04:35
(Laughter)
(笑)
04:39
Cloe's going to be our volunteer today.
クロイに手伝ってもらいましょう
04:41
So over the past five years, we've moved
from being a research project at MIT
ここ5年間で私たちはMITでの
研究プロジェクトから
04:45
to a company,
企業へと変化しました
04:49
where my team has worked really hard
to make this technology work,
私のチームはこのテクノロジーが
いわば「外の世界で」
04:50
as we like to say, in the wild.
機能するよう努力してきました
04:53
And we've also shrunk it so that
the core emotion engine
またコンパクトにすることで
感情エンジンの核となる部分が
04:56
works on any mobile device
with a camera, like this iPad.
iPadのようなカメラ付き携帯機器で
使えるようにしました
04:59
So let's give this a try.
では やってみましょう
05:02
As you can see, the algorithm
has essentially found Cloe's face,
ご覧のように アルゴリズムが
クロイの顔を認識しました
05:06
so it's this white bounding box,
白い四角で示されており
05:10
and it's tracking the main
feature points on her face,
顔の主な部分を追跡しています
05:12
so her eyebrows, her eyes,
her mouth and her nose.
眉、目、口や鼻などです
05:14
The question is,
can it recognize her expression?
さあ 表情を読み取れるでしょうか?
05:17
So we're going to test the machine.
機械を試してみましょう
05:20
So first of all, give me your poker face.
Yep, awesome. (Laughter)
まず ポーカーフェイスを見せて下さい
いいですね (笑)
05:22
And then as she smiles,
this is a genuine smile, it's great.
それから笑顔です
これは心からの笑顔ですね
05:26
So you can see the green bar
go up as she smiles.
彼女が笑うと
緑色のバーが上がるのが分かります
05:29
Now that was a big smile.
満面の笑みでしたね
05:31
Can you try a subtle smile
to see if the computer can recognize?
コンピューターが認識できるか
微笑みを作ってみましょう
05:32
It does recognize subtle smiles as well.
微笑みでも認識できますね
05:35
We've worked really hard
to make that happen.
これには大変苦労しました
05:38
And then eyebrow raised,
indicator of surprise.
眉が上がると
驚きの表情のサインです
05:40
Brow furrow, which is
an indicator of confusion.
眉をひそめると
困惑を示すサインです
05:43
Frown. Yes, perfect.
眉をひそめて
完璧です
05:47
So these are all the different
action units. There's many more of them.
これらは全て異なるアクション・ユニットで
まだ他にも多くありますが
05:51
This is just a slimmed-down demo.
ほんの一部だけお見せしました
05:55
But we call each reading
an emotion data point,
それぞれの感情のデータポイントを
読み取らせることができ
05:57
and then they can fire together
to portray different emotions.
それらが合わさって
様々な感情を表現することができます
06:00
So on the right side of the demo --
look like you're happy.
デモの右側には―
喜びの表情を見せて
06:03
So that's joy. Joy fires up.
これが喜びですね
「喜び」の項目が上がりました
06:07
And then give me a disgust face.
それから 嫌悪の表情を見せて下さい
06:09
Try to remember what it was like
when Zayn left One Direction.
ゼインがワン・ダイレクションを
脱退したのを思い出して
06:11
(Laughter)
(笑)
06:15
Yeah, wrinkle your nose. Awesome.
鼻にもしわが寄ります
いいですね
06:16
And the valence is actually quite
negative, so you must have been a big fan.
感情価がかなりネガティブでしたから
熱心なファンだったのでしょう
06:21
So valence is how positive
or negative an experience is,
「感情価」は経験がいかにポジティブ
またはネガティブであったか
06:25
and engagement is how
expressive she is as well.
そして「関与度」は
いかに強く表現したかです
06:27
So imagine if Cloe had access
to this real-time emotion stream,
クロイがこのリアルタイムでの
感情ストリームを利用でき
06:30
and she could share it
with anybody she wanted to.
それを他の人と共有できると
想像してみて下さい
06:33
Thank you.
どうもありがとう
06:36
(Applause)
(拍手)
06:39
So, so far, we have amassed
12 billion of these emotion data points.
これまでに120億の
感情データポイントを収集しました
06:45
It's the largest emotion
database in the world.
世界最大の感情データベースです
06:50
We've collected it
from 2.9 million face videos,
290万の顔の写ったビデオから
集めましたが
06:53
people who have agreed
to share their emotions with us,
感情を共有することに
同意した人たち―
06:56
and from 75 countries around the world.
世界75か国から集まりました
06:59
It's growing every day.
これは日々 増えています
07:02
It blows my mind away
感情というごく個人的なものを
07:04
that we can now quantify something
as personal as our emotions,
今やこれほどの規模で
数量化できるなんて
07:06
and we can do it at this scale.
私の想像を超えています
07:09
So what have we learned to date?
では 今日までにわかったことは
何でしょうか?
07:11
Gender.
ジェンダーです
07:14
Our data confirms something
that you might suspect.
皆さんが薄々気づいていることを
データが立証しました
07:17
Women are more expressive than men.
女性の方が男性より表情豊かです
07:20
Not only do they smile more,
their smiles last longer,
より頻繁に笑顔になるだけでなく
笑顔が持続します
07:22
and we can now really quantify
what it is that men and women
今や男性と女性が
異なる反応を見せるものについて
07:25
respond to differently.
数量化することができます
07:28
Let's do culture: So in the United States,
文化の違いではどうでしょう
アメリカでは―
07:30
women are 40 percent
more expressive than men,
女性は男性より40%表情豊かですが
07:32
but curiously, we don't see any difference
in the U.K. between men and women.
面白いことにイギリスでは
男女の差異はありません
07:35
(Laughter)
(笑)
07:39
Age: People who are 50 years and older
年齢です
50歳以上の人々は
07:43
are 25 percent more emotive
than younger people.
若者よりも25%さらに感情的です
07:47
Women in their 20s smile a lot more
than men the same age,
20代の女性は同じ年代の男性よりも
ずっと頻繁に笑顔になり
07:51
perhaps a necessity for dating.
これはデートで
必要となるのかもしれません
07:55
But perhaps what surprised us
the most about this data
このデータで最も驚かされるのは
07:59
is that we happen
to be expressive all the time,
いかに私たちが常に
表情豊かであるかと言うことです
08:02
even when we are sitting
in front of our devices alone,
電子機器の前に
独りで座っているときでもです
08:05
and it's not just when we're watching
cat videos on Facebook.
Facebookで猫のビデオを
見ているときだけではありません
08:08
We are expressive when we're emailing,
texting, shopping online,
メールや携帯メールを書くときや
オンラインショッピング―
08:12
or even doing our taxes.
確定申告の準備中でも
表情豊かなのです
08:15
Where is this data used today?
このデータは今
どこで使われているのでしょう?
08:17
In understanding how we engage with media,
メディアとの関わり方の研究―
08:19
so understanding virality
and voting behavior;
つまりバイラリティーや
投票行動などの理解や
08:22
and also empowering
or emotion-enabling technology,
また 能力を高めたり
感情を利用するテクノロジーにも使えます
08:24
and I want to share some examples
that are especially close to my heart.
私が特に大切に思う例を
お話ししたいと思います
08:27
Emotion-enabled wearable glasses
can help individuals
感情を理解する
眼鏡型端末があれば
08:33
who are visually impaired
read the faces of others,
視覚障害者が
他者の表情を読むのに役立ちます
08:36
and it can help individuals
on the autism spectrum interpret emotion,
自閉症のスペクトラムの人が
非常に苦労している―
08:39
something that they really struggle with.
感情の理解にも役立ちます
08:43
In education, imagine
if your learning apps
教育においては学習アプリが
08:47
sense that you're confused and slow down,
生徒の困惑や退屈の表情に気付き
08:50
or that you're bored, so it's sped up,
教室で熟練の教師がするように
08:53
just like a great teacher
would in a classroom.
学習のペースを
調整することができるでしょう
08:55
What if your wristwatch tracked your mood,
腕時計があなたの気分をモニターしたり
08:58
or your car sensed that you're tired,
車があなたの疲労度合いを
感知できたら―
09:01
or perhaps your fridge
knows that you're stressed,
あるいは冷蔵庫が
ストレスを感知して
09:04
so it auto-locks to prevent you
from binge eating. (Laughter)
ばか食いを防ぐために
自動ロックしたらどうでしょうか (笑)
09:06
I would like that, yeah.
私は良いと思いますね
09:12
What if, when I was in Cambridge,
私がケンブリッジにいた頃
09:15
I had access to my real-time
emotion stream,
リアルタイムの
感情ストリームを利用して
09:17
and I could share that with my family
back home in a very natural way,
故郷にいる家族と感情を
ごく自然に―
09:19
just like I would've if we were all
in the same room together?
まるで同じ部屋にいるように
共有できたらどうだったでしょう?
09:23
I think five years down the line,
今から5年もすれば
09:27
all our devices are going
to have an emotion chip,
電子機器はすべて
感情チップを搭載し
09:30
and we won't remember what it was like
when we couldn't just frown at our device
電子機器に向かって 眉をひそめれば
「気に入らなかったんだね」と
09:32
and our device would say, "Hmm,
you didn't like that, did you?"
言ってくれなかった昔のことなど
忘れてしまうでしょう
09:36
Our biggest challenge is that there are
so many applications of this technology,
最大の難関はこのテクノロジーには
非常に多くの使い道があり
09:41
my team and I realize that we can't
build them all ourselves,
私たちのチームだけでは
全てを開発できないと気づいたことです
09:44
so we've made this technology available
so that other developers
そこで このテクノロジーを利用可能にして
他の開発者たちが
09:47
can get building and get creative.
独自に開発を進められるようにしました
09:51
We recognize that
there are potential risks
私たちはリスクの可能性も
認識しています
09:53
and potential for abuse,
濫用されるリスクです
09:57
but personally, having spent
many years doing this,
でも個人的には
何年も携わってきて
09:59
I believe that the benefits to humanity
心の知能指数の高い
テクノロジーによって
10:02
from having emotionally
intelligent technology
人類にもたらされる利益の方が
10:05
far outweigh the potential for misuse.
濫用のリスクよりも
ずっと多いと考えています
10:07
And I invite you all to be
part of the conversation.
皆さんにも対話に参加をお願いします
10:11
The more people who know
about this technology,
このテクノロジーを
知っている人が多ければ多いほど
10:13
the more we can all have a voice
in how it's being used.
使用法に関する意見を
多く得ることができます
10:16
So as more and more
of our lives become digital,
私たちの生活が
さらにデジタルなものになるにつれ
10:20
we are fighting a losing battle
trying to curb our usage of devices
私たちは感情を再び手にするために
電子機器の使用を控えようという
10:25
in order to reclaim our emotions.
負けが明らかな闘いに挑んでいます
10:28
So what I'm trying to do instead
is to bring emotions into our technology
その代わりに 私が試みているのは
テクノロジーに感情を導入すること
10:32
and make our technologies more responsive.
そしてテクノロジーが
反応するものにすることです
10:36
So I want those devices
that have separated us
私たちを引き離した電子機器によって
10:38
to bring us back together.
再び人々を
結びつけようとしているのです
10:41
And by humanizing technology,
we have this golden opportunity
テクノロジーに人間性を付与することで
私たちには
10:43
to reimagine how we
connect with machines,
機械との関わりを見つめ直す
絶好の機会が与えられています
10:48
and therefore, how we, as human beings,
つまり人間として 私たちが
10:51
connect with one another.
いかにお互いとつながり合うかを
見つめ直す機会なのです
10:56
Thank you.
ありがとうございました
10:57
(Applause)
(拍手)
11:00
Translator:Moe Shoji
Reviewer:Tamami Inoue

sponsored links

Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

sponsored links

If you need translations, you can install "Google Translate" extension into your Chrome Browser.
Furthermore, you can change playback rate by installing "Video Speed Controller" extension.

Data provided by TED.

This website is owned and operated by Tokyo English Network.
The developer's blog is here.