ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com
TEDWomen 2015

Rana el Kaliouby: This app knows how you feel -- from the look on your face

라나 엘 칼리오우비 (Rana el Kaliouby): 이 응용프로그램은 당신의 기분을 알아요— 당신의 표정을 통해서요.

Filmed:
1,613,290 views

감정은 학습, 의사소통, 의사결정 방법 등 우리 삶의 모든 면에 영향을 줍니다. 그러나 디지털 세계에는 그런 것들이 부재합니다. 우리가 상호작용하는 장치나 응용프로그램은 우리가 어떤 것을 느끼는지 알 길이 없습니다. 과학자 라나 엘 칼리오우비는 그것을 바꾸는 목표를 가지고 있습니다. 그녀는 여러분의 얼굴의 표정을 읽고 상응하는 감정을 일치시키는 강력하고 새로운 기술을 보여줍니다. 이 "감정 엔진" 은 큰 의미을 가진다고 그녀는 말합니다. 그리고 우리가 기계들과 상호작용하는 방법을 바꿀 수 있다고 합니다.
- Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware. Full bio

Double-click the English transcript below to play the video.

00:12
Our emotions감정 influence영향
every...마다 aspect양상 of our lives,
0
556
4017
우리의 감정들은
삶의 모든 면에 영향을 줍니다,
00:16
from our health건강 and how we learn배우다,
to how we do business사업 and make decisions결정들,
1
4573
3576
우리의 건강과 학습부터
사업의 방식과 의사결정까지요.
00:20
big ones그들 and small작은.
2
8149
1773
큰 일이든 작은 일이든지요.
00:22
Our emotions감정 also또한 influence영향
how we connect잇다 with one another다른.
3
10672
3490
또한 감정은 우리가 서로를 어떻게
연결시키는지 영향을 주죠.
00:27
We've우리는 evolved진화 된 to live살고 있다
in a world세계 like this,
4
15132
3976
우리는 이런 세상에서
살기위해 진화해왔죠.
00:31
but instead대신에, we're living생활
more and more of our lives like this --
5
19108
4319
그러나 대신에 우리는 점점 더
이런 삶 속에 살고 있습니다.
어젯밤 제 딸의 문자 메세지입니다.
00:35
this is the text본문 message메시지
from my daughter last night --
6
23427
3134
00:38
in a world세계 that's devoid결여 된 of emotion감정.
7
26561
2740
감정이 결여된 세상이죠.
00:41
So I'm on a mission사명 to change변화 that.
8
29301
1951
저는 그것을 바꾸는 과제에 착수했어요.
00:43
I want to bring가져오다 emotions감정
back into our digital디지털 experiences경험담.
9
31252
4091
감정을 디지털 공간의
경험안에 도입시키고 싶었죠.
00:48
I started시작한 on this path통로 15 years연령 ago...전에.
10
36223
3077
전 이걸 15년 전에 시작했어요.
저는 이집트에서 컴퓨터 공학자였고
00:51
I was a computer컴퓨터 scientist과학자 in Egypt이집트,
11
39300
2066
00:53
and I had just gotten얻은 accepted받아 들인 to
a PhPh.D. program프로그램 at Cambridge케임브리지 University대학.
12
41366
4505
막 캠브리지의 박사 학위
과정에 입학했었습니다.
00:57
So I did something quite아주 unusual별난
13
45871
2113
그래서 저는 좀 다른 것을 했습니다.
00:59
for a young어린 newlywed신혼 부부 Muslim이슬람교도 Egyptian이집트 사람 wife아내:
14
47984
4225
어린 신혼의 무슬림
이집트 부인으로서요.
01:05
With the support지원하다 of my husband남편,
who had to stay머무르다 in Egypt이집트,
15
53599
2999
이집트에 남아야했던 남편의 지원 덕분에
01:08
I packed포장 된 my bags바지 and I moved움직이는 to England영국.
16
56598
3018
저는 짐을 꾸려 영국으로 갔습니다.
01:11
At Cambridge케임브리지, thousands수천 of miles마일
away from home,
17
59616
3228
고향에서 수천 마일 떨어진 캠브리지에서
01:14
I realized깨달은 I was spending지출
more hours시간 with my laptop휴대용 퍼스널 컴퓨터
18
62844
3413
사람들과 지내는 시간보다 많은 시간을
노트북과 보내고 있음을 알았습니다.
01:18
than I did with any other human인간의.
19
66257
2229
이런 친밀성에도 불구하고
제 노트북은 저의 감정을 알 수 없었죠.
01:20
Yet아직 despite무례 this intimacy친밀, my laptop휴대용 퍼스널 컴퓨터
had absolutely전혀 no idea생각 how I was feeling감각.
20
68486
4853
01:25
It had no idea생각 if I was happy행복,
21
73339
3211
이것은 제가 행복한지, 기분이 안 좋은지,
01:28
having a bad나쁜 day, or stressed압박받는, confused혼란스러워하는,
22
76550
2988
스트레스를 받는지, 혼란스러운지
알지 못했습니다.
01:31
and so that got frustrating실망한.
23
79538
2922
그게 답답했어요.
01:35
Even worse보다 나쁜, as I communicated전달 된
online온라인 with my family가족 back home,
24
83600
5231
더 안 좋은 상황은 온라인상으로
고향 가족들과 대화할 때
01:41
I felt펠트 that all my emotions감정
disappeared사라진 in cyberspace사이버 공간.
25
89421
3282
제 모든 감정들이 사이버 공간에서
사라진다고 느껴졌어요.
01:44
I was homesick향수병, I was lonely고독한,
and on some days I was actually사실은 crying외치는,
26
92703
5155
저는 향수병을 앓았고, 외로웠으며,
그리고 어떤날은 정말로 울었죠.
01:49
but all I had to communicate소통하다
these emotions감정 was this.
27
97858
4928
그러나 제가 표현할 수 있는 방법은
이것뿐이었습니다.
01:54
(Laughter웃음)
28
102786
2020
(웃음)
01:56
Today's오늘의 technology과학 기술
has lots of I.Q., but no E.Q.;
29
104806
4974
오늘날의 기술은 높은 I.Q를
가지고 있습니다.
그러나 E.Q는 없어요.
인지 지능이 있으나 감성 지능은 없죠.
02:01
lots of cognitive인지 적 intelligence지성,
but no emotional정서적 인 intelligence지성.
30
109780
3176
02:04
So that got me thinking생각,
31
112956
2197
그래서 생각하게 됐습니다.
02:07
what if our technology과학 기술
could sense감각 our emotions감정?
32
115153
3624
기술이 우리의 감정을 느낀다면 어떨까?
02:10
What if our devices장치들 could sense감각
how we felt펠트 and reacted반응 한 accordingly따라서,
33
118777
4076
장비들이 우리의 감정을 느끼고
그에 따라 반응한다면 어떨까?
02:14
just the way an emotionally감정적으로
intelligent지적인 friend친구 would?
34
122853
3013
감수성이 있는 친구가
반응하듯이 말이죠.
02:18
Those questions질문들 led me and my team
35
126666
3564
이런 의문들 때문에 저와 동료들이
02:22
to create몹시 떠들어 대다 technologies기술 that can read독서
and respond응창 성가 to our emotions감정,
36
130230
4377
감정을 읽고 반응하는
기술을 만들었습니다.
02:26
and our starting출발 point포인트 was the human인간의 face얼굴.
37
134607
3090
우리의 시작점은 인간의 얼굴이었죠.
02:30
So our human인간의 face얼굴 happens일이 to be
one of the most가장 powerful강한 channels채널
38
138577
3173
인간의 얼굴은 하나의 강력한 경로인데
02:33
that we all use to communicate소통하다
social사회적인 and emotional정서적 인 states,
39
141750
4016
사회적, 감정적 상태의
소통을 위해 모두가 사용하죠.
02:37
everything from enjoyment향유, surprise놀람,
40
145766
3010
즐거움, 놀람, 공감과
호기심같은 감정들입니다.
02:40
empathy감정 이입 and curiosity호기심.
41
148776
4203
02:44
In emotion감정 science과학, we call each마다
facial얼굴 마사지 muscle근육 movement운동 an action동작 unit단위.
42
152979
4928
감정 과학에서 각 얼굴 근육의 움직임을
활동 단위라고 합니다.
02:49
So for example, action동작 unit단위 12,
43
157907
2925
예를들어, 활동 단위 12번은
02:52
it's not a Hollywood할리우드 blockbuster블록 버스터,
44
160832
2038
이건 헐리우드 대작이 아니예요.
02:54
it is actually사실은 a lip말뿐인 corner모서리 pull손잡이,
which어느 is the main본관 component구성 요소 of a smile미소.
45
162870
3442
입술의 가장자리를 당기는 것입니다.
웃음의 주요 구성 부분이죠.
02:58
Try it everybody각자 모두. Let's get
some smiles웃음 going on.
46
166312
2988
모두 시도해보세요. 웃어 보세요.
다른 예로 활동 단위 4번은
눈썹을 찡그리는 것입니다.
03:01
Another다른 example is action동작 unit단위 4.
It's the brow이마 furrow밭고랑.
47
169300
2654
03:03
It's when you draw무승부 your eyebrows눈썹 together함께
48
171954
2238
당신이 두 눈썹을 함께 모을 때
이런 느낌과 주름살이 생깁니다.
03:06
and you create몹시 떠들어 대다 all
these textures텍스처 and wrinkles주름.
49
174192
2267
우리가 별로 좋아하지 않죠.
03:08
We don't like them, but it's
a strong강한 indicator지시자 of a negative부정 emotion감정.
50
176459
4295
그건 부정적 감정의 강한 지표입니다.
03:12
So we have about 45 of these action동작 units단위,
51
180754
2206
약 45개의 활동 단위가 있어요.
03:14
and they combine콤바인 to express표하다
hundreds수백 of emotions감정.
52
182960
3390
조합해서 수백개의 감정표현이 생깁니다.
03:18
Teaching가르치는 a computer컴퓨터 to read독서
these facial얼굴 마사지 emotions감정 is hard단단한,
53
186350
3901
이런 표정을 읽도록 컴퓨터를
가르치는 것은 힘듭니다.
03:22
because these action동작 units단위,
they can be fast빠른, they're subtle세밀한,
54
190251
2972
활동 단위들은 빠를 수도 있고,
미묘할 수 도 있으며
03:25
and they combine콤바인 in many많은 different다른 ways.
55
193223
2554
수 많은 방법으로 조합되기 때문입니다.
03:27
So take, for example,
the smile미소 and the smirk능글 맞은 웃음.
56
195777
3738
예로 웃음과 억지웃음을 들어봅시다.
03:31
They look somewhat약간 similar비슷한,
but they mean very different다른 things.
57
199515
3753
그것들은 다소 비슷해 보이죠.
그러나 매우 의미가 다릅니다.
03:35
(Laughter웃음)
58
203268
1718
(웃음)
03:36
So the smile미소 is positive,
59
204986
3004
웃음은 긍정적이고,
억지웃음은 보통은 부정적입니다.
03:39
a smirk능글 맞은 웃음 is often자주 negative부정.
60
207990
1270
03:41
Sometimes때때로 a smirk능글 맞은 웃음
can make you become지다 famous유명한.
61
209260
3876
가끔 억지웃음으로
유명해질 수 있어요.
03:45
But seriously진지하게, it's important중대한
for a computer컴퓨터 to be able할 수 있는
62
213136
2824
농담이 아니라 컴퓨터가 두 표정의 차이를
구별하는 것은 중요합니다.
03:47
to tell the difference
between중에서 the two expressions표현.
63
215960
2855
그래서 저희는 어떻게 했을까요?
03:50
So how do we do that?
64
218815
1812
03:52
We give our algorithms알고리즘
65
220627
1787
저희는 컴퓨터 알고리즘에
03:54
tens수십 of thousands수천 of examples예제들
of people we know to be smiling웃고있는,
66
222414
4110
십만개의 웃는 사람들
예시를 입력했습니다.
03:58
from different다른 ethnicities인종, ages나이, genders성별,
67
226524
3065
인종, 나이, 성별이 다양합니다.
04:01
and we do the same같은 for smirks웃음.
68
229589
2811
억지웃음도 그렇게 했습니다.
딥 러닝 인공지능을 사용해서
04:04
And then, using~을 사용하여 deep깊은 learning배우기,
69
232400
1554
04:05
the algorithm연산 looks외모 for all these
textures텍스처 and wrinkles주름
70
233954
2856
알고리즘이 느낌과 주름살,
얼굴의 형태 변화를 찾습니다.
04:08
and shape모양 changes변화들 on our face얼굴,
71
236810
2580
04:11
and basically원래 learns배우다 that all smiles웃음
have common공유지 characteristics형질,
72
239390
3202
모든 웃는 얼굴에 공통적 특징이
있다는 것을 학습하게 됩니다.
04:14
all smirks웃음 have subtly미묘하게
different다른 characteristics형질.
73
242592
3181
모든 억지웃음은 미묘하게
다른 특징을 가지고 있어요.
04:17
And the next다음 것 time it sees본다 a new새로운 face얼굴,
74
245773
2368
그리고나서 이것은
새로운 얼굴을 관찰합니다.
04:20
it essentially본질적으로 learns배우다 that
75
248141
2299
이 얼굴이 웃음과 같은
특징을 가진다는 것을 알고
04:22
this face얼굴 has the same같은
characteristics형질 of a smile미소,
76
250440
3033
04:25
and it says말한다, "Aha아하, I recognize인정하다 this.
This is a smile미소 expression표현."
77
253473
4278
말합니다."아하, 알겠습니다.
이건 웃는 표정입니다."
04:30
So the best베스트 way to demonstrate시연하다
how this technology과학 기술 works공장
78
258381
2800
이 기술이 어떻게 작동하는지
보여주는 가장 좋은 방법은
04:33
is to try a live살고 있다 demo데모,
79
261181
2136
실제 시연을 시도하는 것이죠.
04:35
so I need a volunteer지원자,
preferably즐겨 somebody어떤 사람 with a face얼굴.
80
263317
3913
저는 지원자 한 분이 필요해요.
얼굴을 가진 분을 선호합니다.
04:39
(Laughter웃음)
81
267230
2334
(웃음)
04:41
Cloe's클로이 going to be our volunteer지원자 today오늘.
82
269564
2771
클로이가 오늘 지원해줄 겁니다.
04:45
So over the past과거 five다섯 years연령, we've우리는 moved움직이는
from being존재 a research연구 project계획 at MITMIT
83
273325
4458
지난 5년 동안,
우리는 MIT에서 연구로 시작해
한 회사를 설립했습니다.
04:49
to a company회사,
84
277783
1156
04:50
where my team has worked일한 really hard단단한
to make this technology과학 기술 work,
85
278939
3192
저희 팀이 이 기술을
실현하려고 노력하는 곳이죠.
04:54
as we like to say, in the wild야생.
86
282131
2409
저희는 야생의 상태라고 불러요.
04:56
And we've우리는 also또한 shrunk수축 된 it so that
the core핵심 emotion감정 engine엔진
87
284540
2670
그리고 우리는 기술을 소형화해서
핵심 감정 엔진이 아이패드처럼 카메라달린
이동식 장치에도 쓸 수 있게 했습니다.
04:59
works공장 on any mobile변하기 쉬운 device장치
with a camera카메라, like this iPadiPad.
88
287210
3320
05:02
So let's give this a try.
89
290530
2786
자, 시도해봅시다.
05:06
As you can see, the algorithm연산
has essentially본질적으로 found녹이다 Cloe's클로이 face얼굴,
90
294756
3924
여러분이 보듯이,
이것은 클로이의 얼굴을
감지하고 있습니다.
05:10
so it's this white화이트 bounding경계 box상자,
91
298680
1692
여기 하얀 테두리가 있죠.
05:12
and it's tracking추적 the main본관
feature특색 points전철기 on her face얼굴,
92
300372
2571
이것은 그녀의 얼굴의
눈썹, 눈, 입과 코와 같은
05:14
so her eyebrows눈썹, her eyes,
her mouth and her nose.
93
302943
2856
주요 특정 부분을 추적하고 있습니다.
05:17
The question문제 is,
can it recognize인정하다 her expression표현?
94
305799
2987
궁금한것은 이게 그녀의 표정을
인식할 수 있을까요?
05:20
So we're going to test테스트 the machine기계.
95
308786
1671
그래서 이 기계를 시험해볼거예요.
05:22
So first of all, give me your poker포커 face얼굴.
Yep, awesome대단한. (Laughter웃음)
96
310457
4186
먼저 무표정을 해주세요.
좋아요, 멋지네요. (웃음)
05:26
And then as she smiles웃음,
this is a genuine성실한 smile미소, it's great.
97
314643
2813
순수한 웃음이죠, 멋져요.
웃을 때 녹색 막대가
증가하는 것을 볼 수 있죠.
05:29
So you can see the green녹색 bar
go up as she smiles웃음.
98
317456
2300
05:31
Now that was a big smile미소.
99
319756
1222
함박웃음이었어요.
미묘한 웃음을 해보시겠어요?
05:32
Can you try a subtle세밀한 smile미소
to see if the computer컴퓨터 can recognize인정하다?
100
320978
3043
컴퓨터가 인식하는지 보려고요.
미묘한 웃음도 인식합니다.
05:36
It does recognize인정하다 subtle세밀한 smiles웃음 as well.
101
324021
2331
이것을 만들려고 정말 노력했어요.
05:38
We've우리는 worked일한 really hard단단한
to make that happen우연히 있다.
102
326352
2125
눈썹이 올라가면 놀람의 표시이죠.
05:40
And then eyebrow눈썹 raised높인,
indicator지시자 of surprise놀람.
103
328477
2962
05:43
Brow이마 furrow밭고랑, which어느 is
an indicator지시자 of confusion혼동.
104
331439
4249
이마의 주름살은 혼란의 표시입니다.
05:47
Frown찌푸린 얼굴. Yes, perfect완전한.
105
335688
4007
찡그려주세요.
네, 완벽하네요.
05:51
So these are all the different다른
action동작 units단위. There's many많은 more of them.
106
339695
3493
이것은 각각 다른 활동단위이고
더 많이 있습니다.
이건 몇가지만 보여드린 겁니다.
05:55
This is just a slimmed-down슬림 다운 demo데모.
107
343188
2032
05:57
But we call each마다 reading독서
an emotion감정 data데이터 point포인트,
108
345220
3148
저희는 각각의 인식을
감정 정보점이라고 합니다.
이것이 함께 여러가지
감정을 나타나게 합니다.
06:00
and then they can fire together함께
to portray그리다 different다른 emotions감정.
109
348368
2969
06:03
So on the right side측면 of the demo데모 --
look like you're happy행복.
110
351337
4653
오른쪽에는 당신이 행복해 보입니다.
이것은 기쁨입니다.
기쁨 기능이 작동하죠.
06:07
So that's joy즐거움. Joy즐거움 fires화재 up.
111
355990
1454
06:09
And then give me a disgust싫음 face얼굴.
112
357444
1927
혐오하는 표정을 지어주세요.
06:11
Try to remember생각해 내다 what it was like
when ZaynZayn left One Direction방향.
113
359371
4272
자인이 One Direction을
탈퇴했다고 생각해보세요.
06:15
(Laughter웃음)
114
363643
1510
(웃음)
네, 코에 주름을 잡아보세요. 좋아요.
06:17
Yeah, wrinkle좋은 생각 your nose. Awesome최고.
115
365153
4342
06:21
And the valence원자가 is actually사실은 quite아주
negative부정, so you must절대로 필요한 것 have been a big fan부채.
116
369495
3731
유의성이 부정적이네요,
그러니까 진짜 팬이었나보네요.
06:25
So valence원자가 is how positive
or negative부정 an experience경험 is,
117
373226
2700
유의성은 한 경험이 얼마나
긍정적 또는 부정적인지 나타냅니다.
06:27
and engagement약혼 is how
expressive나타내는 she is as well.
118
375926
2786
참여도는 얼마나 표현력이
있느냐를 보여줍니다.
06:30
So imagine상상하다 if Cloe클로이 had access접속하다
to this real-time실시간 emotion감정 stream흐름,
119
378712
3414
클로이가 실시간 감정 변화에
접근할 수 있다고 상상해 보세요.
06:34
and she could share it
with anybody아무도 she wanted to.
120
382126
2809
그녀는 이것을 원하는 사람과
공유할 수 있겠죠.
06:36
Thank you.
121
384935
2923
감사합니다.
(박수)
06:39
(Applause박수 갈채)
122
387858
4621
06:45
So, so far멀리, we have amassed축적 된
12 billion십억 of these emotion감정 data데이터 points전철기.
123
393749
5270
지금까지 120억개의
감정 정보점을 수집했습니다.
06:51
It's the largest가장 큰 emotion감정
database데이터 베이스 in the world세계.
124
399019
2611
세상에서 가장 큰 감정 데이터베이스죠.
2,900만개의
얼굴 영상에서 모았습니다.
06:53
We've우리는 collected모은 it
from 2.9 million백만 face얼굴 videos비디오,
125
401630
2963
06:56
people who have agreed동의했다
to share their그들의 emotions감정 with us,
126
404593
2600
감정 공유에 동의한 분들이고
06:59
and from 75 countries국가 around the world세계.
127
407193
3205
세계의 75개국에서 모았습니다.
07:02
It's growing성장하는 every...마다 day.
128
410398
1715
이것은 매일 늘어나고 있습니다.
07:04
It blows불면 my mind마음 away
129
412603
2067
저는 이것이 놀랍습니다.
07:06
that we can now quantify계량하다 something
as personal개인적인 as our emotions감정,
130
414670
3195
지금 우리는 감정과 같은
개인적인 것을 수량화 할 수 있는거죠.
07:09
and we can do it at this scale규모.
131
417865
2235
그리고 이런 규모로 할 수 있습니다.
07:12
So what have we learned배운 to date날짜?
132
420100
2177
최근까지 연구한 것은 무엇일까요?
07:15
Gender성별.
133
423057
2331
성별입니다.
07:17
Our data데이터 confirms확인하다 something
that you might suspect용의자.
134
425388
3646
저희 정보가 여러분이
설마하는 것을 확인시켜 줄 겁니다.
07:21
Women여자들 are more expressive나타내는 than men남자.
135
429034
1857
여자가 남자보다 표현력이 있습니다.
07:22
Not only do they smile미소 more,
their그들의 smiles웃음 last longer더 길게,
136
430891
2683
더 많이 웃고 더 오래 웃어요.
07:25
and we can now really quantify계량하다
what it is that men남자 and women여자들
137
433574
2904
우리는 수량화할 수 있어요.
여성과 남성이 다르게 반응하는 것을요.
07:28
respond응창 성가 to differently다르게.
138
436478
2136
07:30
Let's do culture문화: So in the United유나이티드 States,
139
438614
2290
문화적으로는 미국에서 여성들이
남성보다 40% 더 표현력이 좋아요.
07:32
women여자들 are 40 percent퍼센트
more expressive나타내는 than men남자,
140
440904
3204
07:36
but curiously호기심 많은, we don't see any difference
in the U.K. between중에서 men남자 and women여자들.
141
444108
3645
그런데 신기하게도
영국에서는 차이가 없네요.
07:39
(Laughter웃음)
142
447753
2506
(웃음)
07:43
Age나이: People who are 50 years연령 and older더 오래된
143
451296
4027
나이는요.
50대 혹은 그 이상의 사람들이
젊은 사람들보다 25% 더 감정적입니다.
07:47
are 25 percent퍼센트 more emotive감정적 인
than younger더 젊은 people.
144
455323
3436
20대 여성들은 또래 남성보다
25% 더 많이 웃습니다.
07:51
Women여자들 in their그들의 20s smile미소 a lot more
than men남자 the same같은 age나이,
145
459899
3852
07:55
perhaps혹시 a necessity필요성 for dating데이트.
146
463751
3839
아마 데이트를 위해 필요한 것이겠죠.
하지만 이 자료에서 놀라운 점은
07:59
But perhaps혹시 what surprised놀란 us
the most가장 about this data데이터
147
467590
2617
08:02
is that we happen우연히 있다
to be expressive나타내는 all the time,
148
470207
3203
우리가 언제나 표현력이
있다는 것입니다.
08:05
even when we are sitting좌석
in front of our devices장치들 alone혼자,
149
473410
2833
혼자 기계 앞에 앉아 있을때도요.
08:08
and it's not just when we're watching보고있다
cat고양이 videos비디오 on Facebook페이스 북.
150
476243
3274
페이스북의 고양이 영상을
볼 때 뿐만 아니라
메일을 보낼 때, 문자를 할 때,
그리고 온라인 쇼핑을 하거나
08:12
We are expressive나타내는 when we're emailing이메일로 보내기,
texting문자 메시지, shopping쇼핑 online온라인,
151
480217
3010
08:15
or even doing our taxes구실.
152
483227
2300
심지어 세금을 지불할 때도 표현합니다.
08:17
Where is this data데이터 used today오늘?
153
485527
2392
오늘날 이 자료가 어디에 사용될까요?
08:19
In understanding이해 how we engage끌다 with media미디어,
154
487919
2763
우리가 매체와 소통하는 방법과
08:22
so understanding이해 virality바이러스 성
and voting투표 behavior행동;
155
490682
2484
대박영상 특징이나
투표 성향을 이해하고
08:25
and also또한 empowering권한을 부여하는
or emotion-enabling감정을 가능케하는 technology과학 기술,
156
493166
2740
그리고 자율권을 주거나
감정 기능 기술을 이해하는 겁니다.
08:27
and I want to share some examples예제들
that are especially특히 close닫기 to my heart심장.
157
495906
4621
제 마음에 가장 와닿는
예를 보여드리고 싶습니다.
08:33
Emotion-enabled감정 사용 가능 wearable의복 glasses안경
can help individuals개인
158
501197
3068
이 감정 기능 안경은
사람들을 돕습니다.
08:36
who are visually시각적으로 impaired손상된
read독서 the faces얼굴들 of others다른 사람,
159
504265
3228
시각기능이 약화된 사람들이
다른 이들의 감정을 읽게 해줍니다.
08:39
and it can help individuals개인
on the autism자폐성 spectrum스펙트럼 interpret새기다 emotion감정,
160
507493
4187
또한 자폐증이 있는 사람이
감정을 해석하게 해줍니다.
08:43
something that they really struggle노력 with.
161
511680
2778
정말로 힘들어 하는 것이지요.
교육에서 학습프로그램이 당신이
혼란스럽고 지쳐간다는 것을 감지하거나
08:47
In education교육, imagine상상하다
if your learning배우기 apps
162
515918
2859
08:50
sense감각 that you're confused혼란스러워하는 and slow느린 down,
163
518777
2810
08:53
or that you're bored지루한, so it's sped속도가 빠른 up,
164
521587
1857
또는 지루하거나, 흥분하는 것을
감지하는 걸 상상해 보세요.
08:55
just like a great teacher선생
would in a classroom교실.
165
523444
2969
교실에서 정말 좋은 선생님이
그러는 것처럼요.
08:59
What if your wristwatch손목 시계 tracked추적 your mood기분,
166
527043
2601
손목시계가 감정을 감지한다면 어떨까요.
09:01
or your car sensed감지 된 that you're tired피곤한,
167
529644
2693
자동차가 여러분이
피곤하다는 것을 안다면요.
09:04
or perhaps혹시 your fridge냉장고
knows알고있다 that you're stressed압박받는,
168
532337
2548
아니면 냉장고가 당신이
스트레스를 받았다는 것을 알아서
09:06
so it auto-locks자동 잠금 to prevent막다 you
from binge파티 eating먹기. (Laughter웃음)
169
534885
6066
냉장고가 자동으로 잠궈서
폭식을 막아 준다면요. (웃음)
전 좋을거 같아요.
09:12
I would like that, yeah.
170
540951
2717
제가 캠프리지에 있었을때,
09:15
What if, when I was in Cambridge케임브리지,
171
543668
1927
09:17
I had access접속하다 to my real-time실시간
emotion감정 stream흐름,
172
545595
2313
이 실시간 감정 흐름에
접근할 수 있었다면 어땠을까요.
고향에 가족과 공유할 수 있었을겁니다.
09:19
and I could share that with my family가족
back home in a very natural자연스러운 way,
173
547908
3529
매우 자연스럽게
모두 같은 방에 있는 것처럼요.
09:23
just like I would've~했을거야. if we were all
in the same같은 room together함께?
174
551437
3971
09:27
I think five다섯 years연령 down the line,
175
555408
3142
제 생각에 5년 후에는
09:30
all our devices장치들 are going
to have an emotion감정 chip,
176
558550
2337
모든 기계들이 감정칩을 가질겁니다.
09:32
and we won't습관 remember생각해 내다 what it was like
when we couldn't할 수 없었다 just frown찌푸린 얼굴 at our device장치
177
560887
4064
이렇게 반응하는 기기가
어땠는지 기억도 못할 겁니다.
09:36
and our device장치 would say, "Hmm,
you didn't like that, did you?"
178
564951
4249
기기앞에서 그저 찌푸리지만 않고
"별로 안좋으신가봐요, 그렇죠?" 하는 겁니다.
09:41
Our biggest가장 큰 challenge도전 is that there are
so many많은 applications응용 프로그램 of this technology과학 기술,
179
569200
3761
가장 큰 과제는 이 기술에
많은 응용이 있다는 것입니다.
09:44
my team and I realize깨닫다 that we can't
build짓다 them all ourselves우리 스스로,
180
572961
2903
저희 팀원들은 우리가 모든 것을
만들 수 없다는 걸 깨달았습니다.
09:47
so we've우리는 made만든 this technology과학 기술 available유효한
so that other developers개발자
181
575864
3496
그래서 다른 개발자들이 함께
이 기술을 사용할 수 있게 했습니다.
09:51
can get building건물 and get creative창조적 인.
182
579360
2114
09:53
We recognize인정하다 that
there are potential가능성 risks위험
183
581474
4086
저희는 잠재적인 위험성과
악용의 가능성이 있음을 압니다.
09:57
and potential가능성 for abuse남용,
184
585560
2067
09:59
but personally몸소, having spent지출하다
many많은 years연령 doing this,
185
587627
2949
그러나 개인적으로 이 일에
수년을 보낸 사람으로서
10:02
I believe that the benefits은혜 to humanity인류
186
590576
2972
감정 지능 기술이 인류에게 줄 혜택이
10:05
from having emotionally감정적으로
intelligent지적인 technology과학 기술
187
593548
2275
악용의 가능성보다
훨씬 크다고 믿습니다.
10:07
far멀리 outweigh더 중요하다 the potential가능성 for misuse오용.
188
595823
3576
10:11
And I invite초대 you all to be
part부품 of the conversation대화.
189
599399
2531
여러분이 이 대화의 부분으로
참여하도록 초대했어요.
10:13
The more people who know
about this technology과학 기술,
190
601930
2554
더 많은 사람들이 이 기술을 알수록
10:16
the more we can all have a voice목소리
in how it's being존재 used.
191
604484
3177
어떻게 사용되는지
더 많은 의견을 들을 수 있어요.
10:21
So as more and more
of our lives become지다 digital디지털,
192
609081
4574
점점 더 우리의 삶이 디지털화 되면서
10:25
we are fighting싸움 a losing지는 battle전투
trying견딜 수 없는 to curb연석 our usage용법 of devices장치들
193
613655
3498
우리 감정을 되찾고자 기기사용을 억제하는
승산없는 싸움을 하고 있습니다.
10:29
in order주문 to reclaim개심 our emotions감정.
194
617153
2229
10:32
So what I'm trying견딜 수 없는 to do instead대신에
is to bring가져오다 emotions감정 into our technology과학 기술
195
620622
3914
대신에 제가 시도하는 것은
감정들을 기술로 가져오는 것이에요.
10:36
and make our technologies기술 more responsive반응이 빠른.
196
624536
2229
기술이 보다 반응할 수 있도록 만들죠.
10:38
So I want those devices장치들
that have separated분리 된 us
197
626765
2670
우리를 갈라놓은 기계들이
10:41
to bring가져오다 us back together함께.
198
629435
2462
우리를 재화합할 수 있게 하고 싶어요.
10:43
And by humanizing인간 화 technology과학 기술,
we have this golden황금의 opportunity기회
199
631897
4588
기술을 인간적이게 만들어서
우리는 최고의 기회를 얻었죠.
10:48
to reimagine다시 생각하다 how we
connect잇다 with machines기계들,
200
636485
3297
어떻게 우리가 기계들과
소통하는지 재고하는 겁니다.
따라서 우리 인간이 다른 이들과
소통하는 방법도 재고하는 겁니다.
10:51
and therefore따라서, how we, as human인간의 beings존재들,
201
639782
4481
10:56
connect잇다 with one another다른.
202
644263
1904
10:58
Thank you.
203
646167
2160
감사합니다.
(박수)
11:00
(Applause박수 갈채)
204
648327
3313
Translated by Jina Bae
Reviewed by Jihyeon J. Kim

▲Back to top

ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee