ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com
TEDWomen 2015

Rana el Kaliouby: This app knows how you feel -- from the look on your face

Filmed:
1,613,290 views

Our emotions influence every aspect of our lives -- how we learn, how we communicate, how we make decisions. Yet they’re absent from our digital lives; the devices and apps we interact with have no way of knowing how we feel. Scientist Rana el Kaliouby aims to change that. She demos a powerful new technology that reads your facial expressions and matches them to corresponding emotions. This “emotion engine” has big implications, she says, and could change not just how we interact with machines -- but with each other.
- Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware. Full bio

Double-click the English transcript below to play the video.

00:12
Our emotionscảm xúc influenceảnh hưởng
everymỗi aspectkhía cạnh of our livescuộc sống,
0
556
4017
Cảm xúc của chúng ta ảnh hưởng tới
mọi khía cạnh của cuộc sống,
00:16
from our healthSức khỏe and how we learnhọc hỏi,
to how we do businesskinh doanh and make decisionsquyết định,
1
4573
3576
từ sức khoẻ và học tập,
cho đến làm thế nào để kinh doanh và ra các quyết định,
00:20
biglớn onesnhững người and smallnhỏ bé.
2
8149
1773
những điều lớn lao và nhỏ bé.
00:22
Our emotionscảm xúc alsocũng thế influenceảnh hưởng
how we connectkết nối with one anotherkhác.
3
10672
3490
Cảm xúc của chúng ta cũng ảnh hưởng tới
cách mà chúng ta giao tiếp với người khác.
00:27
We'veChúng tôi đã evolvedphát triển to livetrực tiếp
in a worldthế giới like this,
4
15132
3976
Chúng ta đã tiến hoá để sống
trong một thế giới như thế này,
00:31
but insteadthay thế, we're livingsống
more and more of our livescuộc sống like this --
5
19108
4319
nhưng thay vào đó, chúng ta đang ngày càng
sống giống như thế này --
00:35
this is the textbản văn messagethông điệp
from my daughterCon gái last night --
6
23427
3134
đây là tin nhắn từ con gái tôi tối qua--
00:38
in a worldthế giới that's devoidbạo of emotioncảm xúc.
7
26561
2740
trong một thế giới mà ở đó không có cảm xúc
00:41
So I'm on a missionsứ mệnh to changethay đổi that.
8
29301
1951
Vì thế tôi có nhiệm vụ thay đổi điều đó.
00:43
I want to bringmang đến emotionscảm xúc
back into our digitalkỹ thuật số experienceskinh nghiệm.
9
31252
4091
Tôi muốn mang cảm xúc trở lại
trong các trải nghiệm trên thiết bị điện tử.
00:48
I startedbắt đầu on this pathcon đường 15 yearsnăm agotrước.
10
36223
3077
Tôi đã bắt đầu công việc này từ 15 năm về trước.
00:51
I was a computermáy vi tính scientistnhà khoa học in EgyptAi Cập,
11
39300
2066
Tôi mà một nhà khoa học về máy tính ở Ai Cập,
00:53
and I had just gottennhận acceptedchấp nhận to
a PhĐộ pH.D. programchương trình at CambridgeCambridge UniversityTrường đại học.
12
41366
4505
và tôi đã được chấp nhận vào chương trình tiến sĩ
tại Đại học tổng hợp Cambridge.
00:57
So I did something quitekhá unusualbất thường
13
45871
2113
Vì thế tôi đã làm một số điều không bình thường
00:59
for a youngtrẻ newlywedmới cưới MuslimHồi giáo EgyptianPao Ai Cập wifengười vợ:
14
47984
4225
đối với một người vợ trẻ mới cưới theo đạo hồi ở Ai Cập:
01:05
With the supportủng hộ of my husbandngười chồng,
who had to stayở lại in EgyptAi Cập,
15
53599
2999
Với sự ủng hộ từ chồng tôi,
anh đã phải ở lại Ai Cập
01:08
I packedđóng gói my bagstúi and I moveddi chuyển to EnglandAnh.
16
56598
3018
Tôi đã sắp xếp hành lý và đi tới Anh
01:11
At CambridgeCambridge, thousandshàng nghìn of milesdặm
away from home,
17
59616
3228
tại Đại học Cambridge, cách xa nhà hàng nghìn cây số,
01:14
I realizedthực hiện I was spendingchi tiêu
more hoursgiờ with my laptopmáy tính xách tay
18
62844
3413
Tôi đã nhận ra rằng tôi đã dành nhiều thời gian
cho cái máy tính xách tay của tôi
01:18
than I did with any other humanNhân loại.
19
66257
2229
hơn là giao tiếp với mọi người xung quanh.
01:20
YetNào được nêu ra despitemặc dù this intimacysự gần gũi, my laptopmáy tính xách tay
had absolutelychắc chắn rồi no ideaý kiến how I was feelingcảm giác.
20
68486
4853
Cho dù gần gũi như vậy, nhưng cái máy tính của tôi
hoàn toàn không biết cảm giác của tôi thế nào
01:25
It had no ideaý kiến if I was happyvui mừng,
21
73339
3211
Nó không hiểu là tôi hạnh phúc,
01:28
havingđang có a badxấu day, or stressednhấn mạnh, confusedbối rối,
22
76550
2988
có một ngày tồi tệ, hoặc căng thẳng, bối rối,
01:31
and so that got frustratingbực bội.
23
79538
2922
và thật là vô dụng.
01:35
Even worsetệ hơn, as I communicatedtruyền đạt
onlineTrực tuyến with my familygia đình back home,
24
83600
5231
Thậm chí tồi tệ hơn, khi tôi nói chuyện trực tiếp
với gia đình của tôi ở nhà,
01:41
I feltcảm thấy that all my emotionscảm xúc
disappearedbiến mất in cyberspacekhông gian mạng.
25
89421
3282
Tôi cảm giác rằng toàn bộ cảm xúc của tôi
đã tiêu biến đi trong không gian ảo.
01:44
I was homesicknhớ nhà, I was lonelycô đơn,
and on some daysngày I was actuallythực ra cryingkhóc,
26
92703
5155
Tôi dã nhớ nhà, tôi cảm thấy cô đơn,
và vào một số ngày thực sự tôi đã khóc,
01:49
but all I had to communicategiao tiếp
these emotionscảm xúc was this.
27
97858
4928
nhưng cái thứ mà tôi phải dùng để giao tiếp
chỉ là những thứ như thế này.
01:54
(LaughterTiếng cười)
28
102786
2020
(Khán giả cười)
01:56
Today'sNgày nay technologyCông nghệ
has lots of I.Q., but no E.Q.;
29
104806
4974
Công nghệ hiện này có quá nhiều thứ về IQ,
nhưng chưa đề cập tới EQ;
02:01
lots of cognitivenhận thức intelligenceSự thông minh,
but no emotionalđa cảm intelligenceSự thông minh.
30
109780
3176
có rất nhiều trí tuệ nhân tạo về nhận thức,
nhưng không có trí tuệ nhân tạo về cảm xúc.
02:04
So that got me thinkingSuy nghĩ,
31
112956
2197
Vì thế điều đó đã khiến tôi suy nghĩ,
02:07
what if our technologyCông nghệ
could sensegiác quan our emotionscảm xúc?
32
115153
3624
Điều gì sẽ sảy ra nếu công nghệ có thể
cảm nhận được cảm xúc của chúng ta?
02:10
What if our devicesthiết bị could sensegiác quan
how we feltcảm thấy and reactedphản ứng accordinglycho phù hợp,
33
118777
4076
Điều gì sẽ sảy ra nếu các thiết bị có thể cảm nhận được
chúng ta đang cảm thấy thế nào và đáp ứng lại một cách hợp lý,
02:14
just the way an emotionallytình cảm
intelligentthông minh friendngười bạn would?
34
122853
3013
liệu có thể đáp lại theo cách mà một người bạn có cảm xúc?
02:18
Those questionscâu hỏi led me and my teamđội
35
126666
3564
Những câu hỏi này đã dẫn dắt tôi và nhóm của tôi
02:22
to createtạo nên technologiescông nghệ that can readđọc
and respondtrả lời to our emotionscảm xúc,
36
130230
4377
sáng tạo ra các công nghệ mà chúng có thể đọc
và đáp ứng lại cảm xúc của chúng ta,
02:26
and our startingbắt đầu pointđiểm was the humanNhân loại faceđối mặt.
37
134607
3090
và khởi đầu của chúng tôi là từ khuôn mặt của con người.
02:30
So our humanNhân loại faceđối mặt happensxảy ra to be
one of the mostphần lớn powerfulquyền lực channelskênh truyền hình
38
138577
3173
Vì khuôn mặt của chúng ta là một trong những
kênh mạnh mẽ nhất
02:33
that we all use to communicategiao tiếp
socialxã hội and emotionalđa cảm statestiểu bang,
39
141750
4016
để tất cả chúng ta tạo ra các trạng thái
giao tiếp xã hội và cảm xúc,
02:37
everything from enjoymentsự hưởng thụ, surprisesự ngạc nhiên,
40
145766
3010
tất cả mọi thứ từ hứng thú, ngạc nhiên,
02:40
empathyđồng cảm and curiositysự tò mò.
41
148776
4203
đồng cảm và tò mò.
02:44
In emotioncảm xúc sciencekhoa học, we call eachmỗi
facialda mặt musclecơ bắp movementphong trào an actionhoạt động unitđơn vị.
42
152979
4928
Trong khoa học về cảm xúc, chúng tôi gọi mỗi
một chuyển động cơ mặt mà một đơn vị hành động.
02:49
So for examplethí dụ, actionhoạt động unitđơn vị 12,
43
157907
2925
Vì thế, ví dụ như đơn vị hành động số 12,
02:52
it's not a HollywoodHollywood blockbusterbộ phim bom tấn,
44
160832
2038
nó không phải là một bộ phim bom tất của Hollywood,
02:54
it is actuallythực ra a lipSon môi cornergóc pullkéo,
which is the mainchủ yếu componentthành phần of a smilenụ cười.
45
162870
3442
mà thực sự nó là một cái nhếch môi,
đây là một thành tố chính của một nụ cười.
02:58
Try it everybodymọi người. Let's get
some smilesnụ cười going on.
46
166312
2988
Mọi người hày làm thử xem nào. Hãy để những
nụ cười tiếp tục.
03:01
AnotherKhác examplethí dụ is actionhoạt động unitđơn vị 4.
It's the browtrán furrowrãnh.
47
169300
2654
Một ví dụ khác là đơn vị hành động số 4,
nó có nghĩa là cái nhíu lông mày.
03:03
It's when you drawvẽ tranh your eyebrowslông mày togethercùng với nhau
48
171954
2238
Đó là khi bạn kéo lông mày của bạn cùng lúc
03:06
and you createtạo nên all
these textureskết cấu and wrinklesnếp nhăn.
49
174192
2267
và bạn đã tạo ra các kết cấu và nếp nhăn này.
03:08
We don't like them, but it's
a strongmạnh indicatorchỉ thị of a negativetiêu cực emotioncảm xúc.
50
176459
4295
Chúng ta không thích chúng, nhưng đây là những
chỉ điểm mạnh mẽ cho một cảm xúc tiêu cực.
03:12
So we have about 45 of these actionhoạt động unitscác đơn vị,
51
180754
2206
Như vậy chúng ta có khoảng 45 đơn vị hành động loại này,
03:14
and they combinephối hợp to expressbày tỏ
hundredshàng trăm of emotionscảm xúc.
52
182960
3390
và chúng kết hợp với nhau để bộc lộ
hàng trăm cảm xúc khác nhau.
03:18
TeachingGiảng dạy a computermáy vi tính to readđọc
these facialda mặt emotionscảm xúc is hardcứng,
53
186350
3901
Dạy cho máy tinhd đọc được những cảm xúc
của khuôn mặt này thật khó,
03:22
because these actionhoạt động unitscác đơn vị,
they can be fastNhanh, they're subtletế nhị,
54
190251
2972
bởi vì những đơn vị hành động này,
chúng có thể diễn ra rất nhanh, tinh tế,
03:25
and they combinephối hợp in manynhiều differentkhác nhau wayscách.
55
193223
2554
và chúng được kết hợp bằng rất nhiều cách khác nhau,
03:27
So take, for examplethí dụ,
the smilenụ cười and the smirknhếch mép.
56
195777
3738
Vì thế thử lấy một ví dụ về
nụ cười thoải mái và nụ cười bực bội.
03:31
They look somewhatphần nào similargiống,
but they mean very differentkhác nhau things.
57
199515
3753
Trông chúng có vẻ giống nhau,
nhưng thực tế chúng có ý nghĩa rất khác nhau.
03:35
(LaughterTiếng cười)
58
203268
1718
(Khán giả cười)
03:36
So the smilenụ cười is positivetích cực,
59
204986
3004
Trong khi cười thoải mái có ý nghĩa tích cực,
03:39
a smirknhếch mép is oftenthường xuyên negativetiêu cực.
60
207990
1270
thì cười bực bội thường là tiêu cực.
03:41
SometimesĐôi khi a smirknhếch mép
can make you becometrở nên famousnổi danh.
61
209260
3876
Đôi khi cười bực bội có thể khiến bạn
trở nên nổi tiếng.
03:45
But seriouslynghiêm túc, it's importantquan trọng
for a computermáy vi tính to be ablecó thể
62
213136
2824
Nhưng, rất quan trọng đối với máy tính
để chúng có thể
03:47
to tell the differenceSự khác biệt
betweengiữa the two expressionsbiểu thức.
63
215960
2855
đưa ra sự khác biệt giữa 2 cách
biểu lộ cảm xúc đo.
03:50
So how do we do that?
64
218815
1812
Vậy thì làm thế nào để chúng tôi làm được điều đó?
03:52
We give our algorithmsthuật toán
65
220627
1787
Chúng tôi đưa ra các thuật toán cảu chúng tôi
03:54
tenshàng chục of thousandshàng nghìn of examplesví dụ
of people we know to be smilingmỉm cười,
66
222414
4110
với hàng ngàn ví dụ mà chúng ta biết về
nụ cười của mọi người,
03:58
from differentkhác nhau ethnicitiesdân tộc, ageslứa tuổi, gendersgiới tính,
67
226524
3065
với sự khác nhau về dân tộc, tuổi tác, giới tính,
04:01
and we do the sametương tự for smirkssmirks.
68
229589
2811
và chúng tôi cũng làm giống như vậy đối với nụ cười bực bội.
04:04
And then, usingsử dụng deepsâu learninghọc tập,
69
232400
1554
Và sau đó, phân tích thật kỹ càng,
04:05
the algorithmthuật toán looksnhìn for all these
textureskết cấu and wrinklesnếp nhăn
70
233954
2856
thuật toán đã tìm kiếm toàn bộ các kết cấu và nếp nhăn
04:08
and shapehình dạng changesthay đổi on our faceđối mặt,
71
236810
2580
và các hình dạng thay đổi trên khuôn mặt của chúng ta,
04:11
and basicallyvề cơ bản learnshọc that all smilesnụ cười
have commonchung characteristicsđặc điểm,
72
239390
3202
và nhận thấy về cơ bản tất cả các nụ cười đều
có những đặc tính chung,
04:14
all smirkssmirks have subtlytinh tế
differentkhác nhau characteristicsđặc điểm.
73
242592
3181
toàn bộ nhụ cười bực bội có các đặc tính khác biệt.
04:17
And the nextkế tiếp time it seesnhìn a newMới faceđối mặt,
74
245773
2368
Và với lần sau khi máy tính nhìn vào một khuôn mặt mới,
04:20
it essentiallybản chất learnshọc that
75
248141
2299
nó có thể nhận ra thực tế là
04:22
this faceđối mặt has the sametương tự
characteristicsđặc điểm of a smilenụ cười,
76
250440
3033
khuôn mặt này có các đặc tính giống với một nụ cười,
04:25
and it saysnói, "AhaAHA, I recognizenhìn nhận this.
This is a smilenụ cười expressionbiểu hiện."
77
253473
4278
và nó sẽ nói răng, "Ồ, tôi đã nhận ra điều này.
Đây là cách biểu lộ một nụ cười."
04:30
So the besttốt way to demonstratechứng minh
how this technologyCông nghệ workscông trinh
78
258381
2800
Vậy thì cách tốt nhất để mô tả công nghệ này
hoạt động như thế nào
04:33
is to try a livetrực tiếp demogiới thiệu,
79
261181
2136
là chúng ta thử nghiệm trực tiếp tại đây,
04:35
so I need a volunteerTình nguyện,
preferablytốt hơn somebodycó ai with a faceđối mặt.
80
263317
3913
nào bây giờ tôi cần một tình nguyện viên,
ưu tiên ai đó có một cái mặt.
04:39
(LaughterTiếng cười)
81
267230
2334
(Khán giả cười)
04:41
Cloe'sCủa Cloe going to be our volunteerTình nguyện todayhôm nay.
82
269564
2771
Chị Cloe sẽ là tình nguyện viên của chúng ta hôm nay.
04:45
So over the pastquá khứ fivesố năm yearsnăm, we'vechúng tôi đã moveddi chuyển
from beingđang a researchnghiên cứu projectdự án at MITMIT
83
273325
4458
Vì lẽ đó mà trong vòng 5 năm qua, chúng tôi đã
chuyển một dự án nghiên cứu tại MIT
04:49
to a companyCông ty,
84
277783
1156
thành một công ty,
04:50
where my teamđội has workedđã làm việc really hardcứng
to make this technologyCông nghệ work,
85
278939
3192
mà ở đó nhóm của tôi đã làm việc rất vất vả
để khiến cho công nghệ này hoạt động,
04:54
as we like to say, in the wildhoang dã.
86
282131
2409
như là cách mà chúng tôi muốn nói, bằng một cách hoang dại.
04:56
And we'vechúng tôi đã alsocũng thế shrunkthu nhỏ it so that
the corecốt lõi emotioncảm xúc engineđộng cơ
87
284540
2670
Và chugns tôi cũng đã rút gọn chúng lại
để làm sao các thành phần cảm xúc cốt lõi
04:59
workscông trinh on any mobiledi động devicethiết bị
with a cameraMáy ảnh, like this iPadiPad.
88
287210
3320
có thể hoạt động với bất kỳ thiết bị di động nào
có camera, giống như chiếc iPad này.
05:02
So let's give this a try.
89
290530
2786
Giờ chúng ta cùng thử nghiệm.
05:06
As you can see, the algorithmthuật toán
has essentiallybản chất foundtìm Cloe'sCủa Cloe faceđối mặt,
90
294756
3924
Như các bạn thấy, thuật toán về cơ bản đã
tìm ra khuôn mặt của chi Chloe,
05:10
so it's this whitetrắng boundingCác giáp ranh boxcái hộp,
91
298680
1692
đó là khung bao màu trắng,
05:12
and it's trackingtheo dõi the mainchủ yếu
featuređặc tính pointsđiểm on her faceđối mặt,
92
300372
2571
và nó theo dõi các điểm đặc tính chính trên
khuôn mặt của cô ấy,
05:14
so her eyebrowslông mày, her eyesmắt,
her mouthmiệng and her nosemũi.
93
302943
2856
đó là lông mày, mắt, miệng và mũi của cô ấy.
05:17
The questioncâu hỏi is,
can it recognizenhìn nhận her expressionbiểu hiện?
94
305799
2987
Câu hỏi ở đây là,
liệu nó có thể nhận biết được các biểu lộ của cô ấy?
05:20
So we're going to testthử nghiệm the machinemáy móc.
95
308786
1671
Nào giờ chúng ta cùng thử nghiệm cái máy này.
05:22
So first of all, give me your pokerXi phe faceđối mặt.
YepYep, awesometuyệt vời. (LaughterTiếng cười)
96
310457
4186
Trước tiên, hãy cho chúng tôi thấy một bộ mặt phớt đời.
Vâng, tuyệt vời. (Khán giả cười)
05:26
And then as she smilesnụ cười,
this is a genuinechính hãng smilenụ cười, it's great.
97
314643
2813
Và sau đây là cô ấy cười,
một nụ cười thực sự, thật tuyệt.
05:29
So you can see the greenmàu xanh lá barquán ba
go up as she smilesnụ cười.
98
317456
2300
Như vậy các bạn đã nhìn thấy các cột màu xanh tăng lên
khi mà cô ấy cười.
05:31
Now that was a biglớn smilenụ cười.
99
319756
1222
Nào bây giờ là một nụ cười lớn.
05:32
Can you try a subtletế nhị smilenụ cười
to see if the computermáy vi tính can recognizenhìn nhận?
100
320978
3043
Bạn có thể thể hiện một nụ cười thật tinh tế
để xem máy tính có nhận ra không?
05:36
It does recognizenhìn nhận subtletế nhị smilesnụ cười as well.
101
324021
2331
Nó cũng đã nhận ra một nụ cười tinh tế.
05:38
We'veChúng tôi đã workedđã làm việc really hardcứng
to make that happenxảy ra.
102
326352
2125
Chúng tôi đã làm việc rất vất vả
để tạo ra điều này.
05:40
And then eyebrowlông mày raisednâng lên,
indicatorchỉ thị of surprisesự ngạc nhiên.
103
328477
2962
Và khi lông mày nhếc lên,
đó là chỉ điểm của sự ngạc nhiên.
05:43
BrowTrán furrowrãnh, which is
an indicatorchỉ thị of confusionsự nhầm lẫn.
104
331439
4249
Cái nhíu mày là chỉ điểm của sự bối rối.
05:47
FrownCau. Yes, perfecthoàn hảo.
105
335688
4007
Cái cau mày. Đúng, tuyệt vời.
05:51
So these are all the differentkhác nhau
actionhoạt động unitscác đơn vị. There's manynhiều more of them.
106
339695
3493
Có thể thấy đây là toàn bộ những đơn vị hành động khác nhau.
Thực tế chúng còn có nhiều hơn nữa.
05:55
This is just a slimmed-downslimmed xuống demogiới thiệu.
107
343188
2032
Đây chỉ là một trình diễn đơn giản.
05:57
But we call eachmỗi readingđọc hiểu
an emotioncảm xúc datadữ liệu pointđiểm,
108
345220
3148
Nhưng chúng ta có thể coi mỗi một lần đọc cảm xúc
là một điểm dữ liệu,
06:00
and then they can firengọn lửa togethercùng với nhau
to portraymiêu tả differentkhác nhau emotionscảm xúc.
109
348368
2969
và sau đó chúng có thể tổng hợp lại
và đưa ra một chân dung với các cảm xúc khác nhau.
06:03
So on the right sidebên of the demogiới thiệu --
look like you're happyvui mừng.
110
351337
4653
Vì thế ở phía bên phải của bản trình diễn--
giống như là bạn đang hạnh phúc.
06:07
So that's joyvui sướng. JoyNiềm vui fireslửa up.
111
355990
1454
Vì thế sự vui mừng đó. Vui mừng được bùng phát lên.
06:09
And then give me a disgustghê tởm faceđối mặt.
112
357444
1927
Và sau đó làm cho tôi mọt bộ mặt ghê tởm.
06:11
Try to remembernhớ lại what it was like
when ZaynZayn left One DirectionChỉ đạo.
113
359371
4272
Cố gắng nhớ tới điều đó đã như thế nào
khi Zayn rời khỏi One Direction.
06:15
(LaughterTiếng cười)
114
363643
1510
(Khán giả cười)
06:17
Yeah, wrinklenếp nhăn your nosemũi. AwesomeTuyệt vời.
115
365153
4342
Vâng, nào hãy nhăn mũi. Tuyệt vời.
06:21
And the valenceValence is actuallythực ra quitekhá
negativetiêu cực, so you mustphải have been a biglớn fanquạt.
116
369495
3731
Và trị số tương đối là âm tính, vì thế bạn
chắc phải là một người hâm mộ lớn.
06:25
So valenceValence is how positivetích cực
or negativetiêu cực an experiencekinh nghiệm is,
117
373226
2700
Vì thế trị số chỉ ra những trải nghiệm tích cực
hoặc tiêu cực như thế nào,
06:27
and engagementhôn ước is how
expressivebiểu cảm she is as well.
118
375926
2786
và sự tham gia cũng là cách biểu lộ của cô ấy.
06:30
So imaginetưởng tượng if CloeCloe had accesstruy cập
to this real-timethời gian thực emotioncảm xúc streamsuối,
119
378712
3414
Vì thế tưởng tượng rằng chị Chloe tham gia
vào chuỗi cảm xúc thực này,
06:34
and she could sharechia sẻ it
with anybodybất kỳ ai she wanted to.
120
382126
2809
và chị ấy có thể chia sẻ not với
bất kỳ ai mà chị ấy muốn.
06:36
Thank you.
121
384935
2923
Cảm ơn.
06:39
(ApplauseVỗ tay)
122
387858
4621
(Khán giả vỗ tay)
06:45
So, so farxa, we have amassedtích lũy
12 billiontỷ of these emotioncảm xúc datadữ liệu pointsđiểm.
123
393749
5270
Cho tới nay, chúng tôi đã tích lỹ được
khoảng 12 tỷ dữ liệu cảm xúc như vậy.
06:51
It's the largestlớn nhất emotioncảm xúc
databasecơ sở dữ liệu in the worldthế giới.
124
399019
2611
Đây là một cơ sở dữ liệu cảm xúc lớn nhất thế giới.
06:53
We'veChúng tôi đã collectedthu thập it
from 2.9 milliontriệu faceđối mặt videosvideo,
125
401630
2963
Chúng tôi đã thu thập nó từ
khoảng hơn 2,9 triệu video về khuôn mặt,
06:56
people who have agreedđã đồng ý
to sharechia sẻ theirhọ emotionscảm xúc with us,
126
404593
2600
của những người đã đồng ý chia sẻ
những cảm xúc của họ với chúng tôi,
06:59
and from 75 countriesquốc gia around the worldthế giới.
127
407193
3205
và họ đến từ 75 quốc gia trên thế giới.
07:02
It's growingphát triển everymỗi day.
128
410398
1715
Nó gia tăng từng ngày.
07:04
It blowsthổi my mindlí trí away
129
412603
2067
Nó đã thổi bay tâm trí của tôi
07:06
that we can now quantifyđịnh lượng something
as personalcá nhân as our emotionscảm xúc,
130
414670
3195
theo đó chúng tôi giờ đây có thể lượng hoá
một số cảm xúc cá nhân của chúng ta,
07:09
and we can do it at this scaletỉ lệ.
131
417865
2235
và chúng tôi có thể thực hiện nó ở mức độ như thế này.
07:12
So what have we learnedđã học to datengày?
132
420100
2177
Vậy thì chúng tôi đã học được gì cho tới nay?
07:15
GenderGiới tính.
133
423057
2331
Giới tính.
07:17
Our datadữ liệu confirmsxác nhận something
that you mightcó thể suspectnghi ngờ.
134
425388
3646
Dữ liệu của chúng tôi đã xác định được một số điều
mà các bạn có thể hoài nghi.
07:21
WomenPhụ nữ are more expressivebiểu cảm than menđàn ông.
135
429034
1857
Phụ nữ thường biểu cảm nhiều hơn nam giới.
07:22
Not only do they smilenụ cười more,
theirhọ smilesnụ cười last longerlâu hơn,
136
430891
2683
Không chỉ là họ cười nhiều hơn,
mà nụ cười của họ còn kéo dài hơn,
07:25
and we can now really quantifyđịnh lượng
what it is that menđàn ông and womenđàn bà
137
433574
2904
và chúng tôi giờ đây có thể thực sự lượng hoá được
điều gì khiến nam giới và phụ nữ
07:28
respondtrả lời to differentlykhác.
138
436478
2136
đáp ứng khác nhau.
07:30
Let's do culturenền văn hóa: So in the UnitedVương StatesTiểu bang,
139
438614
2290
Nào cùng xem xét khía cạnh văn hoá: Ở Mỹ
07:32
womenđàn bà are 40 percentphần trăm
more expressivebiểu cảm than menđàn ông,
140
440904
3204
phụ nữ có biểu cảm nhiều hơn nam giới tới 40%,
07:36
but curiouslytò mò, we don't see any differenceSự khác biệt
in the U.K. betweengiữa menđàn ông and womenđàn bà.
141
444108
3645
nhưng đáng ngạc nhiên, chúng tôi không thấy sự khác biệt
giữa nam giới và phụ nữ ở Anh.
07:39
(LaughterTiếng cười)
142
447753
2506
(Khán giả cười)
07:43
AgeTuổi: People who are 50 yearsnăm and olderlớn hơn
143
451296
4027
Độ tuổi: Người trên 50 tuổi
07:47
are 25 percentphần trăm more emotiveđa cảm
than youngertrẻ hơn people.
144
455323
3436
biểu lộ cảm xúc nhiều hơn người trẻ 25%.
07:51
WomenPhụ nữ in theirhọ 20s smilenụ cười a lot more
than menđàn ông the sametương tự agetuổi tác,
145
459899
3852
Phụ nữ ở độ tuổi 20 cười nhiều hơn rất nhiều
so với nam giới ở cùng độ tuổi,
07:55
perhapscó lẽ a necessitysự cần thiết for datinghẹn hò.
146
463751
3839
có thể đó là điều cần thiết cho việc hẹn hò.
07:59
But perhapscó lẽ what surprisedngạc nhiên us
the mostphần lớn about this datadữ liệu
147
467590
2617
Nhưng có thế điều mà gây cho chúng tôi nhiều
ngạc nhiên nhất về số liệu này
08:02
is that we happenxảy ra
to be expressivebiểu cảm all the time,
148
470207
3203
đó là chúng ta luôn luôn biểu lộ cảm xúc,
08:05
even when we are sittingngồi
in fronttrước mặt of our devicesthiết bị alonemột mình,
149
473410
2833
thậm chí ngay cả khi chúng ta ngồi
một mình trước các thiết bị điện tử,
08:08
and it's not just when we're watchingxem
catcon mèo videosvideo on FacebookFacebook.
150
476243
3274
và không chỉ là khi chúng ta đang xem
một video về mèo trên Facebook.
08:12
We are expressivebiểu cảm when we're emailinggửi email,
textingnhắn tin, shoppingmua sắm onlineTrực tuyến,
151
480217
3010
Chúng ta bộc lộ cảm xúc khi chúng ta gửi thư điện tử,
chúng ta nhắn tin, chúng ta mua bán trực tuyến,
08:15
or even doing our taxesthuế.
152
483227
2300
và thậm chí khi chúng ta khai báo thuế.
08:17
Where is this datadữ liệu used todayhôm nay?
153
485527
2392
Vậy thì số liệu này được dùng ở đâu hiện nay?
08:19
In understandinghiểu biết how we engagethuê with mediaphương tiện truyền thông,
154
487919
2763
để hiểu biết việc chúng ta liên hệ thế nào với truyền thông,
08:22
so understandinghiểu biết viralityvirality
and votingbầu cử behaviorhành vi;
155
490682
2484
hiểu về mức độ là truyền
và thái độ bỏ phiếu,
08:25
and alsocũng thế empoweringtrao quyền
or emotion-enablingtạo điều kiện cho cảm xúc technologyCông nghệ,
156
493166
2740
và cũng là làm mạnh mẽ và khả thi hơn công nghệ về cảm xúc,
08:27
and I want to sharechia sẻ some examplesví dụ
that are especiallyđặc biệt closegần to my hearttim.
157
495906
4621
và tôi muốn chia sẻ một vài ví dụ
mà chúng đặc biệt nằm trong trái tim tôi.
08:33
Emotion-enabledKích hoạt cảm xúc wearableWearable glasseskính
can help individualscá nhân
158
501197
3068
Một chiếc kính cảm xúc có thể giúp người mù
08:36
who are visuallytrực quan impairedbị khiếm khuyết
readđọc the faceskhuôn mặt of othersKhác,
159
504265
3228
đọc được cảm xúc trên mặt người khác,
08:39
and it can help individualscá nhân
on the autismtự kỷ spectrumquang phổ interpretgiải thích emotioncảm xúc,
160
507493
4187
và nó có thể giúp những người tự kỷ
thể hiện cảm xúc của họ,
08:43
something that they really struggleđấu tranh with.
161
511680
2778
những điều mà họ thực sự phải đối mặt.
08:47
In educationgiáo dục, imaginetưởng tượng
if your learninghọc tập appsứng dụng
162
515918
2859
Đối với giáo dục, tưởng tượng rằng
ứng dụng học tập của bạn
08:50
sensegiác quan that you're confusedbối rối and slowchậm down,
163
518777
2810
có thể cảm nhận được là bạn đang bối rối và đang đuối sức,
08:53
or that you're boredchán, so it's spedtăng tốc up,
164
521587
1857
hoặc khi bạn cảm thấy nhàm chán,
thì nó sẽ tăng tốc lên,
08:55
just like a great teachergiáo viên
would in a classroomlớp học.
165
523444
2969
giống như là một giáo viên tuyệt với ở lớp vậy.
08:59
What if your wristwatchđồng hồ đeo tay trackedtheo dõi your moodkhí sắc,
166
527043
2601
Đó là khi đồng hồ đeo tay của bạn
sẽ theo dõi cảm xúc của bạn,
09:01
or your carxe hơi sensedcảm nhận được that you're tiredmệt mỏi,
167
529644
2693
hoặc ô tô của bản cảm nhận được bạn đang mệt mỏi,
09:04
or perhapscó lẽ your fridgeTủ lạnh
knowsbiết that you're stressednhấn mạnh,
168
532337
2548
hoặc có thể tủ lạnh của bạn biết rằng
bạn đang căng thẳng
09:06
so it auto-lockstự động khóa to preventngăn chặn you
from bingechè chén say sưa eatingĂn. (LaughterTiếng cười)
169
534885
6066
vì thế nó sẽ tự động khoá lại
giúp bạn tránh được ăn uống vô độ. (Khán giả cười)
09:12
I would like that, yeah.
170
540951
2717
Tất nhiên tôi thích điều đó.
09:15
What if, when I was in CambridgeCambridge,
171
543668
1927
Đó là, khi tôi ở Cambridge,
09:17
I had accesstruy cập to my real-timethời gian thực
emotioncảm xúc streamsuối,
172
545595
2313
Tôi đã tạo ra một dòng cảm xúc theo thời gian thực,
09:19
and I could sharechia sẻ that with my familygia đình
back home in a very naturaltự nhiên way,
173
547908
3529
và có thể chia sẻ nó với gia đình tại quê nhà
theo một cách tự nhiên nhất,
09:23
just like I would'venào đã if we were all
in the sametương tự roomphòng togethercùng với nhau?
174
551437
3971
nó giống như tất cả chúng tôi đang
ở trong một căn phòng với nhau vậy phải không?
09:27
I think fivesố năm yearsnăm down the linehàng,
175
555408
3142
Tôi nghĩ rằng trong vòng 5 năm nữa,
09:30
all our devicesthiết bị are going
to have an emotioncảm xúc chipChip,
176
558550
2337
toàn bộ các thiết bị điện tử
sẽ có các con chíp cảm xúc,
09:32
and we won'tsẽ không remembernhớ lại what it was like
when we couldn'tkhông thể just frowncau at our devicethiết bị
177
560887
4064
và chúng ta không nhớ điều đó đã thế nào
khi chúng ta không nhíu mày trước thiết bị điện tử
09:36
and our devicethiết bị would say, "HmmHmm,
you didn't like that, did you?"
178
564951
4249
và cái thiết bị điện tử của chúng ta sẽ nói: "Hừm,
bạn đã không thích điều đó, phải không?"
09:41
Our biggestlớn nhất challengethử thách is that there are
so manynhiều applicationscác ứng dụng of this technologyCông nghệ,
179
569200
3761
Trở ngại lớn nhất của chúng tôi hiện nay là
có quá nhiều các ứng dụng của công nghệ này,
09:44
my teamđội and I realizenhận ra that we can't
buildxây dựng them all ourselveschúng ta,
180
572961
2903
tôi và nhóm của tôi nhận ra rằng
chúng tôi không thể tự phát triển toàn bộ chúng,
09:47
so we'vechúng tôi đã madethực hiện this technologyCông nghệ availablecó sẵn
so that other developersnhà phát triển
181
575864
3496
do đó chúng tôi đã làm cho công nghệ này sẵn sàng
để các nhà phát triển khác
09:51
can get buildingTòa nhà and get creativesáng tạo.
182
579360
2114
có thể tiếp tục xây dựng và sáng tạo.
09:53
We recognizenhìn nhận that
there are potentialtiềm năng risksrủi ro
183
581474
4086
Chúng tôi nhìn nhận rằng
có những rủi ro tiềm ẩn
09:57
and potentialtiềm năng for abuselạm dụng,
184
585560
2067
và những sự lạm dụng tiềm ẩn,
09:59
but personallycá nhân, havingđang có spentđã bỏ ra
manynhiều yearsnăm doing this,
185
587627
2949
nhưng về cá nhân tôi, khi đã dành rất nhiều năm cho nó,
10:02
I believe that the benefitslợi ích to humanitynhân loại
186
590576
2972
tôi tin tưởng rằng các lợi ích mang lại cho con người
10:05
from havingđang có emotionallytình cảm
intelligentthông minh technologyCông nghệ
187
593548
2275
từ công nghệ cảm xúc thông minh
10:07
farxa outweighlớn hơn the potentialtiềm năng for misuselạm dụng.
188
595823
3576
vượt xa ngoài những rủi ro tiềm ẩn.
10:11
And I invitemời gọi you all to be
partphần of the conversationcuộc hội thoại.
189
599399
2531
Và tôi xin mời toàn bộ các bạn tham gia vào cuộc thảo luận này.
10:13
The more people who know
about this technologyCông nghệ,
190
601930
2554
Càng nhiều người biết về công nghệ này,
10:16
the more we can all have a voicetiếng nói
in how it's beingđang used.
191
604484
3177
chúng ta sẽ càng có tiếng nói đối với
việc làm sao để sử dụng đúng công nghệ này.
10:21
So as more and more
of our livescuộc sống becometrở nên digitalkỹ thuật số,
192
609081
4574
Vì thế khi mà càng ngày cuộc sống của chúng ta
càng trở nên số hoá,
10:25
we are fightingtrận đánh a losingmất battlechiến đấu
tryingcố gắng to curblề đường our usagesử dụng of devicesthiết bị
193
613655
3498
chúng ta đang thua cuộc trong trận chiến
chống lại việc sử dụng các thiết bị điện tử của chúng ta
10:29
in ordergọi món to reclaimđòi lại our emotionscảm xúc.
194
617153
2229
nhằm dành lại cảm xúc của chúng ta.
10:32
So what I'm tryingcố gắng to do insteadthay thế
is to bringmang đến emotionscảm xúc into our technologyCông nghệ
195
620622
3914
Vì thế thay vào đó, điều mà tôi đang cố gắng làm
đó là đưa cảm xúc vào trong công nghệ của chúng ta
10:36
and make our technologiescông nghệ more responsiveđáp ứng.
196
624536
2229
và làm cho công nghệ của chúng ta trở nên
tương tác nhiều hơn.
10:38
So I want those devicesthiết bị
that have separatedly thân us
197
626765
2670
Vì thế tôi muốn rằng những thiết bị điện tử
đang làm chia rẽ chúng ta
10:41
to bringmang đến us back togethercùng với nhau.
198
629435
2462
sẽ mang chúng ta trở lại với nhau.
10:43
And by humanizinghumanizing technologyCông nghệ,
we have this goldenvàng opportunitycơ hội
199
631897
4588
Và bởi những công nghệ phục vụ con người,
chúng ta có một cơ hội vàng
10:48
to reimaginereimagine how we
connectkết nối with machinesmáy móc,
200
636485
3297
để hình dung lại cách mà chúng ta kết nối với máy móc,
10:51
and thereforevì thế, how we, as humanNhân loại beingschúng sanh,
201
639782
4481
và do đó, là những con người, làm thế nào chúng ta
10:56
connectkết nối with one anotherkhác.
202
644263
1904
kết nối với những người khác.
10:58
Thank you.
203
646167
2160
Cảm ơn.
11:00
(ApplauseVỗ tay)
204
648327
3313
(Khán giả vỗ tay)
Translated by Kien Vu Duy
Reviewed by Ngân Mai

▲Back to top

ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee