ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com
TEDWomen 2015

Rana el Kaliouby: This app knows how you feel -- from the look on your face

Рана эль Калиоби: Это приложение знает, что вы чувствуете, — по выражению вашего лица

Filmed:
1,613,290 views

Наши эмоции оказывают влияние на все стороны жизни — как мы получаем знания, как общаемся, как принимаем решения. И всё же их нет в нашей цифровой жизни; устройства и приложения, которыми мы пользуемся для общения, не оснащены возможностью узнать, что мы чувствуем. Исследователь Рана эль Калиоби намерена это изменить. Она демонстрирует новую мощную технологию, считывающую выражение лица и сопоставляющую его с соответствующей эмоцией. «У этого «эмоционального ядра» есть множество применений, — говорит она, — и оно может изменить не только то, как мы взаимодействуем с машинами, но и как мы взаимодействуем друг с другом».
- Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware. Full bio

Double-click the English transcript below to play the video.

00:12
Our emotionsэмоции influenceвлияние
everyкаждый aspectаспект of our livesжизни,
0
556
4017
Наши эмоции оказывают влияние
на все стороны жизни:
от здоровья и способов получения знаний,
до ведения бизнеса и принятия
00:16
from our healthздоровье and how we learnучить,
to how we do businessбизнес and make decisionsрешения,
1
4573
3576
00:20
bigбольшой onesте, and smallмаленький.
2
8149
1773
важных либо не очень важных решений.
00:22
Our emotionsэмоции alsoтакже influenceвлияние
how we connectсоединять with one anotherдругой.
3
10672
3490
Наши эмоции также влияют на то,
как мы взаимодействуем друг с другом.
00:27
We'veУ нас evolvedэволюционировали to liveжить
in a worldМир like this,
4
15132
3976
Мы созданы для жизни в мире эмоций,
00:31
but insteadвместо, we're livingживой
more and more of our livesжизни like this --
5
19108
4319
но вместо этого
всё чаще и чаще мы живём вот так —
00:35
this is the textтекст messageсообщение
from my daughterдочь last night --
6
23427
3134
это смс от моей дочери,
которое я получила вчера вечером, —
00:38
in a worldМир that's devoidлишенный of emotionэмоция.
7
26561
2740
в мире, напрочь этих эмоций лишённом.
00:41
So I'm on a missionмиссия to changeизменение that.
8
29301
1951
Я намерена это изменить.
00:43
I want to bringприносить emotionsэмоции
back into our digitalцифровой experiencesопыт.
9
31252
4091
Я хочу вернуть эмоции
в наш цифровой мир.
00:48
I startedначал on this pathдорожка 15 yearsлет agoтому назад.
10
36223
3077
Этот путь я начала 15 лет назад.
00:51
I was a computerкомпьютер scientistученый in EgyptЕгипет,
11
39300
2066
Я работала программистом в Египте
00:53
and I had just gottenполученный acceptedпринято to
a PhpH.D. programпрограмма at CambridgeКембридж UniversityУниверситет.
12
41366
4505
и только что поступила в аспирантуру
в Кембридже.
00:57
So I did something quiteдовольно unusualнеобычный
13
45871
2113
Я сделала нечто несвойственное
00:59
for a youngмолодой newlywedновобрачный Muslimмусульманка Egyptianегиптянин wifeжена:
14
47984
4225
молодым новобрачным
мусульманкам-египтянкам:
01:05
With the supportподдержка of my husbandмуж,
who had to stayоставаться in EgyptЕгипет,
15
53599
2999
при поддержке своего мужа,
которому пришлось остаться в Египте,
01:08
I packedуплотненный my bagsмешки and I movedпереехал to EnglandАнглия.
16
56598
3018
я упаковала чемоданы
и переехала в Англию.
01:11
At CambridgeКембридж, thousandsтысячи of milesмиль
away from home,
17
59616
3228
В Кембридже, за тысячи километров от дома,
01:14
I realizedпонял I was spendingрасходы
more hoursчасов with my laptopпортативный компьютер
18
62844
3413
я осознала, что провожу
за ноутбуком больше времени,
чем с людьми.
01:18
than I did with any other humanчеловек.
19
66257
2229
01:20
YetВсе же despiteнесмотря this intimacyинтимность, my laptopпортативный компьютер
had absolutelyабсолютно no ideaидея how I was feelingчувство.
20
68486
4853
Но несмотря на эту близость, мой ноутбук
не имел представления о моих чувствах.
01:25
It had no ideaидея if I was happyсчастливый,
21
73339
3211
Он не знал, счастлива ли я,
был ли у меня тяжёлый день,
напряжена ли я или потеряна,
01:28
havingимеющий a badПлохо day, or stressedподчеркнул, confusedсмущенный,
22
76550
2988
01:31
and so that got frustratingразочаровывающий.
23
79538
2922
и это стало меня расстраивать.
01:35
Even worseхуже, as I communicatedсообщаться
onlineонлайн with my familyсемья back home,
24
83600
5231
Даже хуже того:
общаясь с семьёй онлайн,
я чувствовала, как эмоции
испаряются в киберпространстве.
01:41
I feltпочувствовал that all my emotionsэмоции
disappearedисчез in cyberspaceкиберпространство.
25
89421
3282
01:44
I was homesickтоскующий по дому, I was lonelyОдинокий,
and on some daysдней I was actuallyна самом деле cryingплач,
26
92703
5155
Я скучала по дому, мне было одиноко,
иногда я даже плакала,
01:49
but all I had to communicateобщаться
these emotionsэмоции was this.
27
97858
4928
и единственным способом
передать все эти чувства было вот это.
01:54
(LaughterСмех)
28
102786
2020
(Смех)
01:56
Today'sСегодняшние technologyтехнологии
has lots of I.Q., but no E.Q.;
29
104806
4974
Технологии сегодняшнего дня
обладают огромным IQ, но не EQ —
высокий показатель интеллекта,
но никакого эмоционального интеллекта.
02:01
lots of cognitiveпознавательный intelligenceинтеллект,
but no emotionalэмоциональный intelligenceинтеллект.
30
109780
3176
02:04
So that got me thinkingмышление,
31
112956
2197
Тогда я задумалась:
02:07
what if our technologyтехнологии
could senseсмысл our emotionsэмоции?
32
115153
3624
а что, если бы технологии
могли ощущать наши эмоции?
02:10
What if our devicesприборы could senseсмысл
how we feltпочувствовал and reactedвзаимодействию accordinglyсоответственно,
33
118777
4076
Что, если бы наши устройства могли ощущать,
как мы себя чувствуем, и реагировать
02:14
just the way an emotionallyэмоционально
intelligentумный friendдруг would?
34
122853
3013
в соответствии этому, как сделал бы
эмоционально интеллектуальный друг?
Эти вопросы подтолкнули меня
и мою команду
02:18
Those questionsвопросов led me and my teamкоманда
35
126666
3564
02:22
to createСоздайте technologiesтехнологии that can readчитать
and respondотвечать to our emotionsэмоции,
36
130230
4377
на создание технологий, способных
понимать и отвечать на наши эмоции.
02:26
and our startingначало pointточка was the humanчеловек faceлицо.
37
134607
3090
И начали мы с человеческого лица.
02:30
So our humanчеловек faceлицо happensпроисходит to be
one of the mostбольшинство powerfulмощный channelsканалы
38
138577
3173
Человеческое лицо —
один из самых мощных каналов,
02:33
that we all use to communicateобщаться
socialСоциальное and emotionalэмоциональный statesсостояния,
39
141750
4016
используемых нами для передачи
социальных и эмоциональных состояний:
02:37
everything from enjoymentнаслаждение, surpriseсюрприз,
40
145766
3010
наслаждения, удивления,
02:40
empathyсопереживание and curiosityлюбопытство.
41
148776
4203
сопереживания, любопытства.
02:44
In emotionэмоция scienceнаука, we call eachкаждый
facialлицевой muscleмускул movementдвижение an actionдействие unitЕд. изм.
42
152979
4928
В науке об эмоциях каждое движение
мышцами лица мы называем действием.
02:49
So for exampleпример, actionдействие unitЕд. изм 12,
43
157907
2925
Например, действие 12 —
это не название голливудского блокбастера,
02:52
it's not a HollywoodГолливуд blockbusterблокбастер,
44
160832
2038
02:54
it is actuallyна самом деле a lipгуба cornerугол pullвытащить,
whichкоторый is the mainглавный componentкомпонент of a smileулыбка.
45
162870
3442
а движение уголков губ вверх —
главный компонент улыбки.
Давайте-ка все попробуем улыбнуться!
02:58
Try it everybodyвсе. Let's get
some smilesулыбки going on.
46
166312
2988
Другой пример — действие 4.
Это нахмуривание бровей.
03:01
AnotherДругая exampleпример is actionдействие unitЕд. изм 4.
It's the browчело furrowборозда.
47
169300
2654
03:03
It's when you drawпривлечь your eyebrowsброви togetherвместе
48
171954
2238
Это когда сводишь брови вместе,
и получаются морщинки.
03:06
and you createСоздайте all
these texturesтекстуры and wrinklesморщины.
49
174192
2267
Мы их не любим, но они —
явный показатель негативной эмоции.
03:08
We don't like them, but it's
a strongсильный indicatorиндикатор of a negativeотрицательный emotionэмоция.
50
176459
4295
У нас 45 таких действий,
03:12
So we have about 45 of these actionдействие unitsединицы,
51
180754
2206
и они комбинируются
для передачи сотен эмоций.
03:14
and they combineскомбинировать to expressэкспресс
hundredsсотни of emotionsэмоции.
52
182960
3390
03:18
Teachingобучение a computerкомпьютер to readчитать
these facialлицевой emotionsэмоции is hardжесткий,
53
186350
3901
Научить компьютер
считывать выражения лица трудно,
03:22
because these actionдействие unitsединицы,
they can be fastбыстро, they're subtleтонкий,
54
190251
2972
потому что такие действия
могут быть быстрыми, нечёткими
03:25
and they combineскомбинировать in manyмногие differentдругой waysпути.
55
193223
2554
и по-разному комбинироваться.
03:27
So take, for exampleпример,
the smileулыбка and the smirkухмылка.
56
195777
3738
Возьмём, к примеру, улыбку и ухмылку.
03:31
They look somewhatв некотором роде similarаналогичный,
but they mean very differentдругой things.
57
199515
3753
Они выглядят похоже,
но значат абсолютно разные вещи.
03:35
(LaughterСмех)
58
203268
1718
(Смех)
03:36
So the smileулыбка is positiveположительный,
59
204986
3004
Улыбка позитивна,
а ухмылка часто негативна.
03:39
a smirkухмылка is oftenдовольно часто negativeотрицательный.
60
207990
1270
Иногда ухмылка
может сделать вас знаменитым.
03:41
SometimesИногда a smirkухмылка
can make you becomeстали famousизвестный.
61
209260
3876
03:45
But seriouslyшутки в сторону, it's importantважный
for a computerкомпьютер to be ableв состоянии
62
213136
2824
Но если серьёзно,
важно, чтобы компьютер
03:47
to tell the differenceразница
betweenмежду the two expressionsвыражения.
63
215960
2855
мог определить разницу
между этими двумя выражениями.
Как это сделать?
03:50
So how do we do that?
64
218815
1812
Мы снабжаем наши алгоритмы
03:52
We give our algorithmsалгоритмы
65
220627
1787
десятками тысяч примеров
людей, которые точно улыбаются, —
03:54
tensдесятки of thousandsтысячи of examplesПримеры
of people we know to be smilingулыбается,
66
222414
4110
03:58
from differentдругой ethnicitiesэтносы, agesвозраст, gendersпола,
67
226524
3065
людей из разных этнических групп,
разных возрастов, разного пола.
04:01
and we do the sameодна и та же for smirksухмыляется.
68
229589
2811
То же самое мы делаем и для ухмылки.
А затем с помощью глубинного обучения
04:04
And then, usingс помощью deepглубоко learningобучение,
69
232400
1554
04:05
the algorithmалгоритм looksвыглядит for all these
texturesтекстуры and wrinklesморщины
70
233954
2856
алгоритм рассматривает
все эти текстуры, морщинки
04:08
and shapeформа changesизменения on our faceлицо,
71
236810
2580
и изменения форм лица
04:11
and basicallyв основном learnsузнает that all smilesулыбки
have commonобщий characteristicsхарактеристики,
72
239390
3202
и запоминает, что у всех улыбок
есть общие характеристики,
04:14
all smirksухмыляется have subtlyтонко
differentдругой characteristicsхарактеристики.
73
242592
3181
а у ухмылок — слегка иные характеристики.
В следующий раз,
когда компьютер видит новое лицо,
04:17
And the nextследующий time it seesвидит a newновый faceлицо,
74
245773
2368
04:20
it essentiallyпо существу learnsузнает that
75
248141
2299
он, по сути, узнаёт,
04:22
this faceлицо has the sameодна и та же
characteristicsхарактеристики of a smileулыбка,
76
250440
3033
что у этого лица есть
те же самые характеристики улыбки,
04:25
and it saysговорит, "AhaАга, I recognizeпризнать this.
This is a smileулыбка expressionвыражение."
77
253473
4278
и восклицает:
«Ага! Узнаю. Это выражение улыбки».
04:30
So the bestЛучший way to demonstrateдемонстрировать
how this technologyтехнологии worksработает
78
258381
2800
Лучший способ показать
эту технологию в работе —
04:33
is to try a liveжить demoдемонстрация,
79
261181
2136
это живая демонстрация,
04:35
so I need a volunteerдоброволец,
preferablyпредпочтительно somebodyкто-то with a faceлицо.
80
263317
3913
так что мне нужен волонтёр,
желательно с лицом.
(Смех)
04:39
(LaughterСмех)
81
267230
2334
04:41
Cloe'sКло-х going to be our volunteerдоброволец todayCегодня.
82
269564
2771
Хлоя будет сегодня нашим волонтёром.
04:45
So over the pastмимо five5 yearsлет, we'veмы в movedпереехал
from beingявляющийся a researchисследование projectпроект at MITMIT
83
273325
4458
За последние 5 лет мы превратились
из исследовательского проекта в MIT
04:49
to a companyКомпания,
84
277783
1156
в компанию,
04:50
where my teamкоманда has workedработал really hardжесткий
to make this technologyтехнологии work,
85
278939
3192
где моя команда упорно трудилась
над тем, чтобы технология заработала,
как мы любим говорить,
в естественных условиях.
04:54
as we like to say, in the wildдикий.
86
282131
2409
Мы также её уменьшили,
и теперь центральное ядро эмоций
04:56
And we'veмы в alsoтакже shrunkсжавшийся it so that
the coreядро emotionэмоция engineдвигатель
87
284540
2670
04:59
worksработает on any mobileмобильный deviceустройство
with a cameraкамера, like this iPadIPad.
88
287210
3320
работает на любом мобильном
устройстве с камерой, как вот этот iPad.
05:02
So let's give this a try.
89
290530
2786
Давайте попробуем.
05:06
As you can see, the algorithmалгоритм
has essentiallyпо существу foundнайденный Cloe'sКло-х faceлицо,
90
294756
3924
Как вы видите,
алгоритм обнаружил лицо Хлои —
05:10
so it's this whiteбелый boundingограничивающая boxкоробка,
91
298680
1692
вот эта белая рамка —
05:12
and it's trackingотслеживание the mainглавный
featureособенность pointsточки on her faceлицо,
92
300372
2571
и он отслеживает
основные характерные точки на её лице:
05:14
so her eyebrowsброви, her eyesглаза,
her mouthрот and her noseнос.
93
302943
2856
это её брови, глаза, рот и нос.
05:17
The questionвопрос is,
can it recognizeпризнать her expressionвыражение?
94
305799
2987
Вопрос в том, может ли он
определить выражение её лица?
05:20
So we're going to testконтрольная работа the machineмашина.
95
308786
1671
Протестируем механизм.
05:22
So first of all, give me your pokerпокер faceлицо.
YepАга, awesomeздорово. (LaughterСмех)
96
310457
4186
Сначала покажи мне каменное лицо.
Да, супер. (Смех)
05:26
And then as she smilesулыбки,
this is a genuineподлинный smileулыбка, it's great.
97
314643
2813
А затем, когда она улыбается...
Искренняя улыбка, здорово!
05:29
So you can see the greenзеленый barбар
go up as she smilesулыбки.
98
317456
2300
Видите, зелёная полоска растёт,
когда она улыбается?
05:31
Now that was a bigбольшой smileулыбка.
99
319756
1222
Это была широкая улыбка.
05:32
Can you try a subtleтонкий smileулыбка
to see if the computerкомпьютер can recognizeпризнать?
100
320978
3043
Можешь слегка улыбнуться,
чтобы посмотреть, распознает ли компьютер?
05:36
It does recognizeпризнать subtleтонкий smilesулыбки as well.
101
324021
2331
Да, распознаёт и неявные улыбки.
Мы усердно трудились,
чтобы это работало.
05:38
We'veУ нас workedработал really hardжесткий
to make that happenслучаться.
102
326352
2125
Теперь подними бровь —
индикатор удивления.
05:40
And then eyebrowбровь raisedподнятый,
indicatorиндикатор of surpriseсюрприз.
103
328477
2962
05:43
Browчело furrowборозда, whichкоторый is
an indicatorиндикатор of confusionпутаница.
104
331439
4249
Сдвинь брови —
индикатор замешательства. (Смех)
05:47
Frownнахмуриться. Yes, perfectидеально.
105
335688
4007
Посмотри с неодобрением. Да, отлично.
05:51
So these are all the differentдругой
actionдействие unitsединицы. There's manyмногие more of them.
106
339695
3493
Это различного рода действия.
Их гораздо больше.
05:55
This is just a slimmed-downсократившиеся demoдемонстрация.
107
343188
2032
Это короткая демонстрация.
05:57
But we call eachкаждый readingчтение
an emotionэмоция dataданные pointточка,
108
345220
3148
Каждое считывание эмоции
мы называем точкой данных.
06:00
and then they can fireОгонь togetherвместе
to portrayизображать differentдругой emotionsэмоции.
109
348368
2969
Они подпитывают друг друга
для изображения разных эмоций.
06:03
So on the right sideбоковая сторона of the demoдемонстрация --
look like you're happyсчастливый.
110
351337
4653
На правой стороне демо —
смотри, как будто ты счастливая.
Это радость. Радость усиливается.
06:07
So that's joyрадость. JoyРадость firesпожары up.
111
355990
1454
06:09
And then give me a disgustотвращение faceлицо.
112
357444
1927
А теперь покажи мне отвращение.
06:11
Try to rememberзапомнить what it was like
when ZaynЗайн left One Directionнаправление.
113
359371
4272
Вспомни, как Зейн ушёл
из группы One Direction.
06:15
(LaughterСмех)
114
363643
1510
(Смех)
06:17
Yeah, wrinkleморщина your noseнос. AwesomeПотрясающие.
115
365153
4342
Да, сморщи нос. Великолепно.
06:21
And the valenceвалентность is actuallyна самом деле quiteдовольно
negativeотрицательный, so you mustдолжен have been a bigбольшой fanпоклонник.
116
369495
3731
Валентность весьма негативная,
то есть ты, пожалуй, была фанатом.
Валентность — это насколько опыт
положителен или отрицателен.
06:25
So valenceвалентность is how positiveположительный
or negativeотрицательный an experienceопыт is,
117
373226
2700
06:27
and engagementпомолвка is how
expressiveвыразительный she is as well.
118
375926
2786
А вовлечённость —
насколько она выразительна.
06:30
So imagineпредставить if CloeХлоя had accessдоступ
to this real-timeреальное время emotionэмоция streamпоток,
119
378712
3414
Представьте, если бы у Хлои был доступ
к этому потоку эмоций в реальном времени
06:34
and she could shareдоля it
with anybodyкто-нибудь she wanted to.
120
382126
2809
и она могла бы поделиться этим
с кем угодно.
06:36
Thank you.
121
384935
2923
Спасибо.
(Аплодисменты)
06:39
(ApplauseАплодисменты)
122
387858
4621
06:45
So, so farдалеко, we have amassedнакопил
12 billionмиллиард of these emotionэмоция dataданные pointsточки.
123
393749
5270
На данный момент мы собрали
12 миллиардов таких вот точек данных.
06:51
It's the largestкрупнейший emotionэмоция
databaseбаза данных in the worldМир.
124
399019
2611
Это самая крупная
база данных эмоций в мире.
06:53
We'veУ нас collectedсобранный it
from 2.9 millionмиллиона faceлицо videosвидео,
125
401630
2963
Мы собрали её
с 2,9 миллионов видео —
06:56
people who have agreedсогласовано
to shareдоля theirих emotionsэмоции with us,
126
404593
2600
людей, согласившихся
поделиться с нами своими эмоциями, —
06:59
and from 75 countriesстраны around the worldМир.
127
407193
3205
из 75 стран мира.
07:02
It's growingрост everyкаждый day.
128
410398
1715
База данных с каждым днём растёт.
07:04
It blowsударов my mindразум away
129
412603
2067
Меня поражает, что теперь мы можем
07:06
that we can now quantifyколичественного something
as personalличный as our emotionsэмоции,
130
414670
3195
измерять нечто настолько личное,
как эмоции,
07:09
and we can do it at this scaleмасштаб.
131
417865
2235
причём в таком масштабе.
07:12
So what have we learnedнаучился to dateДата?
132
420100
2177
Что мы узнали на сегодняшний день?
07:15
GenderПол.
133
423057
2331
Данные о полах.
07:17
Our dataданные confirmsподтверждает something
that you mightмог бы suspectподозреваемый.
134
425388
3646
Наши данные подтверждают то,
о чём вы, пожалуй, сами догадываетесь:
07:21
Womenженщины are more expressiveвыразительный than menлюди.
135
429034
1857
женщины более выразительны,
чем мужчины.
07:22
Not only do they smileулыбка more,
theirих smilesулыбки last longerдольше,
136
430891
2683
Они не только чаще улыбаются,
но и улыбки их длятся дольше.
07:25
and we can now really quantifyколичественного
what it is that menлюди and womenженщины
137
433574
2904
И теперь мы можем измерить,
на что мужчины и женщины
реагируют по-разному.
07:28
respondотвечать to differentlyиначе.
138
436478
2136
07:30
Let's do cultureкультура: So in the Unitedобъединенный Statesсостояния,
139
438614
2290
Начнём с культуры:
в США женщины на 40%
выразительнее мужчин,
07:32
womenженщины are 40 percentпроцент
more expressiveвыразительный than menлюди,
140
440904
3204
07:36
but curiouslyстранно, we don't see any differenceразница
in the U.K. betweenмежду menлюди and womenженщины.
141
444108
3645
но любопытно, что в Англии
подобного различия не наблюдается.
07:39
(LaughterСмех)
142
447753
2506
(Смех)
07:43
AgeВозраст: People who are 50 yearsлет and olderстаршая
143
451296
4027
Возраст: люди от 50 лет и старше
07:47
are 25 percentпроцент more emotiveволнующий
than youngerмоложе people.
144
455323
3436
на 25% более эмоциональны,
чем те, кто моложе.
Женщины после 20 улыбаются
куда чаще мужчин того же возраста,
07:51
Womenженщины in theirих 20s smileулыбка a lot more
than menлюди the sameодна и та же ageвозраст,
145
459899
3852
07:55
perhapsвозможно a necessityнеобходимость for datingзнакомства.
146
463751
3839
может, это необходимо для флирта.
Но, пожалуй, больше всего нас удивило то,
07:59
But perhapsвозможно what surprisedудивленный us
the mostбольшинство about this dataданные
147
467590
2617
08:02
is that we happenслучаться
to be expressiveвыразительный all the time,
148
470207
3203
что мы постоянно передаём эмоции,
08:05
even when we are sittingсидящий
in frontфронт of our devicesприборы aloneв одиночестве,
149
473410
2833
даже когда в одиночестве
сидим за своими устройствами,
08:08
and it's not just when we're watchingнаблюдение
catКот videosвидео on Facebookfacebook.
150
476243
3274
причём не только когда смотрим видео
о кошках на Facebook.
08:12
We are expressiveвыразительный when we're emailingотправки по электронной почте,
textingтекстовые сообщения, shoppingпоход по магазинам onlineонлайн,
151
480217
3010
Мы выражаем эмоции, когда пишем имейлы,
смс, делаем покупки онлайн
08:15
or even doing our taxesналоги.
152
483227
2300
или даже оформляем налоги.
08:17
Where is this dataданные used todayCегодня?
153
485527
2392
Где сейчас используются эти данные?
08:19
In understandingпонимание how we engageзаниматься with mediaСМИ,
154
487919
2763
Для анализа взаимодействия со СМИ,
то есть чтобы изучить
виральность и электоральное поведение;
08:22
so understandingпонимание viralityвиральности
and votingголосование behaviorповедение;
155
490682
2484
а также в технологиях, делающих
возможным проявление эмоций.
08:25
and alsoтакже empoweringрасширение прав и возможностей
or emotion-enablingэмоции, позволяя technologyтехнологии,
156
493166
2740
08:27
and I want to shareдоля some examplesПримеры
that are especiallyособенно closeЗакрыть to my heartсердце.
157
495906
4621
Я хочу поделиться несколькими
дорогими мне примерами.
08:33
Emotion-enabledEmotion поддержки wearableпригодный для носки glassesочки
can help individualsиндивидуумы
158
501197
3068
Очки с эмоциональной поддержкой
позволяют пользователю
08:36
who are visuallyвизуально impairedослабленный
readчитать the facesлица of othersдругие,
159
504265
3228
со слабым зрением
считывать лица окружающих,
08:39
and it can help individualsиндивидуумы
on the autismаутизм spectrumспектр interpretинтерпретировать emotionэмоция,
160
507493
4187
они могут помочь людям с аутизмом
определять эмоции —
сложная задача для таких людей.
08:43
something that they really struggleборьба with.
161
511680
2778
В образовании: представьте,
что ваше обучающее приложение
08:47
In educationобразование, imagineпредставить
if your learningобучение appsПрограммы
162
515918
2859
08:50
senseсмысл that you're confusedсмущенный and slowмедленный down,
163
518777
2810
чувствует, что вы запутались,
и понижает темп,
или чувствует,
что вам скучно, и ускоряется,
08:53
or that you're boredскучающий, so it's spedускоренный up,
164
521587
1857
08:55
just like a great teacherучитель
would in a classroomкласс.
165
523444
2969
как бы сделал хороший учитель в классе.
08:59
What if your wristwatchнаручные часы trackedотслеживаются your moodнастроение,
166
527043
2601
Что, если бы наручные часы
отслеживали ваше настроение
09:01
or your carавтомобиль sensedпочувствовал that you're tiredустала,
167
529644
2693
или автомобиль ощущал, что вы устали,
или, может, ваш холодильник
чувствовал, что вы напряжены,
09:04
or perhapsвозможно your fridgeхолодильник
knowsзнает that you're stressedподчеркнул,
168
532337
2548
09:06
so it auto-locksавто-замки to preventне допустить you
from bingeвыпивка eatingпринимать пищу. (LaughterСмех)
169
534885
6066
и запирался, чтобы предотвратить
обжорство. (Смех)
Мне бы такое понравилось.
09:12
I would like that, yeah.
170
540951
2717
09:15
What if, when I was in CambridgeКембридж,
171
543668
1927
Что, если бы, когда я была в Кембридже,
09:17
I had accessдоступ to my real-timeреальное время
emotionэмоция streamпоток,
172
545595
2313
у меня был доступ к моему
эмоциональному потоку в реальном времени
09:19
and I could shareдоля that with my familyсемья
back home in a very naturalнатуральный way,
173
547908
3529
и я могла бы поделиться им
со своей семьёй,
09:23
just like I would'veбы уже if we were all
in the sameодна и та же roomкомната togetherвместе?
174
551437
3971
как если бы они были
со мной в одной комнате?
09:27
I think five5 yearsлет down the lineлиния,
175
555408
3142
Думаю, через 5 лет
у всех наших устройств
будет эмоциональный чип,
09:30
all our devicesприборы are going
to have an emotionэмоция chipчип,
176
558550
2337
09:32
and we won'tне будет rememberзапомнить what it was like
when we couldn'tне может just frownнахмуриться at our deviceустройство
177
560887
4064
и мы забудем о тех временах,
когда мы не могли просто нахмуриться,
09:36
and our deviceустройство would say, "HmmХмм,
you didn't like that, did you?"
178
564951
4249
а наше устройство сказало бы:
«Тебе это не понравилось, не так ли?»
09:41
Our biggestсамый большой challengeвызов is that there are
so manyмногие applicationsПриложения of this technologyтехнологии,
179
569200
3761
Наша наибольшая трудность в том,
что у этой технологии
так много областей применения,
09:44
my teamкоманда and I realizeпонимать that we can't
buildстроить them all ourselvesсами,
180
572961
2903
что я и моя команда не можем
всё делать в одиночку.
09:47
so we'veмы в madeсделал this technologyтехнологии availableдоступный
so that other developersРазработчики
181
575864
3496
Мы сделали эту технологию доступной,
чтобы другие разработчики
09:51
can get buildingздание and get creativeтворческий.
182
579360
2114
могли начать свои проекты и творить.
09:53
We recognizeпризнать that
there are potentialпотенциал risksриски
183
581474
4086
Мы осознаём, что есть риск
09:57
and potentialпотенциал for abuseзлоупотребление,
184
585560
2067
и возможность неправильного обращения,
09:59
but personallyлично, havingимеющий spentпотраченный
manyмногие yearsлет doing this,
185
587627
2949
но лично мне,
после многих лет за этим делом,
10:02
I believe that the benefitsвыгоды to humanityчеловечество
186
590576
2972
кажется, что польза для человечества
от наличия эмоционально
интеллектуальной технологии
10:05
from havingимеющий emotionallyэмоционально
intelligentумный technologyтехнологии
187
593548
2275
значительно перевешивает
риски злоупотребления.
10:07
farдалеко outweighперевешивать the potentialпотенциал for misuseзлоупотребление.
188
595823
3576
Я приглашаю всех принять участие.
10:11
And I inviteприглашать you all to be
partчасть of the conversationразговор.
189
599399
2531
10:13
The more people who know
about this technologyтехнологии,
190
601930
2554
Чем больше людей
знают об этой технологии,
тем больше возможности для каждого из нас
высказаться о том, как её использовать.
10:16
the more we can all have a voiceголос
in how it's beingявляющийся used.
191
604484
3177
10:21
So as more and more
of our livesжизни becomeстали digitalцифровой,
192
609081
4574
По мере того, как наша жизнь
всё больше становится цифровой,
мы ведём безнадёжную борьбу,
пытаясь обуздать применение устройств,
10:25
we are fightingборьба a losingпроигрыш battleбоевой
tryingпытаясь to curbузда our usageПрименение of devicesприборы
193
613655
3498
10:29
in orderзаказ to reclaimистребовать our emotionsэмоции.
194
617153
2229
чтобы вернуть нам наши эмоции.
10:32
So what I'm tryingпытаясь to do insteadвместо
is to bringприносить emotionsэмоции into our technologyтехнологии
195
620622
3914
Вместо этого я пытаюсь
привнести эмоции в технологии
10:36
and make our technologiesтехнологии more responsiveотзывчивый.
196
624536
2229
и сделать их более чуткими.
10:38
So I want those devicesприборы
that have separatedотделенный us
197
626765
2670
Я хочу, чтобы устройства,
отделившие нас друг от друга,
10:41
to bringприносить us back togetherвместе.
198
629435
2462
снова нас объединили.
10:43
And by humanizingсмягчающий technologyтехнологии,
we have this goldenзолотой opportunityвозможность
199
631897
4588
Путём очеловечивания технологий
мы обретаем блестящую возможность
10:48
to reimagineпереосмыслить how we
connectсоединять with machinesмашины,
200
636485
3297
переосмыслить то, как мы
взаимодействуем с машинами,
10:51
and thereforeследовательно, how we, as humanчеловек beingsсущества,
201
639782
4481
а значит и то, как мы, люди,
10:56
connectсоединять with one anotherдругой.
202
644263
1904
взаимодействуем друг с другом.
10:58
Thank you.
203
646167
2160
Спасибо.
(Аплодисменты)
11:00
(ApplauseАплодисменты)
204
648327
3313
Translated by Alina Siluyanova
Reviewed by volha douban

▲Back to top

ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee