ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com
TEDWomen 2015

Rana el Kaliouby: This app knows how you feel -- from the look on your face

רנא אל קליובי: יישום זה יודע איך אתם מרגישים - מהמבט על הפנים שלכם

Filmed:
1,613,290 views

הרגשות שלנו משפיעים על כל היבט של חיינו - כיצד אנו לומדים, איך אנו מתקשרים, כיצד אנו מקבלים החלטות. ובכל זאת הם נעדרים מחיינו הדיגיטליים; למכשירים וליישומים איתם אנו מתקשרים אין שום דרך לדעת איך אנחנו מרגישים. המדענית רנא אל קליובי שואפת לשנות את זה. היא מדגימה טכנולוגיה חדשה ורבת עוצמה שקוראת את הבעות הפנים שלכם ומתאימה אותן לרגשות המתאימים . ל"מנוע רגש" יש השלכות גדולות, היא אומרת, ויוכל לשנות לא רק איך אנו מתקשרים עם מכונות - אבל גם אחד עם השני.
- Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware. Full bio

Double-click the English transcript below to play the video.

00:12
Our emotionsרגשות influenceלְהַשְׁפִּיעַ
everyכֹּל aspectאספקט of our livesחיים,
0
556
4017
הרגשות שלנו משפיעים על כל
היבט של חיינו,
00:16
from our healthבְּרִיאוּת and how we learnלִלמוֹד,
to how we do businessעֵסֶק and make decisionsהחלטות,
1
4573
3576
מהבריאות שלנו, ואיך אנו לומדים, עושים
עסקים ומקבלים החלטות,
00:20
bigגָדוֹל onesיחידות and smallקָטָן.
2
8149
1773
גדולות וקטנות.
00:22
Our emotionsרגשות alsoגַם influenceלְהַשְׁפִּיעַ
how we connectלְחַבֵּר with one anotherאַחֵר.
3
10672
3490
הרגשות שלנו משפיעים גם על הדרך בה
אנו מתחברים זה לזה.
00:27
We'veללא שם: יש לנו evolvedהתפתח to liveלחיות
in a worldעוֹלָם like this,
4
15132
3976
התפתחנו לחיות בעולם כמו זה,
00:31
but insteadבמקום זאת, we're livingחַי
more and more of our livesחיים like this --
5
19108
4319
אך במקום זאת, אנו חיים את חיינו
יותר ויותר כך -
00:35
this is the textטֶקסט messageהוֹדָעָה
from my daughterבַּת last night --
6
23427
3134
זוהי הודעת הטקסט
מהבת שלי אתמול בלילה --
00:38
in a worldעוֹלָם that's devoidנָטוּל of emotionרֶגֶשׁ.
7
26561
2740
בעולם נטול רגש.
00:41
So I'm on a missionמשימה to changeשינוי that.
8
29301
1951
אז אני במשימה לשנות זאת.
00:43
I want to bringלְהָבִיא emotionsרגשות
back into our digitalדִיגִיטָלי experiencesחוויות.
9
31252
4091
אני רוצה להחזיר את הרגשות
לחוויות הדיגיטליות שלנו.
00:48
I startedהתחיל on this pathנָתִיב 15 yearsשנים agoלִפנֵי.
10
36223
3077
התחלתי בדרך זו לפני 15 שנים
00:51
I was a computerמַחשֵׁב scientistמַדְעָן in Egyptמִצְרַיִם,
11
39300
2066
הייתי מדעית מחשב במצרים,
00:53
and I had just gottenקיבל acceptedמְקוּבָּל to
a PhPh.D. programתָכְנִית at Cambridgeקיימברידג ' Universityאוּנִיבֶרְסִיטָה.
12
41366
4505
ובדיוק התקבלתי לתכנית דוקטורט
באוניברסיטת קיימברידג'.
00:57
So I did something quiteדַי unusualבלתי שגרתי
13
45871
2113
אז עשיתי משהו יוצא דופן
00:59
for a youngצָעִיר newlywedזוּג צָעִיר Muslimמוסלמי Egyptianמִצרִי wifeאישה:
14
47984
4225
לאישה מוסלמית צעירה ונשואה טרייה:
01:05
With the supportתמיכה of my husbandבַּעַל,
who had to stayשָׁהוּת in Egyptמִצְרַיִם,
15
53599
2999
עם תמיכה של בעלי שנאלץ להישאר במצרים,
01:08
I packedארוז my bagsתיקים and I movedנִרגָשׁ to Englandאַנְגלִיָה.
16
56598
3018
ארזתי את חפציי ועברתי לאנגליה.
01:11
At Cambridgeקיימברידג ', thousandsאלפים of milesstomach
away from home,
17
59616
3228
בקיימברידג', אלפי קילומטרים הרחק מהבית,
01:14
I realizedהבין I was spendingההוצאה
more hoursשעות with my laptopמחשב נייד
18
62844
3413
נוכחתי שאני מבזבזת יותר שעות
עם המחשב הנישא שלי
01:18
than I did with any other humanבן אנוש.
19
66257
2229
מאשר עם כל בן אדם אחר.
01:20
Yetעדיין despiteלמרות this intimacyאִינטִימִיוּת, my laptopמחשב נייד
had absolutelyבהחלט no ideaרַעְיוֹן how I was feelingמַרגִישׁ.
20
68486
4853
ועל אף האינטימיות, למחשב
לא היה כל מושג איך אני מרגישה
01:25
It had no ideaרַעְיוֹן if I was happyשַׂמֵחַ,
21
73339
3211
לא היה לו מושג אם הייתי מאושרת
01:28
havingשיש a badרַע day, or stressedלחוץ, confusedמְבוּלבָּל,
22
76550
2988
היה לי יום גרוע, או לחוץ, מבולבל,
01:31
and so that got frustratingמתסכל.
23
79538
2922
וכך זה נעשה מתסכל.
01:35
Even worseרע יותר, as I communicatedתקשר
onlineבאינטרנט with my familyמִשׁפָּחָה back home,
24
83600
5231
אפילו גרוע יותר, כשהתקשרתי
עם משפחתי באינטרנט
01:41
I feltהרגיש that all my emotionsרגשות
disappearedנעלם in cyberspaceהסייברספייס.
25
89421
3282
הרגשתי שכל הרגשות שלי
נעלמו במרחב הקיברנטי.
01:44
I was homesickמִתגַעֲגֵעַ הַבַּיתָה, I was lonelyבּוֹדֵד,
and on some daysימים I was actuallyלמעשה cryingבְּכִי,
26
92703
5155
התגעגעתי הביתה, הייתי בודדה,
ולמשך כמה ימים ממש בכיתי,
01:49
but all I had to communicateלתקשר
these emotionsרגשות was this.
27
97858
4928
אבל כל מה שהיה לי כדי להעביר
את הרגשות האלו היה זה.
01:54
(Laughterצחוק)
28
102786
2020
(צחוק)
01:56
Today'sהיום technologyטֶכנוֹלוֹגִיָה
has lots of I.Q., but no E.Q.;
29
104806
4974
לטכנולוגיה של היום יש הרבה I.Q., אבל לא E.Q .;
02:01
lots of cognitiveקוגניטיבית intelligenceאינטליגנציה,
but no emotionalרִגשִׁי intelligenceאינטליגנציה.
30
109780
3176
המון אינטליגנציה קוגניטיבית,
אבל אין אינטליגנציה רגשית.
02:04
So that got me thinkingחושב,
31
112956
2197
כך שזה גרם לי לחשוב,
02:07
what if our technologyטֶכנוֹלוֹגִיָה
could senseלָחוּשׁ our emotionsרגשות?
32
115153
3624
מה אם הטכנולוגיה שלנו יכלה
לחוש את הרגשות שלנו?
02:10
What if our devicesהתקנים could senseלָחוּשׁ
how we feltהרגיש and reactedהגיבו accordinglyבהתאם לכך,
33
118777
4076
מה אם המכשירים שלנו יכלו לחוש
איך הרגשנו והיו מגיבים בהתאם,
02:14
just the way an emotionallyרגשית
intelligentאִינְטֶלִיגֶנְטִי friendחָבֵר would?
34
122853
3013
כמו באופן בו חבר אינטליגנטי
רגשית היה מרגיש?
02:18
Those questionsשאלות led me and my teamקְבוּצָה
35
126666
3564
שאלות אלו הנחו אותי ואת
הצוות שלי
02:22
to createלִיצוֹר technologiesטכנולוגיות that can readלקרוא
and respondלְהָגִיב to our emotionsרגשות,
36
130230
4377
ליצור טכנולוגיות שיכולות לקרוא
את הרגשות שלנו, ולהגיב להם.
02:26
and our startingהחל pointנְקוּדָה was the humanבן אנוש faceפָּנִים.
37
134607
3090
ונקודת המוצא שלנו הייתה
הפנים האנושיות.
02:30
So our humanבן אנוש faceפָּנִים happensקורה to be
one of the mostרוב powerfulחָזָק channelsערוצים
38
138577
3173
אז הפנים האנושיות שלנו הן
אחד מהערוצים החזקים ביותר
02:33
that we all use to communicateלתקשר
socialחֶברָתִי and emotionalרִגשִׁי statesמדינות,
39
141750
4016
שכולנו משתמשים בהן כדי לתקשר
מצבים חברתיים ורגשיים,
02:37
everything from enjoymentהֲנָאָה, surpriseהַפתָעָה,
40
145766
3010
הכל מהנאה, הפתעה
02:40
empathyאֶמפַּתִיָה and curiosityסַקרָנוּת.
41
148776
4203
אמפתיה וסקרנות.
02:44
In emotionרֶגֶשׁ scienceמַדָע, we call eachכל אחד
facialפַּרצוּפִי muscleשְׁרִיר movementתְנוּעָה an actionפעולה unitיחידה.
42
152979
4928
במדע הרגשות, אנחנו קוראים לכל
תנועת שרירי פנים יחידת פעולה.
02:49
So for exampleדוגמא, actionפעולה unitיחידה 12,
43
157907
2925
כך למשל, יחידת פעולה 12,
02:52
it's not a Hollywoodהוליווד blockbusterשובר קופות,
44
160832
2038
זה לא שובר קופות הוליוודי,
02:54
it is actuallyלמעשה a lipשָׂפָה cornerפינה pullמְשׁוֹך,
whichאיזה is the mainרָאשִׁי componentרְכִיב of a smileחיוך.
45
162870
3442
זו למעשה משיכה של פינת שפה,
שמהווה את המרכיב העיקרי של חיוך.
02:58
Try it everybodyכולם. Let's get
some smilesמחייך going on.
46
166312
2988
נסו את זה לכולם. בואו ונעלה
כמה חיוכים.
03:01
Anotherאַחֵר exampleדוגמא is actionפעולה unitיחידה 4.
It's the browמֵצַח furrowתֶלֶם.
47
169300
2654
דוגמה נוספת היא יחידת פעולה 4.
היא כיווץ המצח.
03:03
It's when you drawלצייר your eyebrowsגבות togetherיַחַד
48
171954
2238
זה כאשר אתם מושכים
את הגבות שלכם יחד
03:06
and you createלִיצוֹר all
these texturesטקסטורות and wrinklesקמטים.
49
174192
2267
ואתם יוצרים את כל
המרקמים והקמטים האלה.
03:08
We don't like them, but it's
a strongחָזָק indicatorאינדיקטור of a negativeשלילי emotionרֶגֶשׁ.
50
176459
4295
אנחנו לא אוהבים אותם, אבל זו
אינדיקציה חזקה של רגש שלילי.
03:12
So we have about 45 of these actionפעולה unitsיחידות,
51
180754
2206
אז יש לנו כ -45 יחידות פעולה כאלו,
03:14
and they combineלְשַׁלֵב to expressאֶקְסְפּרֶס
hundredsמאות of emotionsרגשות.
52
182960
3390
והן משתלבות להביע
מאות רגשות.
03:18
Teachingהוֹרָאָה a computerמַחשֵׁב to readלקרוא
these facialפַּרצוּפִי emotionsרגשות is hardקָשֶׁה,
53
186350
3901
קשה ללמד מחשב לקרוא את הבעות
הפנים האלו,
03:22
because these actionפעולה unitsיחידות,
they can be fastמָהִיר, they're subtleעָדִין,
54
190251
2972
כי יחידות פעולה אלה,
הן יכולות להיות מהירות, הן עדינות,
03:25
and they combineלְשַׁלֵב in manyרב differentשונה waysדרכים.
55
193223
2554
והן משתלבות בהרבה אופנים.
03:27
So take, for exampleדוגמא,
the smileחיוך and the smirkחִיוּך מְעוּשֶׂה.
56
195777
3738
אז קחו לדוגמה, חיוך רגיל וגיחוך.
03:31
They look somewhatבמידה מסוימת similarדוֹמֶה,
but they mean very differentשונה things.
57
199515
3753
הם נראים זהים, אבל משמעותם
שונה לחלוטין.
03:35
(Laughterצחוק)
58
203268
1718
(צחוק)
03:36
So the smileחיוך is positiveחִיוּבִי,
59
204986
3004
אז החיוך הוא חיובי,
03:39
a smirkחִיוּך מְעוּשֶׂה is oftenלעתים קרובות negativeשלילי.
60
207990
1270
הגיחוך הוא לעתים קרובות
שלילי.
03:41
Sometimesלִפְעָמִים a smirkחִיוּך מְעוּשֶׂה
can make you becomeהפכו famousמפורסם.
61
209260
3876
לפעמים גיחוך
יכול לגרום לכם להיות מפורסמים
03:45
But seriouslyברצינות, it's importantחָשׁוּב
for a computerמַחשֵׁב to be ableיכול
62
213136
2824
אבל ברצינות, זה חשוב
שמחשב יהיה מסוגל
03:47
to tell the differenceהֶבדֵל
betweenבֵּין the two expressionsביטויים.
63
215960
2855
להצביע על ההבדל בין שתי ההבעות.
03:50
So how do we do that?
64
218815
1812
אז איך אנחנו עושים את זה?
03:52
We give our algorithmsאלגוריתמים
65
220627
1787
אנחנו נותנים לאלגוריתמים שלנו
03:54
tensעשרות of thousandsאלפים of examplesדוגמאות
of people we know to be smilingמחייך,
66
222414
4110
עשרות אלפי דוגמאות
של אנשים שאנחנו מכירים כמחייכים,
03:58
from differentשונה ethnicitiesאתניות, agesהגילאים, gendersמגדרים,
67
226524
3065
ממוצאים אתניים, גילים,
ומגדרים שונים,
04:01
and we do the sameאותו for smirksגיחוכים.
68
229589
2811
ואנחנו עושים את אותו הדבר
עבור גיחוכים.
04:04
And then, usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני deepעָמוֹק learningלְמִידָה,
69
232400
1554
ולאחר מכן, באמצעות
למידה עמוקה
04:05
the algorithmאַלגוֹרִיתְם looksנראה for all these
texturesטקסטורות and wrinklesקמטים
70
233954
2856
האלגוריתם מחפש את כל
המרקמים והקמטים האלו
04:08
and shapeצוּרָה changesשינויים on our faceפָּנִים,
71
236810
2580
וצורות שינוי על פנינו,
04:11
and basicallyבעיקרון learnsלומד that all smilesמחייך
have commonמשותף characteristicsמאפיינים,
72
239390
3202
ובעצם לומד שלכל החיוכים
יש מאפיינים משותפים,
04:14
all smirksגיחוכים have subtlyבעדינות
differentשונה characteristicsמאפיינים.
73
242592
3181
לכל הגיחוכים יש
מאפיינים מעודנים שונים.
04:17
And the nextהַבָּא time it seesרואה a newחָדָשׁ faceפָּנִים,
74
245773
2368
ובפעם הבאה שהוא רואה
פנים חדשות,
04:20
it essentiallyלמעשה learnsלומד that
75
248141
2299
הוא בעצם לומד
04:22
this faceפָּנִים has the sameאותו
characteristicsמאפיינים of a smileחיוך,
76
250440
3033
שלפנים אלו יש אותם מאפיינים
של חיוך,
04:25
and it saysאומר, "Ahaאהה, I recognizeלזהות this.
This is a smileחיוך expressionביטוי."
77
253473
4278
והוא אומר, "אהה, אני מכיר את זה.
זו הבעת חיוך. "
04:30
So the bestהטוב ביותר way to demonstrateלְהַפְגִין
how this technologyטֶכנוֹלוֹגִיָה worksעובד
78
258381
2800
לכן הדרך הטובה ביותר להדגים
איך הטכנולוגיה הזו עובדת
04:33
is to try a liveלחיות demoהַדגָמָה,
79
261181
2136
היא לנסות תוכנית הדגמה חיה,
04:35
so I need a volunteerלְהִתְנַדֵב,
preferablyמוּטָב somebodyמִישֶׁהוּ with a faceפָּנִים.
80
263317
3913
אז אני צריכה מתנדב,
רצוי מישהו עם פנים.
04:39
(Laughterצחוק)
81
267230
2334
(צחוק)
04:41
Cloe'sקלו going to be our volunteerלְהִתְנַדֵב todayהיום.
82
269564
2771
קלואי הולכת להיות
המתנדבת שלנו היום
04:45
So over the pastעבר fiveחָמֵשׁ yearsשנים, we'veיש לנו movedנִרגָשׁ
from beingלהיות a researchמחקר projectפּרוֹיֶקט at MITMIT
83
273325
4458
אז בחמש השנים האחרונות, עברנו
מלהיות פרויקט מחקר ב- MIT
04:49
to a companyחֶברָה,
84
277783
1156
לחברה,
04:50
where my teamקְבוּצָה has workedעבד really hardקָשֶׁה
to make this technologyטֶכנוֹלוֹגִיָה work,
85
278939
3192
שבה הקבוצה שלי עבדה ממש קשה
כדי לגרום לטכנולוגיה הזו לעבוד,
04:54
as we like to say, in the wildפְּרָאִי.
86
282131
2409
כמו שאנחנו אוהבים לומר, בטבע.
04:56
And we'veיש לנו alsoגַם shrunkמכווץ it so that
the coreהליבה emotionרֶגֶשׁ engineמנוע
87
284540
2670
וגם כיווצנו זאת כדי שליבת מנוע הרגש
04:59
worksעובד on any mobileנייד deviceהתקן
with a cameraמַצלֵמָה, like this iPadiPad.
88
287210
3320
עובדת על כל מכשיר נייד
עם מצלמה, כמו האייפד הזה.
05:02
So let's give this a try.
89
290530
2786
אז בואו וננסה את זה.
05:06
As you can see, the algorithmאַלגוֹרִיתְם
has essentiallyלמעשה foundמצאתי Cloe'sקלו faceפָּנִים,
90
294756
3924
כפי שתוכלו לראות, האלגוריתם
בעצם מצא את פניה של קלואי,
05:10
so it's this whiteלבן boundingחסום boxקופסא,
91
298680
1692
אז זוהי התיבה התוחמת הלבנה הזה,
05:12
and it's trackingמעקב the mainרָאשִׁי
featureתכונה pointsנקודות on her faceפָּנִים,
92
300372
2571
והיא עוקבת אחר נקודות האפיון
המרכזיים של פניה,
05:14
so her eyebrowsגבות, her eyesעיניים,
her mouthפֶּה and her noseאף.
93
302943
2856
אז גבותיה, עיניה,
פיה ואפה.
05:17
The questionשְׁאֵלָה is,
can it recognizeלזהות her expressionביטוי?
94
305799
2987
השאלה היא,
האם זה יכול לזהות את הבעתה?
05:20
So we're going to testמִבְחָן the machineמְכוֹנָה.
95
308786
1671
אז אנחנו הולכים לבחון את המכונה
05:22
So first of all, give me your pokerפּוֹקֶר faceפָּנִים.
Yepכֵּן, awesomeמדהים. (Laughterצחוק)
96
310457
4186
אז קודם כל, תני לי את פני הפוקר שלך.
כן, מדהים. (צחוק)
05:26
And then as she smilesמחייך,
this is a genuineאמיתי smileחיוך, it's great.
97
314643
2813
ואז כשהיא מחייכת,
זה חיוך אמיתי, זה נהדר.
05:29
So you can see the greenירוק barבָּר
go up as she smilesמחייך.
98
317456
2300
אז אתם יכולים לראות את הפס הירוק
עולה כשהיא מחייכת.
05:31
Now that was a bigגָדוֹל smileחיוך.
99
319756
1222
עכשיו זה היה חיוך גדול.
05:32
Can you try a subtleעָדִין smileחיוך
to see if the computerמַחשֵׁב can recognizeלזהות?
100
320978
3043
את יכולה לנסות לחייך חיוך עדין
כדי לראות אם המחשב יכול לזהות?
05:36
It does recognizeלזהות subtleעָדִין smilesמחייך as well.
101
324021
2331
הוא מזהה גם חיוכים עדינים.
05:38
We'veללא שם: יש לנו workedעבד really hardקָשֶׁה
to make that happenלִקְרוֹת.
102
326352
2125
עבדנו ממש קשים
כדי שזה יקרה.
05:40
And then eyebrowגַבָּה raisedמוּרָם,
indicatorאינדיקטור of surpriseהַפתָעָה.
103
328477
2962
ולאחר מכן גבה מורמת,
שמצביעה של הפתעה.
05:43
Browמֵצַח furrowתֶלֶם, whichאיזה is
an indicatorאינדיקטור of confusionבִּלבּוּל.
104
331439
4249
כיווץ מצח שמצביע על מבוכה.
05:47
Frownמַבָּט כּוֹעֵס. Yes, perfectמושלם.
105
335688
4007
זעף. כן, מושלם.
05:51
So these are all the differentשונה
actionפעולה unitsיחידות. There's manyרב more of them.
106
339695
3493
אז אלה הם כל יחידות הפעולה השונות.
יש עוד מהן.
05:55
This is just a slimmed-downרזה demoהַדגָמָה.
107
343188
2032
זו תכנית הדגמה מצומקת.
05:57
But we call eachכל אחד readingקריאה
an emotionרֶגֶשׁ dataנתונים pointנְקוּדָה,
108
345220
3148
אבל אנחנו קוראים לכל קריאה
נקודת נתוני רגש,
06:00
and then they can fireאֵשׁ togetherיַחַד
to portrayלתאר differentשונה emotionsרגשות.
109
348368
2969
ואז הן יכולות "לירות" יחד
כדי לתאר רגשות שונים.
06:03
So on the right sideצַד of the demoהַדגָמָה --
look like you're happyשַׂמֵחַ.
110
351337
4653
אז בצד ימין של ההדגמה -
נראה כאילו שאתם שמחים
06:07
So that's joyשִׂמְחָה. Joyשִׂמְחָה firesשריפות up.
111
355990
1454
אז זו שמחה. השמחה "יורה."
06:09
And then give me a disgustגועל faceפָּנִים.
112
357444
1927
ואז תני לי הבעת גועל
06:11
Try to rememberלִזכּוֹר what it was like
when Zaynזין left One Directionכיוון.
113
359371
4272
נסי להיזכר איך זה היה
כשזאיין עזב בכיוון אחד.
06:15
(Laughterצחוק)
114
363643
1510
(צחוק)
06:17
Yeah, wrinkleקֶמֶט your noseאף. Awesomeמדהים.
115
365153
4342
כן, קמטי את האף שלך. מדהים.
06:21
And the valenceערכיות is actuallyלמעשה quiteדַי
negativeשלילי, so you mustצריך have been a bigגָדוֹל fanאוהד.
116
369495
3731
והערכיות היא למעשה שלילית למדי,
אז כנראה שאת מעריצה גדולה.
06:25
So valenceערכיות is how positiveחִיוּבִי
or negativeשלילי an experienceניסיון is,
117
373226
2700
אז ערכיות היא המידה עד כמה
החוויה היא חיובית או שלילית,
06:27
and engagementאירוסין is how
expressiveאֶקְסְפּרֶסִיבִי she is as well.
118
375926
2786
וההתחייבות היא עד כמה
היא בעלת הבעה גם כן.
06:30
So imagineלדמיין if Cloeקלו had accessגִישָׁה
to this real-timeזמן אמת emotionרֶגֶשׁ streamזרם,
119
378712
3414
אז דמיינו אם לקלואי הייתה גישה
לזרם רגש כזה בזמן אמת,
06:34
and she could shareלַחֲלוֹק it
with anybodyמִישֶׁהוּ she wanted to.
120
382126
2809
והיא הייתה יכולה לחלוק את זה
עם כל מי שהיא רצתה.
06:36
Thank you.
121
384935
2923
תודה.
06:39
(Applauseתְשׁוּאוֹת)
122
387858
4621
(מחיאות כפיים)
06:45
So, so farרָחוֹק, we have amassedצובר
12 billionמיליארד of these emotionרֶגֶשׁ dataנתונים pointsנקודות.
123
393749
5270
אז עד כה, צברנו 12 מיליארד
נקודות נתוני רגש אלה.
06:51
It's the largestהגדול emotionרֶגֶשׁ
databaseמאגר מידע in the worldעוֹלָם.
124
399019
2611
זה מסד נתוני הרגש הגדול
ביותר בעולם.
06:53
We'veללא שם: יש לנו collectedשנאספו it
from 2.9 millionמִילִיוֹן faceפָּנִים videosסרטונים,
125
401630
2963
אספנו אותם מ-2.9 מיליון קטעי
וידאו של פנים.
06:56
people who have agreedמוסכם
to shareלַחֲלוֹק theirשֶׁלָהֶם emotionsרגשות with us,
126
404593
2600
אנשים שהסכימו
לחלוק את רגשותיהם איתנו,
06:59
and from 75 countriesמדינות around the worldעוֹלָם.
127
407193
3205
ומ- 75 מדינות ברחבי העולם.
07:02
It's growingגָדֵל everyכֹּל day.
128
410398
1715
זה הולך וגדל מיום ליום.
07:04
It blowsמכות my mindאכפת away
129
412603
2067
זה מטריף אותי
07:06
that we can now quantifyלכמת something
as personalאישי as our emotionsרגשות,
130
414670
3195
שעכשיו אנחנו יכולים לכמת משהו
כה אישי כמו הרגשות שלנו,
07:09
and we can do it at this scaleסוּלָם.
131
417865
2235
ואנחנו יכולים לעשות את זה
בקנה המידה הזה
07:12
So what have we learnedמְלוּמָד to dateתַאֲרִיך?
132
420100
2177
אז מה למדנו עד כה?
07:15
Genderמִין.
133
423057
2331
מגדר.
07:17
Our dataנתונים confirmsמאשרת something
that you mightאולי suspectחָשׁוּד.
134
425388
3646
הנתונים שלנו מאשרים משהו
שאולי אתם מנחשים.
07:21
Womenנשים are more expressiveאֶקְסְפּרֶסִיבִי than menגברים.
135
429034
1857
נשים הן יותר בעלות
הבעה מגברים.
07:22
Not only do they smileחיוך more,
theirשֶׁלָהֶם smilesמחייך last longerארוך יותר,
136
430891
2683
לא רק שהן מחייכות יותר,
החיוכים שלהם נמשכים יותר זמן,
07:25
and we can now really quantifyלכמת
what it is that menגברים and womenנשים
137
433574
2904
ואנחנו יכולים עכשיו באמת לכמת
מהו הדבר שגברים ונשים
07:28
respondלְהָגִיב to differentlyבאופן שונה.
138
436478
2136
מגיבים לו באופן שונה.
07:30
Let's do cultureתַרְבּוּת: So in the Unitedמאוחד Statesמדינות,
139
438614
2290
בואו נפנה לתרבות:
אז בארצות הברית,
07:32
womenנשים are 40 percentאָחוּז
more expressiveאֶקְסְפּרֶסִיבִי than menגברים,
140
440904
3204
נשים הן ב-40 אחוזים
יותר בעלות הבעה מגברים,
07:36
but curiouslyבסקרנות, we don't see any differenceהֶבדֵל
in the U.K. betweenבֵּין menגברים and womenנשים.
141
444108
3645
אך למרבה הפלא, איננו רואים כל
הבדל בבריטניה בין גברים לנשים.
07:39
(Laughterצחוק)
142
447753
2506
(צחוק)
07:43
Ageגיל: People who are 50 yearsשנים and olderישן יותר
143
451296
4027
גיל: אנשים שהם בני 50 ומעלה
07:47
are 25 percentאָחוּז more emotiveרִגוּשִׁי
than youngerצעיר יותר people.
144
455323
3436
הם ב-25% יותר אמוטיבים
מאנשים צעירים.
07:51
Womenנשים in theirשֶׁלָהֶם 20s smileחיוך a lot more
than menגברים the sameאותו ageגיל,
145
459899
3852
נשים בשנות ה -20 שלהן מחייכות
הרבה יותר מגברים באותו גיל,
07:55
perhapsאוּלַי a necessityכּוֹרַח for datingהיכרויות.
146
463751
3839
אולי זה הכרחי להיכרויות.
07:59
But perhapsאוּלַי what surprisedמוּפתָע us
the mostרוב about this dataנתונים
147
467590
2617
אבל אולי מה שהכי הפתיע אותנו
בנתונים אלה
08:02
is that we happenלִקְרוֹת
to be expressiveאֶקְסְפּרֶסִיבִי all the time,
148
470207
3203
זה שאנחנו הבעתיים כל הזמן
08:05
even when we are sittingיְשִׁיבָה
in frontחֲזִית of our devicesהתקנים aloneלבד,
149
473410
2833
אפילו כאשר אנו יושבים
לבד מול המכשירים שלנו,
08:08
and it's not just when we're watchingצופה
catחתול videosסרטונים on Facebookפייסבוק.
150
476243
3274
וזה לא רק כאשר אנחנו צופים
בקטעי וידאו על חתולים בפייסבוק.
08:12
We are expressiveאֶקְסְפּרֶסִיבִי when we're emailingדוא"ל,
textingטקסטים, shoppingקניות onlineבאינטרנט,
151
480217
3010
אנחנו הבעתיים כאשר אנחנו שולחים דואר אלקטרוני,
הודעות SMS, וקניות באינטרנט,
08:15
or even doing our taxesמסים.
152
483227
2300
או אפילו משלמים את המסים שלנו.
08:17
Where is this dataנתונים used todayהיום?
153
485527
2392
איפה משתמשים בנתונים אלה היום?
08:19
In understandingהֲבָנָה how we engageלְהַעֲסִיק with mediaכְּלֵי תִקְשׁוֹרֶת,
154
487919
2763
בהבנת האופן בו אנו עוסקים בתקשורת
08:22
so understandingהֲבָנָה viralityויראליזם
and votingהַצבָּעָה behaviorהִתְנַהֲגוּת;
155
490682
2484
אז הבנת הוויראליות והרגלי הצבעה;
08:25
and alsoגַם empoweringהעצמה
or emotion-enablingרגש המאפשר technologyטֶכנוֹלוֹגִיָה,
156
493166
2740
וגם העצמה או טכנולוגיה שמאפשרת
רגש,
08:27
and I want to shareלַחֲלוֹק some examplesדוגמאות
that are especiallyבמיוחד closeלִסְגוֹר to my heartלֵב.
157
495906
4621
ואני רוצה לשתף כמה דוגמאות
שקרובות ללבי במיוחד.
08:33
Emotion-enabledמופעלת רגש wearableלָבִישׁ glassesמשקפיים
can help individualsיחידים
158
501197
3068
חבישת משקפיים מאפשרי-רגש
יכולים לעזור לאנשים
08:36
who are visuallyחזותית impairedפגום
readלקרוא the facesפרצופים of othersאחרים,
159
504265
3228
לקויי ראייה לקרוא את פניהם
של אחרים
08:39
and it can help individualsיחידים
on the autismאוֹטִיזְם spectrumספֵּקטרוּם interpretלפרש emotionרֶגֶשׁ,
160
507493
4187
וזה יכול לעזור לאנשים
על הספקטרום האוטיסטי לפרש רגש,
08:43
something that they really struggleמַאֲבָק with.
161
511680
2778
משהו שהם ממש נאבקים איתו.
08:47
In educationהַשׂכָּלָה, imagineלדמיין
if your learningלְמִידָה appsאפליקציות
162
515918
2859
בחינוך, דמיינו אם יישומי
הלמידה שלכם
08:50
senseלָחוּשׁ that you're confusedמְבוּלבָּל and slowלְהַאֵט down,
163
518777
2810
חשים שאתם מבולבלים
ואז מאיטים,
08:53
or that you're boredמְשׁוּעֲמָם, so it's spedאצה up,
164
521587
1857
או שאתם משועממים, אז הם
מאיצים,
08:55
just like a great teacherמוֹרֶה
would in a classroomכיתה.
165
523444
2969
כפי שמורה גדול היה נוהג בכיתה.
08:59
What if your wristwatchשָׁעוֹן יָד trackedמעקב your moodמַצַב רוּחַ,
166
527043
2601
מה אם שעון היד שלכם היה
עוקב אחר מצב הרוח שלכם,
09:01
or your carאוטו sensedחשתי that you're tiredעייף,
167
529644
2693
או שמכוניתכם הרגישה
שאתם עייפים,
09:04
or perhapsאוּלַי your fridgeמְקָרֵר
knowsיודע that you're stressedלחוץ,
168
532337
2548
או אולי המקרר שלכם
יודע שאתם לחוצים,
09:06
so it auto-locksאוטומטי מנעולים to preventלִמְנוֹעַ you
from bingebinge eatingאֲכִילָה. (Laughterצחוק)
169
534885
6066
אז הוא ננעל אוטומטית כדי למנוע
מכם בולמוס אכילה. (צחוק)
09:12
I would like that, yeah.
170
540951
2717
הייתי אוהבת את זה, כן.
09:15
What if, when I was in Cambridgeקיימברידג ',
171
543668
1927
מה אם, כשהייתי בקיימברידג ',
09:17
I had accessגִישָׁה to my real-timeזמן אמת
emotionרֶגֶשׁ streamזרם,
172
545595
2313
הייתה לי גישה לזרם הרגש שלי
בזמן אמת,
09:19
and I could shareלַחֲלוֹק that with my familyמִשׁפָּחָה
back home in a very naturalטִבעִי way,
173
547908
3529
ויכולתי לחלוק את זה עם משפחתי
בבית באופן מאוד טבעי,
09:23
just like I would'veהיה if we were all
in the sameאותו roomחֶדֶר togetherיַחַד?
174
551437
3971
בדיוק כפי שהייתי עושה לו היינו
כולנו יחד באותו חדר?
09:27
I think fiveחָמֵשׁ yearsשנים down the lineקַו,
175
555408
3142
אני חושבת, שחמש שנים מהיום,
09:30
all our devicesהתקנים are going
to have an emotionרֶגֶשׁ chipשְׁבָב,
176
558550
2337
לכל המכשירים שלנו הולך להיות
שבב רגש,
09:32
and we won'tרָגִיל rememberלִזכּוֹר what it was like
when we couldn'tלא יכול just frownמַבָּט כּוֹעֵס at our deviceהתקן
177
560887
4064
ולא נזכור איך זה היה כשלא יכולנו
פשוט לזעוף על המכשיר שלנו
09:36
and our deviceהתקן would say, "Hmmהממ,
you didn't like that, did you?"
178
564951
4249
והמכשיר היה אומר, "הממ,
לא אהבת את זה , נכון?"
09:41
Our biggestהגדול ביותר challengeאתגר is that there are
so manyרב applicationsיישומים of this technologyטֶכנוֹלוֹגִיָה,
179
569200
3761
האתגר הגדול ביותר שלנו הוא שיש
כל כך הרבה יישומים של טכנולוגיה זו,
09:44
my teamקְבוּצָה and I realizeלִהַבִין that we can't
buildלִבנוֹת them all ourselvesבְּעָצמֵנוּ,
180
572961
2903
הצוות שלי ואני מבינים שאיננו יכולים
לבנות את כולם בעצמנו,
09:47
so we'veיש לנו madeעָשׂוּי this technologyטֶכנוֹלוֹגִיָה availableזמין
so that other developersמפתחים
181
575864
3496
אז עשינו טכנולוגיה זו זמינה כך
שמפתחים אחרים
09:51
can get buildingבִּניָן and get creativeיְצִירָתִי.
182
579360
2114
יוכלו לבנות ולהיות יצירתיים.
09:53
We recognizeלזהות that
there are potentialפוטנציאל risksסיכונים
183
581474
4086
אנו מודעים לכך שיש
סיכונים פוטנציאליים
09:57
and potentialפוטנציאל for abuseהתעללות,
184
585560
2067
ופוטנציאל לשימוש לרעה,
09:59
but personallyאישית, havingשיש spentמוּתַשׁ
manyרב yearsשנים doing this,
185
587627
2949
אבל באופן אישי, לאחר שביליתי
שנים רבות בעשייה של זה,
10:02
I believe that the benefitsיתרונות to humanityאֶנוֹשִׁיוּת
186
590576
2972
אני מאמינה שהיתרונות לאנושות,
10:05
from havingשיש emotionallyרגשית
intelligentאִינְטֶלִיגֶנְטִי technologyטֶכנוֹלוֹגִיָה
187
593548
2275
מהשגת טכנולוגיה אינטליגנטית רגשית
10:07
farרָחוֹק outweighלְהַכרִיעַ the potentialפוטנציאל for misuseשימוש לא נכון.
188
595823
3576
עולה בהרבה על הפוטנציאל לשימוש לרעה.
10:11
And I inviteלהזמין you all to be
partחֵלֶק of the conversationשִׂיחָה.
189
599399
2531
ואני מזמינה את כולכם להיות
חלק מהשיחה.
10:13
The more people who know
about this technologyטֶכנוֹלוֹגִיָה,
190
601930
2554
ככל שיותר אנשים ידעו
על טכנולוגיה זו,
10:16
the more we can all have a voiceקוֹל
in how it's beingלהיות used.
191
604484
3177
יוכל להיות לכולנו קול שיאמר
מה יהיה אופן השימוש.
10:21
So as more and more
of our livesחיים becomeהפכו digitalדִיגִיטָלי,
192
609081
4574
כך כשיותר ויותר חלקים מחיינו נעשים
דיגיטליים,
10:25
we are fightingלְחִימָה a losingלאבד battleקרב
tryingמנסה to curbלְרַסֵן our usageנוֹהָג of devicesהתקנים
193
613655
3498
אנו לוחמים מלחמה אבודה בניסיון לרסן
את השימוש במכשירים שלנו
10:29
in orderלהזמין to reclaimלְטַיֵב our emotionsרגשות.
194
617153
2229
כדי להשיב לעצמנו את הרגשות שלנו.
10:32
So what I'm tryingמנסה to do insteadבמקום זאת
is to bringלְהָבִיא emotionsרגשות into our technologyטֶכנוֹלוֹגִיָה
195
620622
3914
אז מה שאני מנסה לעשות במקום זה
הוא להביא רגשות לטכנולוגיה שלנו
10:36
and make our technologiesטכנולוגיות more responsiveתגובה.
196
624536
2229
ולהפוך את הטכנולוגיה שלנו
ליותר מגיבה.
10:38
So I want those devicesהתקנים
that have separatedמופרד us
197
626765
2670
אז אני רוצה שהמכשירים האלה
שהפרידו בינינו
10:41
to bringלְהָבִיא us back togetherיַחַד.
198
629435
2462
ישיבו לנו את הביחד.
10:43
And by humanizingהומניזציה technologyטֶכנוֹלוֹגִיָה,
we have this goldenזָהוּב opportunityהִזדַמְנוּת
199
631897
4588
ועל ידי האנשת טכנולוגיה,
יש לנו הזדמנות פז
10:48
to reimaginereimagine how we
connectלְחַבֵּר with machinesמכונה,
200
636485
3297
לשוב ולדמיין כיצד אנו
יוצרים קשר עם מכונות
10:51
and thereforeלכן, how we, as humanבן אנוש beingsישויות,
201
639782
4481
ולכן, כיצד אנו, כבני אדם,
10:56
connectלְחַבֵּר with one anotherאַחֵר.
202
644263
1904
מתחברים אחד עם השני.
10:58
Thank you.
203
646167
2160
תודה.
11:00
(Applauseתְשׁוּאוֹת)
204
648327
3313
(מחיאות כפיים)
Translated by zeeva Livshitz
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com