ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com
TEDWomen 2015

Rana el Kaliouby: This app knows how you feel -- from the look on your face

Ράνα ελ Καλιούμπι: Αυτή εφαρμογή ξέρει τι νιώθετε - από την όψη του προσώπου σας

Filmed:
1,613,290 views

Τα συναισθήματά μας επηρεάζουν κάθε πτυχή της ζωής μας - τον τρόπο που μαθαίνουμε, που επικοινωνούμε, που παίρνουμε αποφάσεις. Παρόλα αυτά απουσιάζουν από τη ψηφιακή ζωή μας· οι συσκευές και οι εφαρμογές που χρησιμοποιούμε, δεν μπορούν να γνωρίζουν πώς αισθανόμαστε. Η επιστήμων Ράνα ελ Καλούμπι σκοπεύει να το αλλάξει αυτό. Μας παρουσιάζει μια ισχυρή νέα, τεχνολογία που διαβάζει την έκφραση του προσώπου σας και την αντιστοιχεί με ανάλογα συναισθήματα. Αυτή η «μηχανή συναισθημάτων» βρίσκει μεγάλη εφαρμογή, μας λέει, και μπορεί να αλλάξει, όχι μόνο τον τρόπο που αλληλεπιδρούμε με τις μηχανές, αλλά και μεταξύ μας.
- Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware. Full bio

Double-click the English transcript below to play the video.

00:12
Our emotionsσυναισθήματα influenceεπιρροή
everyκάθε aspectάποψη of our livesζωή,
0
556
4017
Τα συναισθήματά μας επηρεάζουν
κάθε πτυχή της ζωής μας,
από την υγεία μας
και τον τρόπο που μαθαίνουμε,
00:16
from our healthυγεία and how we learnμαθαίνω,
to how we do businessεπιχείρηση and make decisionsαποφάσεων,
1
4573
3576
έως το πώς εργαζόμαστε και
παίρνουμε αποφάσεις, μικρές και μεγάλες.
00:20
bigμεγάλο onesαυτές and smallμικρό.
2
8149
1773
00:22
Our emotionsσυναισθήματα alsoεπίσης influenceεπιρροή
how we connectσυνδέω with one anotherαλλο.
3
10672
3490
Τα συναισθήματά μας επίσης επηρεάζουν
το πώς συνδεόμαστε μεταξύ μας.
00:27
We'veΈχουμε evolvedεξελίχθηκε to liveζω
in a worldκόσμος like this,
4
15132
3976
Έχουμε εξελιχθεί να ζούμε
σε έναν κόσμο σαν αυτόν,
00:31
but insteadαντι αυτου, we're livingζωή
more and more of our livesζωή like this --
5
19108
4319
αντ' αυτού όμως, ζούμε
όλο και περισσότερο κάπως έτσι
00:35
this is the textκείμενο messageμήνυμα
from my daughterκόρη last night --
6
23427
3134
- αυτό είναι μήνυμα
από την κόρη μου χθες βράδυ -
00:38
in a worldκόσμος that's devoidστερείται of emotionσυναισθημα.
7
26561
2740
σε έναν κόσμο στερημένο από συναίσθημα.
00:41
So I'm on a missionαποστολή to changeαλλαγή that.
8
29301
1951
Η αποστολή μου είναι να το αλλάξω αυτό.
00:43
I want to bringνα φερεις emotionsσυναισθήματα
back into our digitalψηφιακό experiencesεμπειρίες.
9
31252
4091
Θέλω να επαναφέρω το συναίσθημα
στις ψηφιακές μας εμπειρίες.
00:48
I startedξεκίνησε on this pathμονοπάτι 15 yearsχρόνια agoπριν.
10
36223
3077
Πήρα αυτόν τον δρόμο πριν από 15 χρόνια.
Ήμουν επιστήμων υπολογιστών στην Αίγυπτο,
00:51
I was a computerυπολογιστή scientistεπιστήμονας in EgyptΑίγυπτος,
11
39300
2066
00:53
and I had just gottenπήρε acceptedαποδεκτό to
a PhPH.D. programπρόγραμμα at CambridgeΚέμπριτζ UniversityΠανεπιστήμιο.
12
41366
4505
και μόλις είχα περάσει σε μεταπτυχιακό
πρόγραμμα του Πανεπιστημίου του Κέμπριτζ.
00:57
So I did something quiteαρκετά unusualασυνήθης
13
45871
2113
Έτσι έκανα κάτι αρκετά ασυνήθιστο
00:59
for a youngνεαρός newlywedνεόνυμφο MuslimΜουσουλμάνος EgyptianΑιγυπτιακή wifeγυναίκα:
14
47984
4225
για μια νεαρή νιόπαντρη μουσουλμάνα
σύζυγο από την Αίγυπτο:
01:05
With the supportυποστήριξη of my husbandσύζυγος,
who had to stayδιαμονή in EgyptΑίγυπτος,
15
53599
2999
Με τη στήριξη του συζύγου μου,
που έπρεπε να μείνει στην Αίγυπτο,
01:08
I packedσυσκευασμένα my bagsσακούλες and I movedμετακινήθηκε to EnglandΑγγλία.
16
56598
3018
έφτιαξα τα πράγματά μου
και μετακόμισα στην Αγγλία.
01:11
At CambridgeΚέμπριτζ, thousandsχιλιάδες of milesμίλια
away from home,
17
59616
3228
Στο Κέμπριτζ, χιλιάδες μίλια
μακριά από το σπίτι μου
01:14
I realizedσυνειδητοποίησα I was spendingδαπανών
more hoursώρες with my laptopΦΟΡΗΤΟΣ ΥΠΟΛΟΓΙΣΤΗΣ
18
62844
3413
κατάλαβα ότι περνούσα περισσότερη ώρα
με τον φορητό μου υπολογιστή
01:18
than I did with any other humanο άνθρωπος.
19
66257
2229
παρά με οποιονδήποτε άλλον άνθρωπο.
01:20
YetΑκόμη despiteπαρά this intimacyοικειότητα, my laptopΦΟΡΗΤΟΣ ΥΠΟΛΟΓΙΣΤΗΣ
had absolutelyαπολύτως no ideaιδέα how I was feelingσυναισθημα.
20
68486
4853
Παρόλη όμως αυτή την οικειότητα,
ο φορητός μου δεν είχε ιδέα πώς ένιωθα.
01:25
It had no ideaιδέα if I was happyευτυχισμένος,
21
73339
3211
Αγνοούσε εάν ήμουν χαρούμενη,
01:28
havingέχοντας a badκακό day, or stressedτόνισε, confusedταραγμένος,
22
76550
2988
αν ήταν μια μέρα δύσκολη,
με άγχος ή επιπλοκές,
01:31
and so that got frustratingαπογοητευτικό.
23
79538
2922
και αυτό με απογοήτευσε.
01:35
Even worseχειρότερος, as I communicatedεπικοινωνία
onlineσε απευθείας σύνδεση with my familyοικογένεια back home,
24
83600
5231
Ακόμα χειρότερα, όταν επικοινωνούσα
διαδικτυακά με την οικογένεια στο σπίτι,
01:41
I feltένιωσα that all my emotionsσυναισθήματα
disappearedεξαφανίστηκε in cyberspaceστον κυβερνοχώρο.
25
89421
3282
ένιωθα ότι όλα μου τα συναισθήματα
εξαφανίζονταν στον κυβερνοχώρο.
01:44
I was homesickνοσταλγία, I was lonelyμοναχικός,
and on some daysημέρες I was actuallyπράγματι cryingκλάμα,
26
92703
5155
Μου έλειπε το σπίτι μου, ένιωθα μοναξιά,
και κάποιες μέρες πραγματικά έκλαιγα,
01:49
but all I had to communicateεπικοινωνώ
these emotionsσυναισθήματα was this.
27
97858
4928
αλλά είχα μόνο αυτό για να μεταδώσω
αυτά τα συναισθήματα.
01:54
(LaughterΤο γέλιο)
28
102786
2020
(Γέλια)
01:56
Today'sΗ σημερινή technologyτεχνολογία
has lots of I.Q., but no E.Q.;
29
104806
4974
Η σημερινή τεχνολογία έχει πολλή ευφυΐα
αλλά καθόλου συναίσθημα,
πάρα πολύ γνωστική ευφυΐα
αλλά καθόλου συναισθηματική ευφυΐα.
02:01
lots of cognitiveγνωστική intelligenceνοημοσύνη,
but no emotionalΣυναισθηματική intelligenceνοημοσύνη.
30
109780
3176
02:04
So that got me thinkingσκέψη,
31
112956
2197
Αυτό με έβαλε να σκεφτώ
02:07
what if our technologyτεχνολογία
could senseέννοια our emotionsσυναισθήματα?
32
115153
3624
τι θα γινόταν εάν η τεχνολογία μας
μπορούσε να νιώσει τα συναισθήματά μας;
02:10
What if our devicesσυσκευές could senseέννοια
how we feltένιωσα and reactedαντέδρασε accordinglyως εκ τούτου,
33
118777
4076
Τι θα γινόταν εάν οι συσκευές ένιωθαν
πώς αισθανόμαστε και αποκρίνονταν ανάλογα,
02:14
just the way an emotionallyσυναισθηματικά
intelligentέξυπνος friendφίλος would?
34
122853
3013
ακριβώς όπως θα αντιδρούσε
ένας φίλος με συναισθήματα;
02:18
Those questionsερωτήσεις led me and my teamομάδα
35
126666
3564
Αυτά τα ερωτήματα οδήγησαν
εμένα και την ομάδα μου
02:22
to createδημιουργώ technologiesτεχνολογίες that can readανάγνωση
and respondαπαντώ to our emotionsσυναισθήματα,
36
130230
4377
στη δημιουργία τεχνολογιών που διαβάζουν
και αντιδρούν στα συναισθήματά μας,
02:26
and our startingεκκίνηση pointσημείο was the humanο άνθρωπος faceπρόσωπο.
37
134607
3090
και το σημείο αφετηρίας μας
ήταν το ανθρώπινο πρόσωπο.
02:30
So our humanο άνθρωπος faceπρόσωπο happensσυμβαίνει to be
one of the mostπλέον powerfulισχυρός channelsκανάλια
38
138577
3173
Το πρόσωπό μας τυγχάνει να είναι
ένα από τα πιο ισχυρά κανάλια
02:33
that we all use to communicateεπικοινωνώ
socialκοινωνικός and emotionalΣυναισθηματική statesκράτη μέλη,
39
141750
4016
μέσω των οποίων εκφράζουμε κοινωνικές
και συναισθηματικές μας καταστάσεις,
02:37
everything from enjoymentαπόλαυση, surpriseέκπληξη,
40
145766
3010
τα πάντα, από διασκέδαση, έκπληξη,
ενσυναίσθηση και περιέργεια.
02:40
empathyενσυναίσθηση and curiosityπεριέργεια.
41
148776
4203
02:44
In emotionσυναισθημα scienceεπιστήμη, we call eachκαθε
facialχύσια στα μούτρα muscleμυς movementκίνηση an actionδράση unitμονάδα.
42
152979
4928
Στην επιστήμη των συναισθημάτων,
κάθε κίνηση των μυών του προσώπου
την αποκαλούμε μονάδα δράσης.
02:49
So for exampleπαράδειγμα, actionδράση unitμονάδα 12,
43
157907
2925
Έτσι για παράδειγμα η μονάδα δράσης 12,
δεν είναι μια επιτυχία του Χόλιγουντ,
02:52
it's not a HollywoodΧόλιγουντ blockbusterυπερπαραγωγή,
44
160832
2038
είναι σήκωμα της άκρης του χείλους,
02:54
it is actuallyπράγματι a lipχείλη cornerγωνία pullΤραβήξτε,
whichοι οποίες is the mainκύριος componentσυστατικό of a smileχαμόγελο.
45
162870
3442
που είναι βασικό συστατικό του χαμόγελου.
02:58
Try it everybodyόλοι. Let's get
some smilesχαμογελάει going on.
46
166312
2988
Δοκιμάστε το όλοι.
Ας ρίξουμε μερικά χαμόγελα.
Άλλο παράδειγμα είναι η μονάδα δράσης 4.
Είναι η συνοφρύωση.
03:01
AnotherΈνα άλλο exampleπαράδειγμα is actionδράση unitμονάδα 4.
It's the browφρύδι furrowαυλάκι.
47
169300
2654
03:03
It's when you drawσχεδιάζω your eyebrowsφρύδια togetherμαζί
48
171954
2238
Είναι όταν σμίγουν τα φρύδια
και δημιουργούνται ρυτίδες και υφές.
03:06
and you createδημιουργώ all
these texturesυφές and wrinklesρυτίδες.
49
174192
2267
Δεν μας αρέσουν αλλά είναι
έντονη ένδειξη αρνητικού συναισθήματος.
03:08
We don't like them, but it's
a strongισχυρός indicatorδείκτης of a negativeαρνητικός emotionσυναισθημα.
50
176459
4295
Έτσι έχουμε περίπου
45 τέτοιες μονάδες δράσης,
03:12
So we have about 45 of these actionδράση unitsμονάδες,
51
180754
2206
και οι συνδυασμοί τους εκφράζουν
εκατοντάδες συναισθήματα.
03:14
and they combineσυνδυασμός to expressεξπρές
hundredsεκατοντάδες of emotionsσυναισθήματα.
52
182960
3390
03:18
TeachingΔιδασκαλία a computerυπολογιστή to readανάγνωση
these facialχύσια στα μούτρα emotionsσυναισθήματα is hardσκληρά,
53
186350
3901
Το να μάθεις έναν υπολογιστή να διαβάζει
τις εκφράσεις του προσώπου είναι δύσκολο,
03:22
because these actionδράση unitsμονάδες,
they can be fastγρήγορα, they're subtleδιακριτικό,
54
190251
2972
επειδή οι μονάδες δράσεις
μπορεί να εναλλάσσονται γρήγορα,
να είναι αδιόρατες, και να συνδυάζονται
με πολλούς τρόπους.
03:25
and they combineσυνδυασμός in manyΠολλά differentδιαφορετικός waysτρόπους.
55
193223
2554
03:27
So take, for exampleπαράδειγμα,
the smileχαμόγελο and the smirkχαζό χαμόγελο.
56
195777
3738
Πάρτε για παράδειγμα το χαμόγελο
και το υπεροπτικό χαμόγελο.
03:31
They look somewhatκάπως similarπαρόμοιος,
but they mean very differentδιαφορετικός things.
57
199515
3753
Μοιάζουν μεταξύ τους
αλλά σημαίνουν διαφορετικά πράγματα.
03:35
(LaughterΤο γέλιο)
58
203268
1718
(Γέλια)
03:36
So the smileχαμόγελο is positiveθετικός,
59
204986
3004
Έτσι το χαμόγελο είναι θετικό,
ενώ το προσποιητό χαμόγελο
είναι συχνά αρνητικό.
03:39
a smirkχαζό χαμόγελο is oftenσυχνά negativeαρνητικός.
60
207990
1270
03:41
SometimesΜερικές φορές a smirkχαζό χαμόγελο
can make you becomeγίνομαι famousπερίφημος.
61
209260
3876
Καμιά φορά το προσποιητό χαμόγελο
μπορεί να σε κάνει διάσημο.
03:45
But seriouslyσοβαρά, it's importantσπουδαίος
for a computerυπολογιστή to be ableικανός
62
213136
2824
Αλλά είναι πολύ σημαντικό
να μπορεί ο υπολογιστής
να δει τη διαφορά των δυο εκφράσεων.
03:47
to tell the differenceδιαφορά
betweenμεταξύ the two expressionsεκφράσεις.
63
215960
2855
Πώς το καταφέρνουμε λοιπόν αυτό;
03:50
So how do we do that?
64
218815
1812
Δίνουμε στους αλγορίθμους μας
03:52
We give our algorithmsαλγορίθμους
65
220627
1787
δεκάδες χιλιάδες παραδείγματα ανθρώπων
που ξέρουμε ότι χαμογελούν,
03:54
tensδεκάδες of thousandsχιλιάδες of examplesπαραδείγματα
of people we know to be smilingχαμογελαστά,
66
222414
4110
03:58
from differentδιαφορετικός ethnicitiesεθνοτήτων, agesηλικίες, gendersφύλα,
67
226524
3065
από διάφορες εθνότητες, ηλικίες, γένη,
04:01
and we do the sameίδιο for smirkssmirks.
68
229589
2811
και κάνουμε το ίδιο
και για το υπεροπτικό χαμόγελο.
Και μετά χρησιμοποιώντας τη βαθιά μάθηση
04:04
And then, usingχρησιμοποιώντας deepβαθύς learningμάθηση,
69
232400
1554
04:05
the algorithmαλγόριθμος looksφαίνεται for all these
texturesυφές and wrinklesρυτίδες
70
233954
2856
ο αλγόριθμος ψάχνει
για όλες αυτές τις υφές και τις ρυτίδες
04:08
and shapeσχήμα changesαλλαγές on our faceπρόσωπο,
71
236810
2580
και τις αλλαγές σχήματος του προσώπου μας,
και βασικά μαθαίνει ότι όλα τα χαμόγελα
έχουν κοινά χαρακτηριστικά,
04:11
and basicallyβασικα learnsμαθαίνει that all smilesχαμογελάει
have commonκοινός characteristicsΧαρακτηριστικά,
72
239390
3202
04:14
all smirkssmirks have subtlyδιακριτικά
differentδιαφορετικός characteristicsΧαρακτηριστικά.
73
242592
3181
ενώ τα υπεροπτικά χαμόγελα έχουν
ελαφρώς διαφορετικά χαρακτηριστικά.
04:17
And the nextεπόμενος time it seesβλέπει a newνέος faceπρόσωπο,
74
245773
2368
Την επόμενη φορά
που θα δει ένα νέο πρόσωπο
04:20
it essentiallyουσιαστικά learnsμαθαίνει that
75
248141
2299
ουσιαστικά μαθαίνει ότι αυτό το πρόσωπο
04:22
this faceπρόσωπο has the sameίδιο
characteristicsΧαρακτηριστικά of a smileχαμόγελο,
76
250440
3033
έχει τα χαρακτηριστικά του χαμόγελου
04:25
and it saysλέει, "AhaAha, I recognizeαναγνωρίζω this.
This is a smileχαμόγελο expressionέκφραση."
77
253473
4278
και λέει, «Ναι, το αναγνωρίζω.
Είναι έκφραση χαμόγελου».
Έτσι ο καλύτερος τρόπος για να δείξουμε
πως λειτουργεί η τεχνολογία
04:30
So the bestκαλύτερος way to demonstrateαποδείξει
how this technologyτεχνολογία worksεργοστάσιο
78
258381
2800
04:33
is to try a liveζω demodemo,
79
261181
2136
είναι μια ζωντανή παρουσίαση,
04:35
so I need a volunteerεθελοντής,
preferablyκατά προτίμηση somebodyκάποιος with a faceπρόσωπο.
80
263317
3913
γι' αυτό ζητάω έναν εθελοντή,
κατά προτίμηση κάποιον με πρόσωπο.
04:39
(LaughterΤο γέλιο)
81
267230
2334
(Γέλια)
04:41
Cloe'sΤης Cloe going to be our volunteerεθελοντής todayσήμερα.
82
269564
2771
Η Κλόη θα είναι η εθελόντριά μας σήμερα.
04:45
So over the pastτο παρελθόν fiveπέντε yearsχρόνια, we'veέχουμε movedμετακινήθηκε
from beingνα εισαι a researchέρευνα projectέργο at MITMIT
83
273325
4458
Τα τελευταία πέντε χρόνια,
από ερευνητικό πρόγραμμα του ΜΙΤ
04:49
to a companyΕταιρία,
84
277783
1156
γίναμε εταιρεία,
04:50
where my teamομάδα has workedεργάστηκε really hardσκληρά
to make this technologyτεχνολογία work,
85
278939
3192
όπου η ομάδα μου έχει μοχθήσει
για να λειτουργήσει αυτή η τεχνολογία,
04:54
as we like to say, in the wildάγριος.
86
282131
2409
όπως αρεσκόμαστε να λέμε ακόμα.
Την έχουμε συρρικνώσει
ώστε η κεντρική μηχανή συναισθημάτων
04:56
And we'veέχουμε alsoεπίσης shrunkσυρρικνωθεί it so that
the coreπυρήνας emotionσυναισθημα engineκινητήρας
87
284540
2670
04:59
worksεργοστάσιο on any mobileκινητό deviceσυσκευή
with a cameraΦΩΤΟΓΡΑΦΙΚΗ ΜΗΧΑΝΗ, like this iPadiPad.
88
287210
3320
να λειτουργεί σε κάθε φορητή συσκευή
με κάμερα, όπως αυτό το iPad.
05:02
So let's give this a try.
89
290530
2786
Ας την δοκιμάσουμε λοιπόν.
05:06
As you can see, the algorithmαλγόριθμος
has essentiallyουσιαστικά foundβρέθηκαν Cloe'sΤης Cloe faceπρόσωπο,
90
294756
3924
Βλέπετε ότι ο αλγόριθμος βασικά
έχει εντοπίσει το πρόσωπο της Κλόη,
05:10
so it's this whiteάσπρο boundingοριοθέτησης boxκουτί,
91
298680
1692
είναι αυτό το λευκό περίγραμμα,
05:12
and it's trackingπαρακολούθηση the mainκύριος
featureχαρακτηριστικό pointsσημεία on her faceπρόσωπο,
92
300372
2571
και παρακολουθεί τα κεντρικά
σημεία του προσώπου της,
05:14
so her eyebrowsφρύδια, her eyesμάτια,
her mouthστόμα and her noseμύτη.
93
302943
2856
ήτοι, τα φρύδια, τα μάτια και τη μύτη της.
05:17
The questionερώτηση is,
can it recognizeαναγνωρίζω her expressionέκφραση?
94
305799
2987
Το ερώτημα είναι, μπορεί
να αναγνωρίσει την έκφρασή της;
05:20
So we're going to testδοκιμή the machineμηχανή.
95
308786
1671
Άρα θα τεστάρουμε το μηχάνημα.
Αρχικά, δείξε μου ένα ανέκφραστο πρόσωπο.
Ναι, υπέροχα.
05:22
So first of all, give me your pokerπόκερ faceπρόσωπο.
YepΝαι, awesomeφοβερός. (LaughterΤο γέλιο)
96
310457
4186
(Γέλια)
05:26
And then as she smilesχαμογελάει,
this is a genuineγνήσιος smileχαμόγελο, it's great.
97
314643
2813
Κατόπιν καθώς χαμογελάει,
είναι γνήσιο χαμόγελο, υπέροχο.
05:29
So you can see the greenπράσινος barμπαρ
go up as she smilesχαμογελάει.
98
317456
2300
Η πράσινη μπάρα μεγαλώνει
καθώς χαμογελάει.
Αυτό ήταν ένα μεγάλο χαμόγελο.
05:31
Now that was a bigμεγάλο smileχαμόγελο.
99
319756
1222
05:32
Can you try a subtleδιακριτικό smileχαμόγελο
to see if the computerυπολογιστή can recognizeαναγνωρίζω?
100
320978
3043
Κι ένα υπεροπτικό χαμόγελο
θα το καταλάβει ο υπολογιστής;
Αναγνωρίζει και τα διακριτικά χαμόγελα.
Εργαστήκαμε σκληρά για να το καταφέρουμε.
05:36
It does recognizeαναγνωρίζω subtleδιακριτικό smilesχαμογελάει as well.
101
324021
2331
05:38
We'veΈχουμε workedεργάστηκε really hardσκληρά
to make that happenσυμβεί.
102
326352
2125
Μετά σηκωμένα φρύδια ως ένδειξη έκπληξης.
05:40
And then eyebrowφρύδι raisedανυψωθεί,
indicatorδείκτης of surpriseέκπληξη.
103
328477
2962
05:43
BrowΦρύδι furrowαυλάκι, whichοι οποίες is
an indicatorδείκτης of confusionσύγχυση.
104
331439
4249
Συνοφρύωση ως ένδειξη απογοήτευσης.
05:47
FrownΣυνοφρυώνομαι. Yes, perfectτέλειος.
105
335688
4007
Κατσούφιασε. Ναι, τέλεια.
Όλες αυτές είναι διαφορετικές
μονάδες δράσης.
05:51
So these are all the differentδιαφορετικός
actionδράση unitsμονάδες. There's manyΠολλά more of them.
106
339695
3493
Υπάρχουν πολύ περισσότερες.
Αυτή είναι μια σύντομη παρουσίαση.
05:55
This is just a slimmed-downαπλούστερες demodemo.
107
343188
2032
Αλλά κάθε καταγραφή την αποκαλούμε
σημείο συναισθηματικών δεδομένων,
05:57
But we call eachκαθε readingΑΝΑΓΝΩΣΗ
an emotionσυναισθημα dataδεδομένα pointσημείο,
108
345220
3148
06:00
and then they can fireΦωτιά togetherμαζί
to portrayαπεικονίζουν differentδιαφορετικός emotionsσυναισθήματα.
109
348368
2969
και μετά μπορούν να δράσουν μαζί
για να δώσουν διάφορα συναισθήματα.
06:03
So on the right sideπλευρά of the demodemo --
look like you're happyευτυχισμένος.
110
351337
4653
Έτσι στη δεξιά πλευρά της δοκιμής -
δείξε ότι είσαι χαρούμενη.
Αυτό λοιπόν είναι χαρά. Η χαρά φωτίζεται.
06:07
So that's joyΧαρά. JoyΧαρά firesπυρκαγιές up.
111
355990
1454
06:09
And then give me a disgustαηδία faceπρόσωπο.
112
357444
1927
Και μετά δώσε μου μια έκφραση αηδίας.
06:11
Try to rememberθυμάμαι what it was like
when ZaynZayn left One DirectionΚατεύθυνση.
113
359371
4272
Θυμήσου πώς ήταν όταν ο Ζέιν έφυγε
από τους Ουάν Νταϊρέξιον.
(Γέλια)
06:15
(LaughterΤο γέλιο)
114
363643
1510
Ναι, ξύνισε τη μύτη σου. Φοβερό.
06:17
Yeah, wrinkleρυτίδων your noseμύτη. AwesomeΤρομερό.
115
365153
4342
06:21
And the valenceσθένους is actuallyπράγματι quiteαρκετά
negativeαρνητικός, so you mustπρέπει have been a bigμεγάλο fanανεμιστήρας.
116
369495
3731
Το σθένος είναι αρκετά αρνητικό,
άρα πρέπει να ήσουν μεγάλη θαυμάστρια.
Το σθένος δηλώνει πόσο θετική ή αρνητική
είναι μια εμπειρία,
06:25
So valenceσθένους is how positiveθετικός
or negativeαρνητικός an experienceεμπειρία is,
117
373226
2700
06:27
and engagementσύμπλεξη is how
expressiveεκφραστική she is as well.
118
375926
2786
και η εμπλοκή δηλώνει
πόσο εκφραστική είναι επίσης.
Φανταστείτε αν η Κλόη είχε πρόσβαση σ'αυτή
τη ροή συναισθήματος σε πραγματικό χρόνο,
06:30
So imagineφαντάζομαι if CloeCloe had accessπρόσβαση
to this real-timeπραγματικός χρόνος emotionσυναισθημα streamρεύμα,
119
378712
3414
06:34
and she could shareμερίδιο it
with anybodyοποιοσδήποτε she wanted to.
120
382126
2809
και μπορούσε να τη μοιραστεί
με όποιον ήθελε.
06:36
Thank you.
121
384935
2923
Ευχαριστώ.
(Χειροκρότημα)
06:39
(ApplauseΧειροκροτήματα)
122
387858
4621
06:45
So, so farμακριά, we have amassedσυγκεντρώσει
12 billionδισεκατομμύριο of these emotionσυναισθημα dataδεδομένα pointsσημεία.
123
393749
5270
Έως τώρα έχουμε συγκεντρώσει 12 δις
τέτοια σημεία συναισθηματικών δεδομένων.
Είναι η μεγαλύτερη βάση δεδομένων
από συναισθήματα στον κόσμο.
06:51
It's the largestμεγαλύτερη emotionσυναισθημα
databaseβάση δεδομένων in the worldκόσμος.
124
399019
2611
06:53
We'veΈχουμε collectedσυγκεντρωμένος it
from 2.9 millionεκατομμύριο faceπρόσωπο videosΒίντεο,
125
401630
2963
Τα συλλέξαμε από 2,9 εκατομμύρια βίντεο
από πρόσωπα ανθρώπων
06:56
people who have agreedσύμφωνος
to shareμερίδιο theirδικα τους emotionsσυναισθήματα with us,
126
404593
2600
που συμφώνησαν να μοιραστούν
τα συναισθήματά τους μαζί μας,
06:59
and from 75 countriesχώρες around the worldκόσμος.
127
407193
3205
και από 75 χώρες σε όλο τον κόσμο.
07:02
It's growingκαλλιέργεια everyκάθε day.
128
410398
1715
Αυξάνεται κάθε μέρα.
07:04
It blowsχτυπήματα my mindμυαλό away
129
412603
2067
Με συνεπαίρνει η ιδέα
ότι μπορούμε να ποσοτικοποιήσουμε
κάτι τόσο προσωπικό όσο το συναίσθημα,
07:06
that we can now quantifyποσοτικοποιήσετε something
as personalπροσωπικός as our emotionsσυναισθήματα,
130
414670
3195
07:09
and we can do it at this scaleκλίμακα.
131
417865
2235
και να το κάνουμε σε τέτοια κλίμακα.
07:12
So what have we learnedέμαθα to dateημερομηνία?
132
420100
2177
Τι μάθαμε λοιπόν έως τώρα;
07:15
GenderΤων δύο φύλων.
133
423057
2331
Φύλο.
07:17
Our dataδεδομένα confirmsεπιβεβαιώνει something
that you mightθα μπορούσε suspectύποπτος.
134
425388
3646
Τα δεδομένα μας επιβεβαιώνουν
κάτι που ίσως υποψιαζόσαστε.
Οι γυναίκες είναι πιο εκφραστικές
από τους άνδρες.
07:21
WomenΓυναίκες are more expressiveεκφραστική than menάνδρες.
135
429034
1857
07:22
Not only do they smileχαμόγελο more,
theirδικα τους smilesχαμογελάει last longerμακρύτερα,
136
430891
2683
Χαμογελούν περισσότερο,
και το χαμόγελό τους διαρκεί περισσότερο,
07:25
and we can now really quantifyποσοτικοποιήσετε
what it is that menάνδρες and womenγυναίκες
137
433574
2904
και τώρα μπορούμε να ποσοτικοποιήσουμε
σε τι άνδρες και γυναίκες
αντιδρούν διαφορετικά.
07:28
respondαπαντώ to differentlyδιαφορετικά.
138
436478
2136
07:30
Let's do cultureΠολιτισμός: So in the UnitedΕνωμένοι StatesΚράτη μέλη,
139
438614
2290
Ας δούμε την κουλτούρα: Έτσι στις ΗΠΑ
οι γυναίκες είναι 40% πιο εκφραστικές
από τους άνδρες, αλλά όλως περιέργως
07:32
womenγυναίκες are 40 percentτοις εκατό
more expressiveεκφραστική than menάνδρες,
140
440904
3204
07:36
but curiouslyπεριέργως, we don't see any differenceδιαφορά
in the U.K. betweenμεταξύ menάνδρες and womenγυναίκες.
141
444108
3645
δεν υπάρχει διαφορά μεταξύ ανδρών
και γυναικών στην Αγγλία. (Γέλια)
07:39
(LaughterΤο γέλιο)
142
447753
2506
07:43
AgeΗλικία: People who are 50 yearsχρόνια and olderΠαλαιότερα
143
451296
4027
Ηλικία: Οι άνθρωποι 50 ετών και άνω
07:47
are 25 percentτοις εκατό more emotiveσυγκινησιακή
than youngerπιο ΝΕΟΣ people.
144
455323
3436
είναι 25% πιο συναισθηματικοί
από τους νέους ανθρώπους.
Οι γυναίκες των 20 χαμογελούν περισσότερο
από τους άνδρες της ίδιας ηλικίας,
07:51
WomenΓυναίκες in theirδικα τους 20s smileχαμόγελο a lot more
than menάνδρες the sameίδιο ageηλικία,
145
459899
3852
07:55
perhapsίσως a necessityαναγκαιότητα for datingχρονολόγηση.
146
463751
3839
ίσως μια αναγκαιότητα
για την αναζήτηση σχέσης.
07:59
But perhapsίσως what surprisedέκπληκτος us
the mostπλέον about this dataδεδομένα
147
467590
2617
Αλλά αυτό που μας εξέπληξε
περισσότερο στα δεδομένα
08:02
is that we happenσυμβεί
to be expressiveεκφραστική all the time,
148
470207
3203
είναι ότι συμβαίνει
να είμαστε εκφραστικοί συνέχεια,
08:05
even when we are sittingσυνεδρίαση
in frontεμπρός of our devicesσυσκευές aloneμόνος,
149
473410
2833
ακόμη και όταν είμαστε μόνοι
μπροστά στη συσκευή μας,
08:08
and it's not just when we're watchingβλέποντας
catΓάτα videosΒίντεο on FacebookΣτο Facebook.
150
476243
3274
και όχι μόνο όταν βλέπουμε
βίντεο με γάτες στο Facebook.
Είμαστε εκφραστικοί
όταν στέλνουμε email ή sms,
08:12
We are expressiveεκφραστική when we're emailingηλεκτρονικό ταχυδρομείο,
textingγραπτών μηνυμάτων, shoppingψώνια onlineσε απευθείας σύνδεση,
151
480217
3010
ψωνίζουμε διαδικτυακά, ακόμη και
όταν κάνουμε τη φορολογική μας δήλωση.
08:15
or even doing our taxesφόρους.
152
483227
2300
08:17
Where is this dataδεδομένα used todayσήμερα?
153
485527
2392
Πού χρησιμοποιούνται
αυτά τα δεδομένα σήμερα;
08:19
In understandingκατανόηση how we engageαρραβωνιάζω with mediaμεσο ΜΑΖΙΚΗΣ ΕΝΗΜΕΡΩΣΗΣ,
154
487919
2763
Στο να καταλάβουμε
πώς εμπλεκόμαστε με τα μέσα,
έτσι κατανοώντας τη διαδικτυακή
εξάπλωση και το πώς ψηφίζουμε.
08:22
so understandingκατανόηση viralityvirality
and votingψηφοφορία behaviorη ΣΥΜΠΕΡΙΦΟΡΑ;
155
490682
2484
08:25
and alsoεπίσης empoweringενδυνάμωση
or emotion-enablingσυγκίνηση-ενεργοποίηση technologyτεχνολογία,
156
493166
2740
Επίσης την τεχνολογία
που ενεργοποιεί συναισθήματα,
08:27
and I want to shareμερίδιο some examplesπαραδείγματα
that are especiallyειδικά closeΚοντά to my heartκαρδιά.
157
495906
4621
και θέλω να μοιραστώ κάποια παραδείγματα
στα οποία έχω ιδιαίτερη αδυναμία.
08:33
Emotion-enabledΣυγκίνηση-ενεργοποιημένη wearableφοριέται glassesΓυαλιά
can help individualsτα άτομα
158
501197
3068
Γυαλιά που ενεργοποιούνται
από συναισθήματα
θα βοηθήσουν άτομα με προβλήματα όρασης
να διαβάσουν τα πρόσωπα των άλλων,
08:36
who are visuallyοπτικά impairedμειωμένη
readανάγνωση the facesπρόσωπα of othersοι υπολοιποι,
159
504265
3228
08:39
and it can help individualsτα άτομα
on the autismαυτισμό spectrumφάσμα interpretερμηνεύσει emotionσυναισθημα,
160
507493
4187
και θα βοηθήσει
άτομα στο φάσμα του αυτισμού
να ερμηνεύσουν συναισθήματα,
κάτι που πραγματικά τους ταλαιπωρεί.
08:43
something that they really struggleπάλη with.
161
511680
2778
Στην εκπαίδευση, φανταστείτε
εάν οι εφαρμογές που μαθαίνουν
08:47
In educationεκπαίδευση, imagineφαντάζομαι
if your learningμάθηση appsεφαρμογές
162
515918
2859
08:50
senseέννοια that you're confusedταραγμένος and slowαργός down,
163
518777
2810
αισθανθούν ότι έχετε μπερδευτεί
και μειώσουν ταχύτητα
08:53
or that you're boredβαρεθεί, so it's spedεπιτάχυνε up,
164
521587
1857
ή ότι βαριόσαστε έτσι να επιταχύνουν,
08:55
just like a great teacherδάσκαλος
would in a classroomαίθουσα διδασκαλίας.
165
523444
2969
ακριβώς όπως ένας καλός δάσκαλος
θα έκανε στην τάξη.
08:59
What if your wristwatchΡολόι χεριού trackedπαρακολουθούνται your moodδιάθεση,
166
527043
2601
Εάν το ρολόι στο χέρι σας
παρακολουθούσε τη διάθεσή σας
09:01
or your carαυτοκίνητο sensedαισθάνθηκε that you're tiredκουρασμένος,
167
529644
2693
ή το αυτοκινητό σας αισθανόταν
ότι είστε κουρασμένος,
09:04
or perhapsίσως your fridgeψυγείο
knowsξέρει that you're stressedτόνισε,
168
532337
2548
ή ίσως το ψυγείο σας να αναγνωρίζει
ότι είστε αγχωμένος
09:06
so it auto-locksAuto-κλειδαριές to preventαποτρέψει you
from bingeευκαιριακή άμετρη κατανάλωση eatingτρώει. (LaughterΤο γέλιο)
169
534885
6066
και να κλειδώνει αυτόματα αποτρέποντας
τη λαίμαργη επιδρομή σας. (Γέλια)
Θα μου άρεσε αυτό, ναι.
09:12
I would like that, yeah.
170
540951
2717
Τι εάν, όταν ήμουν στο Κέμπριτζ,
09:15
What if, when I was in CambridgeΚέμπριτζ,
171
543668
1927
είχα πρόσβαση στη ροή συναισθημάτων μου
σε πραγματικό χρόνο
09:17
I had accessπρόσβαση to my real-timeπραγματικός χρόνος
emotionσυναισθημα streamρεύμα,
172
545595
2313
09:19
and I could shareμερίδιο that with my familyοικογένεια
back home in a very naturalφυσικός way,
173
547908
3529
και μπορούσα να τη μοιραστώ
με την οικογένειά μου πολύ φυσικά
09:23
just like I would'veθα έχουμε if we were all
in the sameίδιο roomδωμάτιο togetherμαζί?
174
551437
3971
ακριβώς όπως θα έκανα
αν είμασταν όλοι μαζί στο ίδιο δωμάτιο;
09:27
I think fiveπέντε yearsχρόνια down the lineγραμμή,
175
555408
3142
Νομίζω ότι σε πέντε χρόνια, όλες
οι συσκευές θα έχουν τσιπ συναισθημάτων
09:30
all our devicesσυσκευές are going
to have an emotionσυναισθημα chipπατατακι,
176
558550
2337
09:32
and we won'tσυνηθισμένος rememberθυμάμαι what it was like
when we couldn'tδεν μπορούσε just frownσυνοφρυώνομαι at our deviceσυσκευή
177
560887
4064
και δεν θα θυμόμαστε πώς ήταν
όταν δεν μπορούσαμε
να αγριοκοιτάξουμε τη συσκευή μας
09:36
and our deviceσυσκευή would say, "HmmΧμμ,
you didn't like that, did you?"
178
564951
4249
και αυτή να μας πει
«Χμ, μάλλον δεν σου αρέσε αυτό, σωστά;»
Η μεγαλύτερη πρόκληση είναι
09:41
Our biggestμέγιστος challengeπρόκληση is that there are
so manyΠολλά applicationsεφαρμογών of this technologyτεχνολογία,
179
569200
3761
ότι υπάρχουν τόσες εφαρμογές
αυτής της τεχνολογίας,
09:44
my teamομάδα and I realizeσυνειδητοποιώ that we can't
buildχτίζω them all ourselvesεμείς οι ίδιοι,
180
572961
2903
που η ομάδα μας δεν μπορεί
να τις κάνει όλες μόνη της
09:47
so we'veέχουμε madeέκανε this technologyτεχνολογία availableδιαθέσιμος
so that other developersπρογραμματιστές
181
575864
3496
έτσι κάναμε την τεχνολογία διαθέσιμη
ώστε και άλλοι προγραμματιστές
να χτίσουν και να γίνουν δημιουργικοί.
09:51
can get buildingΚτίριο and get creativeδημιουργικός.
182
579360
2114
09:53
We recognizeαναγνωρίζω that
there are potentialδυνητικός risksκινδύνους
183
581474
4086
Κατανοούμε ότι υπάρχουν πιθανοί κίνδυνοι
και ενδεχόμενη κατάχρηση,
09:57
and potentialδυνητικός for abuseκατάχρηση,
184
585560
2067
αλλά προσωπικά, έχοντας περάσει
τόσα χρόνια πάνω σε αυτό,
09:59
but personallyπροσωπικά, havingέχοντας spentξόδεψε
manyΠολλά yearsχρόνια doing this,
185
587627
2949
10:02
I believe that the benefitsπλεονεκτήματα to humanityανθρωπότητα
186
590576
2972
πιστεύω ότι τα οφέλη για την ανθρωπότητα
από το να έχουμε
συναισθηματικά ευφυή τεχνολογία
10:05
from havingέχοντας emotionallyσυναισθηματικά
intelligentέξυπνος technologyτεχνολογία
187
593548
2275
ξεπερνούν κατά πολύ
την πιθανότητα κακής χρήσης.
10:07
farμακριά outweighυπερτερούν the potentialδυνητικός for misuseκατάχρηση.
188
595823
3576
Σας προσκαλώ όλους
να συμμετέχετε στη συζήτηση.
10:11
And I inviteκαλώ you all to be
partμέρος of the conversationσυνομιλία.
189
599399
2531
Όσα περισσότερα γνωρίζει ο κόσμος
γι' αυτή την τεχνολογία,
10:13
The more people who know
about this technologyτεχνολογία,
190
601930
2554
10:16
the more we can all have a voiceφωνή
in how it's beingνα εισαι used.
191
604484
3177
τόσο περισσότερο μπορούμε όλοι
να έχουμε άποψη για την χρήση της.
10:21
So as more and more
of our livesζωή becomeγίνομαι digitalψηφιακό,
192
609081
4574
'Ετσι, καθώς οι ζωές μας γίνονται
όλο και πιο ψηφιακές,
10:25
we are fightingμαχητικός a losingχάνοντας battleμάχη
tryingπροσπαθεί to curbσυγκράτηση our usageχρήση of devicesσυσκευές
193
613655
3498
μάταια αγωνιζόμαστε
να επιβραδύνουμε τη χρήση των συσκευών
10:29
in orderΣειρά to reclaimαξιοποιώ our emotionsσυναισθήματα.
194
617153
2229
για να ανακτήσουμε τα συναισθήματά μας.
10:32
So what I'm tryingπροσπαθεί to do insteadαντι αυτου
is to bringνα φερεις emotionsσυναισθήματα into our technologyτεχνολογία
195
620622
3914
Αυτό που προσπαθώ να κάνω είναι
να φέρω το συναίσθημα στην τεχνολογία
10:36
and make our technologiesτεχνολογίες more responsiveευαίσθητος.
196
624536
2229
και να κάνω την τεχνολογία να αποκρίνεται.
10:38
So I want those devicesσυσκευές
that have separatedσε διασταση us
197
626765
2670
Θέλω λοιπόν εκείνες οι συσκευές
που μας απομάκρυναν
10:41
to bringνα φερεις us back togetherμαζί.
198
629435
2462
να μας ενώσουν και πάλι.
10:43
And by humanizingεξανθρωπισμό technologyτεχνολογία,
we have this goldenχρυσαφένιος opportunityευκαιρία
199
631897
4588
Και εξανθρωπίζοντας την τεχνολογία
έχουμε αυτή τη χρυσή ευκαιρία
10:48
to reimagineΕπαναπροσδιορισμός των how we
connectσυνδέω with machinesμηχανές,
200
636485
3297
να αναδιατυπώσουμε
τη σχέση μας με τις μηχανές
10:51
and thereforeεπομένως, how we, as humanο άνθρωπος beingsόντα,
201
639782
4481
και ως εκ τούτου,
και το πώς εμείς ως ανθρώπινα όντα,
10:56
connectσυνδέω with one anotherαλλο.
202
644263
1904
συνδεόμαστε ο ένας με τον άλλον.
10:58
Thank you.
203
646167
2160
Ευχαριστώ.
(Χειροκρότημα)
11:00
(ApplauseΧειροκροτήματα)
204
648327
3313
Translated by Lucas Kaimaras
Reviewed by Stefanos Reppas

▲Back to top

ABOUT THE SPEAKER
Rana el Kaliouby - Computer scientist
What if a computer could recognize your facial expression, and react to how you feel? Rana el Kaliouby sees big possibilities in making technology emotionally aware.

Why you should listen

Rana el Kaliouby, chief science officer and co-founder of Affectiva, an MIT Media Lab spin-off, is on a mission to bring emotion intelligence to our digital experiences. She leads the company's emotion analytics team, which is responsible for developing emotion-sensing algorithms and mining the world's largest emotion data database. So far, they've collected 12 billion emotion data points from 2.9 million face videos from volunteers in 75 countries. The company’s platform is used by many Fortune Global 100 companies to measure consumer engagement, and is pioneering emotion-enabled digital apps for enterprise, entertainment, video communication and online education.

Entrepreneur magazine called el Kaliouby one of “The 7 Most Powerful Women To Watch in 2014,” and the MIT Technology Review included her in their list of the “Top 35 Innovators Under 35.”

More profile about the speaker
Rana el Kaliouby | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee