ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com
TEDWomen 2010

Cynthia Breazeal: The rise of personal robots

Σύνθια Μπρεζίλ: Η άφιξη των προσωπικών ρομπότ

Filmed:
1,201,057 views

Σαν μεταπτυχιακή φοιτήτρια, η Σύνθια Μπρεζίλ αναρωτιόταν γιατί χρησιμοποιούμε ρομπότ στον πλανήτη Άρη και όχι στα δωμάτιά μας. Κατάλαβε ότι το κλειδί ήταν να εκπαιδεύσουμε τα ρομπότ ώστε να αλληλεπιδρούν με τους ανθρώπους. Τώρα φαντάζεται και φτιάχνει ρομπότ που διδάσκουν, μαθαίνουν και παίζουν. Παρακολουθήστε μια καταπληκτική επίδειξη ενός καινούριου διαδραστικού παιχνιδιού για παιδιά.
- Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do. Full bio

Double-click the English transcript below to play the video.

00:15
Ever sinceΑπό I was a little girlκορίτσι
0
0
3000
Απ' όταν ήμουν μικρό κορίτσι
00:18
seeingβλέπων "StarΑστέρι WarsΠόλεμοι" for the first time,
1
3000
2000
και είδα τον "Πόλεμο των Άστρων" για πρώτη φορά,
00:20
I've been fascinatedγοητευμένος by this ideaιδέα
2
5000
2000
με συνάρπαζε η ιδέα
00:22
of personalπροσωπικός robotsρομπότ.
3
7000
2000
των προσωπικών ρομπότ.
00:24
And as a little girlκορίτσι,
4
9000
2000
Και σαν μικρό κορίτσι που ήμουν,
00:26
I lovedαγαπούσε the ideaιδέα of a robotρομπότ that interactedαλληλεπίδραση with us
5
11000
2000
λάτρευα την ιδέα ενός ρομπότ που αλληλεπιδρά με μας,
00:28
much more like a helpfulβοηθητικός, trustedέμπιστος sidekickυφιστάμενος --
6
13000
3000
κάτι σαν ένα έμπιστο βοηθό ή ακόλουθο,
00:31
something that would delightαπόλαυση us, enrichεμπλουτίζουν our livesζωή
7
16000
2000
που θα μας έφερνε ευχαρίστηση, θα έκανε τις ζωές μας πιο πλούσιες
00:33
and help us saveαποθηκεύσετε a galaxyγαλαξίας or two.
8
18000
3000
και θα μας βοηθούσε να σώσουμε έναν-δυο γαλαξίες.
00:37
I knewήξερε robotsρομπότ like that didn't really existυπάρχει,
9
22000
3000
Ήξερα ότι τέτοια ρομπότ δεν υπήρχαν,
00:40
but I knewήξερε I wanted to buildχτίζω them.
10
25000
2000
αλλά ήξερα ότι ήθελα φτιάξω τέτοια.
00:42
So 20 yearsχρόνια passπέρασμα --
11
27000
2000
Πέρασαν λοιπόν είκοσι χρόνια,
00:44
I am now a graduateαποφοιτώ studentμαθητης σχολειου at MITMIT
12
29000
2000
είμαι τώρα μεταπτυχιακή φοιτήτρια στο MIT
00:46
studyingμελετώντας artificialτεχνητός intelligenceνοημοσύνη,
13
31000
2000
και σπουδάζω τεχνητή νοημοσύνη,
00:48
the yearέτος is 1997,
14
33000
2000
βρισκόμαστε στο 1997,
00:50
and NASANASA has just landedπροσγειώθηκε the first robotρομπότ on MarsΆρης.
15
35000
3000
και η NASA έχει μόλις στείλει το πρώτο ρομπότ στον Άρη.
00:53
But robotsρομπότ are still not in our home, ironicallyειρωνικώς.
16
38000
3000
Αλλά, τι ειρωνεία, τα ρομπότ ακόμα δε βρίσκονται στα σπίτια μας.
00:56
And I rememberθυμάμαι thinkingσκέψη about
17
41000
2000
Και θυμάμαι σκεφτόμουνα
00:58
all the reasonsαιτιολογικό why that was the caseπερίπτωση.
18
43000
2000
όλους τους λόγους για τους οποίους συμβαίνει αυτό.
01:00
But one really struckχτύπησε me.
19
45000
2000
Αλλά ένας μου έκανε πραγματικά εντύπωση.
01:02
RoboticsΡομποτική had really been about interactingαλληλεπιδρώντας with things,
20
47000
3000
Η ρομποτική είχε σχέση με την αλληλεπίδραση με τα αντικείμενα,
01:05
not with people --
21
50000
2000
όχι με τους ανθρώπους,
01:07
certainlyσίγουρα not in a socialκοινωνικός way that would be naturalφυσικός for us
22
52000
2000
σίγουρα όχι με κάποια κοινωνική διάσταση που θα ήταν φυσική για μας
01:09
and would really help people acceptαποδέχομαι robotsρομπότ
23
54000
2000
και θα βοηθούσε τους ανθρώπους να αποδεχθούν τα ρομπότ
01:11
into our dailyκαθημερινά livesζωή.
24
56000
2000
στην καθημερινότητά μας.
01:13
For me, that was the whiteάσπρο spaceχώρος; that's what robotsρομπότ could not do yetΑκόμη.
25
58000
3000
Για μένα, αυτό ήταν το σύνορο, αυτό που τα ρομπότ δε μπορούσαν ακόμα να κάνουν.
01:16
And so that yearέτος, I startedξεκίνησε to buildχτίζω this robotρομπότ, KismetKismet,
26
61000
3000
Κι έτσι εκείνη τη χρονιά, ξεκίνησα να φτιάχνω αυτό το ρομπότ, το Kismet,
01:19
the world'sτου κόσμου first socialκοινωνικός robotρομπότ.
27
64000
3000
το πρώτο κοινωνικό ρομπότ στον κόσμο.
01:22
ThreeΤρεις yearsχρόνια laterαργότερα --
28
67000
2000
Έτσι τρία χρόνια αργότερα,
01:24
a lot of programmingπρογραμματισμός,
29
69000
2000
μετά από πολύ προγραμματισμό,
01:26
workingεργαζόμενος with other graduateαποφοιτώ studentsΦοιτητές in the labεργαστήριο --
30
71000
2000
και συνεργασία με άλλους μεταπτυχιακούς φοιτητές στο εργαστήριο,
01:28
KismetKismet was readyέτοιμος to startαρχή interactingαλληλεπιδρώντας with people.
31
73000
2000
το Kismet ήταν έτοιμο να αρχίσει να αλληλεπιδρά με ανθρώπους.
01:30
(VideoΒίντεο) ScientistΕπιστήμονας: I want to showπροβολή you something.
32
75000
2000
(Βίντεο) Επιστήμονας: Θέλω να σου δείξω κάτι.
01:32
KismetKismet: (NonsenseΑνοησίες)
33
77000
2000
Kismet: (Ακατάληπτα)
01:34
ScientistΕπιστήμονας: This is a watch that my girlfriendφιλενάδα gaveέδωσε me.
34
79000
3000
Επιστήμονας: Αυτό το ρολόι μου το έδωσε η φιλενάδα μου.
01:37
KismetKismet: (NonsenseΑνοησίες)
35
82000
2000
Kismet: (Ακατάληπτα)
01:39
ScientistΕπιστήμονας: Yeah, look, it's got a little blueμπλε lightφως in it too.
36
84000
2000
Επιστήμονας: Ναι, κοίτα, έχει κι ένα μικρό μπλε φωτάκι.
01:41
I almostσχεδόν lostχαμένος it this weekεβδομάδα.
37
86000
3000
Παραλίγο να το χάσω πριν λίγες μέρες.
01:44
CynthiaCynthia BreazealBreazeal: So KismetKismet interactedαλληλεπίδραση with people
38
89000
3000
Σύνθια Μπρεζίλ: Έτσι, το Kismet αλληλεπιδρούσε με τους ανθρώπους
01:47
like kindείδος of a non-verbalμη λεκτική childπαιδί or pre-verbalπρο-λεκτική childπαιδί,
39
92000
3000
σαν ένα παιδί που δε μιλά ή δεν έχει ξεκινήσει να μιλά,
01:50
whichοι οποίες I assumeυποθέτω was fittingπροσαρμογή because it was really the first of its kindείδος.
40
95000
3000
το οποίο υποθέτω ότι ταίριαζε γιατί ήταν το πρώτο του είδους του.
01:53
It didn't speakμιλώ languageΓλώσσα, but it didn't matterύλη.
41
98000
2000
Δε μιλούσε σε κάποια γλώσσα, αλλά δεν είχε σημασία.
01:55
This little robotρομπότ was somehowκάπως ableικανός
42
100000
2000
Αυτό το μικρό ρομπότ κάπως κατάφερε
01:57
to tapπαρακέντηση into something deeplyκατα ΒΑΘΟΣ socialκοινωνικός withinστα πλαίσια us --
43
102000
3000
να αγγίξει κάτι βαθιά κοινωνικό μέσα μας.
02:00
and with that, the promiseυπόσχεση of an entirelyεξ ολοκλήρου newνέος way
44
105000
2000
Και με αυτό, έδωσε την υπόσχεση ενός τελείως καινούριου τρόπου
02:02
we could interactαλληλεπιδρώ with robotsρομπότ.
45
107000
2000
με τον οποίο μπορούμε να αλληλεπιδρούμε με τα ρομπότ.
02:04
So over the pastτο παρελθόν severalαρκετά yearsχρόνια
46
109000
2000
Έτσι όλα αυτά τα χρόνια
02:06
I've been continuingσυνεχίζοντας to exploreεξερευνώ this interpersonalδιαπροσωπικές dimensionδιάσταση of robotsρομπότ,
47
111000
2000
συνέχισα να ερευνώ αυτή τη διαπροσωπική διάσταση των ρομπότ,
02:08
now at the mediaμεσο ΜΑΖΙΚΗΣ ΕΝΗΜΕΡΩΣΗΣ labεργαστήριο
48
113000
2000
εργαζόμενη πλέον στο Media Lab
02:10
with my ownτα δικά teamομάδα of incrediblyαπίστευτα talentedταλαντούχος studentsΦοιτητές.
49
115000
2000
με τη δική μου ομάδα από ιδιαίτερα ταλαντούχους φοιτητές.
02:12
And one of my favoriteαγαπημένη robotsρομπότ is LeonardoΛεονάρντο.
50
117000
3000
Και ένα από τα αγαπημένα μου ρομπότ είναι το Leonardo.
02:15
We developedαναπτηγμένος LeonardoΛεονάρντο in collaborationσυνεργασία with StanStan WinstonΟ Ουίνστον StudioΣτούντιο.
51
120000
3000
Αναπτύξαμε το Leonardo σε συνεργασία με το Stan Winston Studio.
02:18
And so I want to showπροβολή you a specialειδικός momentστιγμή for me of LeoΛέων.
52
123000
3000
Και θέλω να σας δείξω μια στιγμή του Leo που για μένα είναι ιδιαίτερη.
02:21
This is MattΜατ BerlinΒερολίνο interactingαλληλεπιδρώντας with LeoΛέων,
53
126000
2000
Εδώ ο Matt Berlin αλληλεπιδρά με το Leo,
02:23
introducingεισάγοντας LeoΛέων to a newνέος objectαντικείμενο.
54
128000
2000
και του δείχνει ένα καινούριο αντικείμενο.
02:25
And because it's newνέος, LeoΛέων doesn't really know what to make of it.
55
130000
3000
Κι επειδή είναι καινούριο, ο Leo δεν ξέρει τι να το κάνει.
02:28
But sortείδος of like us, he can actuallyπράγματι learnμαθαίνω about it
56
133000
2000
Αλλά όπως κι εμείς, μπορεί να μάθει κάτι γι' αυτό
02:30
from watchingβλέποντας Matt'sΤου ματ reactionαντίδραση.
57
135000
3000
κοιτάζοντας την αντίδραση του Matt.
02:33
(VideoΒίντεο) MattΜατ BerlinΒερολίνο: HelloΓεια σου, LeoΛέων.
58
138000
2000
(Βίντεο) Matt Berlin: Γεια σου Leo.
02:38
LeoΛέων, this is CookieΜπισκότο MonsterΤέρας.
59
143000
3000
Leo, αυτό είναι το Τέρας των Μπισκότων.
02:44
Can you find CookieΜπισκότο MonsterΤέρας?
60
149000
3000
Μπορείς βρεις το Τέρας των Μπισκότων;
02:52
LeoΛέων, CookieΜπισκότο MonsterΤέρας is very badκακό.
61
157000
3000
Leo, το Τέρας των Μπισκότων είναι πολύ κακό.
02:56
He's very badκακό, LeoΛέων.
62
161000
2000
Είναι πολύ κακό, Leo.
03:00
CookieΜπισκότο MonsterΤέρας is very, very badκακό.
63
165000
3000
Το Τέρας των Μπισκότων είναι πολύ, πολύ κακό.
03:07
He's a scaryτρομακτικός monsterΤέρας.
64
172000
2000
Είναι ένα τρομακτικό τέρας.
03:09
He wants to get your cookiesτα cookies.
65
174000
2000
Θέλει να κλέψει τα μπισκότα σου.
03:12
(LaughterΤο γέλιο)
66
177000
2000
(Γέλια)
03:14
CBCB: All right, so LeoΛέων and CookieΜπισκότο
67
179000
3000
Σύνθια: Εντάξει, ο Leo και το Τέρας
03:17
mightθα μπορούσε have gottenπήρε off to a little bitκομμάτι of a roughτραχύς startαρχή,
68
182000
2000
μπορεί να μην ξεκίνησαν καλά,
03:19
but they get alongκατά μήκος great now.
69
184000
3000
αλλά στην πορεία τα βρήκαν.
03:22
So what I've learnedέμαθα
70
187000
2000
Αυτό που έμαθα
03:24
throughδιά μέσου buildingΚτίριο these systemsσυστήματα
71
189000
2000
κατασκευάζοντας αυτά τα συστήματα
03:26
is that robotsρομπότ are actuallyπράγματι
72
191000
2000
είναι ότι τα ρομπότ είναι στην ουσία
03:28
a really intriguingενδιαφέρουσα socialκοινωνικός technologyτεχνολογία,
73
193000
2000
μια πραγματικά ενδιαφέρουσα κοινωνική τεχνολογία.
03:30
where it's actuallyπράγματι theirδικα τους abilityικανότητα
74
195000
2000
Και είναι η ικανότητά τους
03:32
to pushΣπρώξτε our socialκοινωνικός buttonsκουμπιά
75
197000
2000
να "πατήσουν" τα κοινωνικά κουμπιά μας
03:34
and to interactαλληλεπιδρώ with us like a partnerεταίρος
76
199000
2000
και να αλληλεπιδράσουν μαζί μας σαν ένας σύντροφος
03:36
that is a coreπυρήνας partμέρος of theirδικα τους functionalityλειτουργικότητα.
77
201000
3000
που είναι στην καρδιά της λειτουργικότητάς τους.
03:39
And with that shiftβάρδια in thinkingσκέψη, we can now startαρχή to imagineφαντάζομαι
78
204000
2000
Και με αυτή την αλλαγή σκεπτικού, μπορούμε τώρα να αρχίσουμε να φανταζόμαστε
03:41
newνέος questionsερωτήσεις, newνέος possibilitiesδυνατότητες for robotsρομπότ
79
206000
3000
νέα ερωτήματα, νέες πιθανότητες για τα ρομπότ
03:44
that we mightθα μπορούσε not have thought about otherwiseσε διαφορετική περίπτωση.
80
209000
3000
που μπορεί να μη σκεφτόμασταν αλλιώς.
03:47
But what do I mean when I say "pushΣπρώξτε our socialκοινωνικός buttonsκουμπιά?"
81
212000
2000
Αλλά τι εννοώ όταν λέω ότι "πατούν" τα κοινωνικά κουμπιά μας;
03:49
Well, one of the things that we'veέχουμε learnedέμαθα
82
214000
2000
Λοιπόν, ένα από τα πράγματα που μάθαμε
03:51
is that, if we designσχέδιο these robotsρομπότ to communicateεπικοινωνώ with us
83
216000
2000
είναι ότι αν σχεδιάσουμε αυτά τα ρομπότ ώστε να επικοινωνούν μαζί μας
03:53
usingχρησιμοποιώντας the sameίδιο bodyσώμα languageΓλώσσα,
84
218000
2000
χρησιμοποιώντας την ίδια γλώσσα του σώματος,
03:55
the sameίδιο sortείδος of non-verbalμη λεκτική cuesσυνθήματα that people use --
85
220000
2000
το ίδιο είδος μη λεκτικών ενδείξεων που χρησιμοποιούν οι άνθρωποι,
03:57
like NexiNexi, our humanoidανθρωποειδές robotρομπότ, is doing here --
86
222000
3000
όπως κάνει εδώ το Nexi, το ανθρωποειδές ρομπότ μας,
04:00
what we find is that people respondαπαντώ to robotsρομπότ
87
225000
2000
αυτό που βλέπουμε είναι ότι οι άνθρωποι αντιδρούν στα ρομπότ
04:02
a lot like they respondαπαντώ to people.
88
227000
2000
σχεδόν όπως αντιδρούν στους ανθρώπους.
04:04
People use these cuesσυνθήματα to determineκαθορίσει things like how persuasiveπειστική someoneκάποιος is,
89
229000
3000
Οι άνθρωποι χρησιμοποιούν αυτές τις ενδείξεις για να καθορίσουν πράγματα όπως το πόσο πειστικός είναι κάποιος
04:07
how likableαγαπητός, how engagingελκυστικός,
90
232000
2000
πόσο ελκυστικός ή ευχάριστος,
04:09
how trustworthyαξιόπιστο.
91
234000
2000
πόσο αξιόπιστος.
04:11
It turnsστροφές out it's the sameίδιο for robotsρομπότ.
92
236000
2000
Από ό,τι φαίνεται, ισχύει το ίδιο και για τα ρομπότ.
04:13
It's turningστροφή out now
93
238000
2000
Φαίνεται ότι
04:15
that robotsρομπότ are actuallyπράγματι becomingθελκτικός a really interestingενδιαφέρων newνέος scientificεπιστημονικός toolεργαλείο
94
240000
3000
τα ρομπότ γίνονται ένα πραγματικά ενδιαφέρον επιστημονικό εργαλείο
04:18
to understandκαταλαβαίνουν humanο άνθρωπος behaviorη ΣΥΜΠΕΡΙΦΟΡΑ.
95
243000
2000
για να κατανοήσουμε την ανθρώπινη συμπεριφορά.
04:20
To answerαπάντηση questionsερωτήσεις like, how is it that, from a briefσύντομος encounterσυνάντηση,
96
245000
3000
Για να απαντήσουμε ερωτήσεις όπως, τι είναι αυτό που, μετά από μια σύντομη συνάντηση,
04:23
we're ableικανός to make an estimateεκτίμηση of how trustworthyαξιόπιστο anotherαλλο personπρόσωπο is?
97
248000
3000
μας δίνει τη δυνατότητα να εκτιμήσουμε πόσο αξιόπιστος είναι κάποιος;
04:26
Mimicry'sΤου μιμητισμού believedπιστεύω to playπαίζω a roleρόλος, but how?
98
251000
3000
Πιστεύουμε ότι η μίμηση παίζει ένα ρόλο, αλλά πώς;
04:29
Is it the mimickingμιμείται of particularιδιαιτερος gesturesχειρονομίες that mattersθέματα?
99
254000
3000
Έχει σημασία η μίμηση συγκεκριμένων χειρονομιών;
04:32
It turnsστροφές out it's really hardσκληρά
100
257000
2000
Είναι πραγματικά δύσκολο
04:34
to learnμαθαίνω this or understandκαταλαβαίνουν this from watchingβλέποντας people
101
259000
2000
να το μάθεις ή να το κατανοήσεις αυτό παρατηρώντας ανθρώπους
04:36
because when we interactαλληλεπιδρώ we do all of these cuesσυνθήματα automaticallyαυτομάτως.
102
261000
3000
γιατί όταν αλληλεπιδρούμε, δίνουμε όλες αυτές τις ενδείξεις αυτόματα.
04:39
We can't carefullyπροσεκτικά controlέλεγχος them because they're subconsciousυποσυνείδητο for us.
103
264000
2000
Δε μπορούμε να τις ελέγξουμε προσεκτικά, γιατί ανήκουν στο υποσυνείδητό μας.
04:41
But with the robotρομπότ, you can.
104
266000
2000
Αλλά στο ρομπότ μπορούμε.
04:43
And so in this videoβίντεο here --
105
268000
2000
Κι έτσι σε αυτό το βίντεο εδώ --
04:45
this is a videoβίντεο takenληφθεί from DavidΔαβίδ DeSteno'sDeSteno του labεργαστήριο at NortheasternΒορειοανατολική UniversityΠανεπιστήμιο.
106
270000
3000
αυτό είναι ένα βίντεο από το εργαστήριο του David DeSteno στο Πανεπιστήμιο Northwestern.
04:48
He's a psychologistψυχολόγος we'veέχουμε been collaboratingσυνεργασία with.
107
273000
2000
Είναι ένας ψυχολόγος με τον οποίο συνεργαζόμαστε.
04:50
There's actuallyπράγματι a scientistεπιστήμονας carefullyπροσεκτικά controllingέλεγχος Nexi'sΤου nexi cuesσυνθήματα
108
275000
3000
Εδώ είναι ένας επιστήμονας που ελέγχει προσεκτικά τις ενδείξεις από το Nexi
04:53
to be ableικανός to studyμελέτη this questionερώτηση.
109
278000
3000
για να μπορέσει να μελετήσει αυτό το ερώτημα.
04:56
And the bottomκάτω μέρος lineγραμμή is -- the reasonλόγος why this worksεργοστάσιο is
110
281000
2000
Και τελικά, ο λόγος που αυτό πετυχαίνει
04:58
because it turnsστροφές out people just behaveσυμπεριφέρομαι like people
111
283000
2000
είναι ότι οι άνθρωποι συμπεριφέρονται σαν άνθρωποι
05:00
even when interactingαλληλεπιδρώντας with a robotρομπότ.
112
285000
3000
ακόμα κι όταν αλληλεπιδρούν με ένα ρομπότ.
05:03
So givenδεδομένος that keyκλειδί insightδιορατικότητα,
113
288000
2000
Έχοντας λοιπόν όλη αυτήν τη γνώση,
05:05
we can now startαρχή to imagineφαντάζομαι
114
290000
2000
μπορούμε τώρα να αρχίσουμε να φανταζόμαστε
05:07
newνέος kindsείδη of applicationsεφαρμογών for robotsρομπότ.
115
292000
3000
νέα είδη εφαρμογών για τα ρομπότ.
05:10
For instanceπαράδειγμα, if robotsρομπότ do respondαπαντώ to our non-verbalμη λεκτική cuesσυνθήματα,
116
295000
3000
Για παράδειγμα, αν τα ρομπότ αντιδρούν στις μη λεκτικές ενδείξεις μας,
05:13
maybe they would be a coolδροσερός, newνέος communicationεπικοινωνία technologyτεχνολογία.
117
298000
4000
θα μπορούσαν να αποτελέσουν μια νέα, φρέσκια τεχνολογία επικοινωνίας.
05:17
So imagineφαντάζομαι this:
118
302000
2000
Φανταστείτε αυτό:
05:19
What about a robotρομπότ accessoryΑξεσουάρ for your cellphoneκινητό τηλέφωνο?
119
304000
2000
ένα ρομποτικό αξεσουάρ για το κινητό σας.
05:21
You call your friendφίλος, she putsθέτει her handsetακουστικό in a robotρομπότ,
120
306000
2000
Τηλεφωνείτε σε έναν φίλο σας κι αυτή βάζει το ακουστικό της σε ένα ρομπότ,
05:23
and, bamμπαμ! You're a MeBotMeBot --
121
308000
2000
και, μπαμ, είστε ένα ΕγώΜπότ,
05:25
you can make eyeμάτι contactΕπικοινωνία, you can talk with your friendsοι φιλοι,
122
310000
3000
μπορείτε να έχετε οπτική επαφή, να μιλήσετε με τους φίλους σας,
05:28
you can moveκίνηση around, you can gestureχειρονομία --
123
313000
2000
να κινηθείτε ή να χειρονομήσετε,
05:30
maybe the nextεπόμενος bestκαλύτερος thing to really beingνα εισαι there, or is it?
124
315000
3000
σχεδόν σαν να βρίσκεστε εκεί. Ή μήπως όχι;
05:33
To exploreεξερευνώ this questionερώτηση,
125
318000
2000
Για να μελετήσει αυτήν την ερώτηση
05:35
my studentμαθητης σχολειου, SiggySiggy AdalgeirssonAdalgeirsson, did a studyμελέτη
126
320000
3000
ο φοιτητής μου, Siggy Adalgeirsson, ξεκίνησε μια μελέτη
05:38
where we broughtέφερε humanο άνθρωπος participantsσυμμετέχοντες, people, into our labεργαστήριο
127
323000
3000
όπου φέραμε συμμετέχοντες στο εργαστήριό μας
05:41
to do a collaborativeσυνεργατική taskέργο
128
326000
2000
για να κάνουν μια συνεργατική εργασία
05:43
with a remoteμακρινός collaboratorσυνεργάτης.
129
328000
2000
με έναν απομακρυσμένο συνεργάτη.
05:45
The taskέργο involvedεμπλεγμένος things
130
330000
2000
Η εργασία περιελάμβανε στοιχεία
05:47
like looking at a setσειρά of objectsαντικείμενα on the tableτραπέζι,
131
332000
2000
όπως το να κοιτάξουν αντικείμενα πάνω στο τραπέζι,
05:49
discussingσυζητώντας them in termsόροι of theirδικα τους importanceσημασια and relevanceσυνάφεια to performingτην εκτέλεση a certainβέβαιος taskέργο --
132
334000
3000
να συζητήσουν την σημασία τους και τη σχέση τους με κάποια εργασία,
05:52
this endedέληξε up beingνα εισαι a survivalεπιβίωση taskέργο --
133
337000
2000
που τελικά ήταν μια εργασία επιβίωσης,
05:54
and then ratingΒαθμολογία them in termsόροι
134
339000
2000
και μετά να τα βαθμολογήσουν με βάση
05:56
of how valuableπολύτιμος and importantσπουδαίος they thought they were.
135
341000
2000
την αξία και τη σημασία που νόμιζαν ότι έχουν.
05:58
The remoteμακρινός collaboratorσυνεργάτης was an experimenterπειραματιστής from our groupομάδα
136
343000
3000
Ο απομακρυσμένος συνεργάτης ήταν ένας ερευνητής από την ομάδα μας
06:01
who used one of threeτρία differentδιαφορετικός technologiesτεχνολογίες
137
346000
2000
και χρησιμοποίησαν μια από τρεις διαθέσιμες τεχνολογίες
06:03
to interactαλληλεπιδρώ with the participantsσυμμετέχοντες.
138
348000
2000
για να αλληλεπιδράσουν με τους συμμετέχοντες.
06:05
The first was just the screenοθόνη.
139
350000
2000
Η πρώτη ήταν η οθόνη.
06:07
This is just like videoβίντεο conferencingδιασκέψεων todayσήμερα.
140
352000
3000
Αυτό είναι σαν τη σημερινή τηλεδιάσκεψη.
06:10
The nextεπόμενος was to addπροσθέτω mobilityκινητικότητα -- so, have the screenοθόνη on a mobileκινητό baseβάση.
141
355000
3000
Η επόμενη ήταν να προσθέσουν κινητικότητα, οπότε έβαλαν την οθόνη σε μια κινητή βάση.
06:13
This is like, if you're familiarοικείος with any of the telepresenceTelePresence robotsρομπότ todayσήμερα --
142
358000
3000
Αυτό είναι, αν είστε εξοικειωμένοι με κάποιο από τα ρομπότ τηλε-παρουσίας,
06:16
this is mirroringδημιουργία ειδώλου that situationκατάσταση.
143
361000
3000
μια αντιγραφή αυτής της διαδικασίας.
06:19
And then the fullyπλήρως expressiveεκφραστική MeBotMeBot.
144
364000
2000
Και τέλος το πλήρως εκφραστικό ΕγώΜπότ.
06:21
So after the interactionΑΛΛΗΛΕΠΙΔΡΑΣΗ,
145
366000
2000
Μετά την αλληλεπίδραση,
06:23
we askedερωτηθείς people to rateτιμή theirδικα τους qualityποιότητα of interactionΑΛΛΗΛΕΠΙΔΡΑΣΗ
146
368000
3000
ζητήσαμε από τους συμμετέχοντες να βαθμολογήσουν την ποιότητα της αλληλεπίδρασης
06:26
with the technologyτεχνολογία, with a remoteμακρινός collaboratorσυνεργάτης
147
371000
2000
με την τεχνολογία, με έναν απομακρυσμένο συνεργάτη,
06:28
throughδιά μέσου this technologyτεχνολογία, in a numberαριθμός of differentδιαφορετικός waysτρόπους.
148
373000
3000
μέσω αυτής της τεχνολογίας με διάφορες μεθόδους.
06:31
We lookedκοίταξε at psychologicalψυχολογικός involvementπεριπλοκή --
149
376000
2000
Μελετήσαμε την ψυχολογική εμπλοκή,
06:33
how much empathyενσυναίσθηση did you feel for the other personπρόσωπο?
150
378000
2000
πόσο συνδέθηκαν με το άλλο άτομο.
06:35
We lookedκοίταξε at overallΣυνολικά engagementσύμπλεξη.
151
380000
2000
Μελετήσαμε τη συνολική εμπλοκή.
06:37
We lookedκοίταξε at theirδικα τους desireεπιθυμία to cooperateσυνεργάζονται.
152
382000
2000
Τη θέληση να συνεργαστούν.
06:39
And this is what we see when they use just the screenοθόνη.
153
384000
3000
Και αυτό βλέπουμε όταν απλά χρησιμοποιούν την οθόνη.
06:42
It turnsστροφές out, when you addπροσθέτω mobilityκινητικότητα -- the abilityικανότητα to rollρολό around the tableτραπέζι --
154
387000
3000
Φαίνεται ότι όταν προσθέσεις την κινητικότητα, την ικανότητα να κυλήσεις γύρω από το τραπέζι,
06:45
you get a little more of a boostώθηση.
155
390000
2000
έχεις μια μικρή αύξηση.
06:47
And you get even more of a boostώθηση when you addπροσθέτω the fullγεμάτος expressionέκφραση.
156
392000
3000
Και έχεις ακόμα μεγαλύτερη αύξηση, όταν προσθέσεις την πλήρη εκφραστικότητα.
06:50
So it seemsφαίνεται like this physicalφυσικός, socialκοινωνικός embodimentενσωμάτωση
157
395000
2000
Φαίνεται λοιπόν ότι αυτή η σωματική κοινωνική ενσωμάτωση
06:52
actuallyπράγματι really makesκάνει a differenceδιαφορά.
158
397000
2000
κάνει πραγματικά τη διαφορά.
06:54
Now let's try to put this into a little bitκομμάτι of contextσυμφραζόμενα.
159
399000
3000
Ας προσπαθήσουμε να το δούμε αυτό μέσα σε ένα πλαίσιο.
06:57
TodayΣήμερα we know that familiesοικογένειες are livingζωή furtherπεραιτέρω and furtherπεραιτέρω apartχώρια,
160
402000
3000
Σήμερα γνωρίζουμε ότι οι οικογένειες μένουν ολοένα και πιο μακριά,
07:00
and that definitelyοπωσδηποτε takes a tollδιόδια on familyοικογένεια relationshipsσχέσεις
161
405000
2000
και αυτό έχει σίγουρα επιπτώσεις στις οικογενειακές σχέσεις
07:02
and familyοικογένεια bondsδεσμούς over distanceαπόσταση.
162
407000
2000
και τους οικογενειακούς δεσμούς εξ αποστάσεως.
07:04
For me, I have threeτρία youngνεαρός boysαγόρια,
163
409000
2000
Εγώ έχω τρία μικρά αγόρια,
07:06
and I want them to have a really good relationshipσχέση
164
411000
2000
και θέλω να έχουν μια πραγματικά καλή σχέση
07:08
with theirδικα τους grandparentsπαππούδες και γιαγιάδες.
165
413000
2000
με τους παππούδες τους.
07:10
But my parentsγονείς liveζω thousandsχιλιάδες of milesμίλια away,
166
415000
2000
Αλλά οι γονείς μου ζουν χιλιάδες μίλια μακριά
07:12
so they just don't get to see eachκαθε other that oftenσυχνά.
167
417000
2000
και δεν έχουν την ευκαιρία να βλέπονται τόσο συχνά.
07:14
We try SkypeSkype, we try phoneτηλέφωνο callsκλήσεις,
168
419000
2000
Δοκιμάζουμε το Skype, τα τηλεφωνήματα,
07:16
but my boysαγόρια are little -- they don't really want to talk;
169
421000
2000
αλλά τα αγόρια μου είναι μικρά, δε θέλουν να μιλάνε,
07:18
they want to playπαίζω.
170
423000
2000
θέλουν να παίζουν.
07:20
So I love the ideaιδέα of thinkingσκέψη about robotsρομπότ
171
425000
2000
Η ιδέα των ρομπότ τους αρέσει πραγματικά
07:22
as a newνέος kindείδος of distance-playαπόσταση-play technologyτεχνολογία.
172
427000
3000
σαν ένα νέο είδος παιχνιδιού από απόσταση.
07:25
I imagineφαντάζομαι a time not too farμακριά from now --
173
430000
3000
Φανταστείτε λοιπόν μια εποχή, όχι πολύ μακρινή,
07:28
my momμαμά can go to her computerυπολογιστή,
174
433000
2000
όπου η μητέρα μου μπορεί να πάει στον υπολογιστή της,
07:30
openΆνοιξε up a browserπρόγραμμα περιήγησης and jackγρύλος into a little robotρομπότ.
175
435000
2000
να ανοίξει ένα πρόγραμμα πλοήγησης και να συνδεθεί με ένα μικρό ρομπότ.
07:32
And as grandma-botγιαγιά-bot,
176
437000
3000
Και σαν ένα ΓιαγιάΜπότ,
07:35
she can now playπαίζω, really playπαίζω,
177
440000
2000
μπορεί τώρα να παίξει, πραγματικά,
07:37
with my sonsΥΙΟΙ, with her grandsonsεγγόνια,
178
442000
2000
με τους γιους μου, τους εγγονούς της,
07:39
in the realπραγματικός worldκόσμος with his realπραγματικός toysπαιχνίδια.
179
444000
3000
στον πραγματικό κόσμο, με τα πραγματικά παιχνίδια του.
07:42
I could imagineφαντάζομαι grandmothersγιαγιάδες beingνα εισαι ableικανός to do social-playsκοινωνική-παίζει
180
447000
2000
Μπορώ να φανταστώ τις γιαγιάδες να έχουν τη δυνατότητα να παίξουν κοινωνικά παιχνίδια
07:44
with theirδικα τους granddaughtersεγγονές, with theirδικα τους friendsοι φιλοι,
181
449000
2000
με τις εγγονές τους, τις φίλες τους,
07:46
and to be ableικανός to shareμερίδιο all kindsείδη of other activitiesδραστηριότητες around the houseσπίτι,
182
451000
2000
και να μπορούν να κάνουν κοινές δραστηριότητες κάθε είδους στο σπίτι,
07:48
like sharingμοιρασιά a bedtimeώρα για ύπνο storyιστορία.
183
453000
2000
όπως το να μοιραστούν ένα παραμύθι.
07:50
And throughδιά μέσου this technologyτεχνολογία,
184
455000
2000
Και μέσω αυτής της τεχνολογίας,
07:52
beingνα εισαι ableικανός to be an activeενεργός participantσυμμέτοχος
185
457000
2000
να μπορούν να συμμετέχουν ενεργά
07:54
in theirδικα τους grandchildren'sτα εγγόνια του livesζωή
186
459000
2000
στις ζωές των εγγονών τους
07:56
in a way that's not possibleδυνατόν todayσήμερα.
187
461000
2000
με έναν τρόπο που δεν είναι εφικτός σήμερα.
07:58
Let's think about some other domainsτομείς,
188
463000
2000
Ας σκεφτούμε κάποια άλλα πεδία,
08:00
like maybe healthυγεία.
189
465000
2000
όπως η υγεία.
08:02
So in the UnitedΕνωμένοι StatesΚράτη μέλη todayσήμερα,
190
467000
2000
Στις Ηνωμένες Πολιτείες σήμερα,
08:04
over 65 percentτοις εκατό of people are eitherείτε overweightυπερβολικό βάρος or obeseπαχύσαρκος,
191
469000
3000
πάνω από 65% των ατόμων είναι είτε υπέρβαροι, είτε παχύσαρκοι,
08:07
and now it's a bigμεγάλο problemπρόβλημα with our childrenπαιδιά as well.
192
472000
2000
και αυτό είναι ένα μεγάλο πρόβλημα και για τα παιδιά μας.
08:09
And we know that as you get olderΠαλαιότερα in life,
193
474000
2000
Και ξέρουμε ότι, όσο μεγαλώνει κανείς,
08:11
if you're obeseπαχύσαρκος when you're youngerπιο ΝΕΟΣ, that can leadΟΔΗΓΩ to chronicχρόνιες diseasesασθένειες
194
476000
3000
αν είναι παχύσαρκος όταν είναι νέος, αυτό μπορεί να οδηγήσει σε χρόνιες ασθένειες
08:14
that not only reduceπεριορίζω your qualityποιότητα of life,
195
479000
2000
που όχι μόνο μειώνουν την ποιότητα ζωής μας,
08:16
but are a tremendousκαταπληκτικός economicοικονομικός burdenβάρος on our healthυγεία careΦροντίδα systemΣύστημα.
196
481000
3000
αλλά επιφέρουν τεράστιο οικονομικό βάρος στο σύστημα υγείας μας.
08:19
But if robotsρομπότ can be engagingελκυστικός,
197
484000
2000
Αλλά αν τα ρομπότ μπορούν να είναι ενδιαφέροντα,
08:21
if we like to cooperateσυνεργάζονται with robotsρομπότ,
198
486000
2000
αν μας αρέσει να αλληλεπιδρούμε με τα ρομπότ,
08:23
if robotsρομπότ are persuasiveπειστική,
199
488000
2000
αν τα ρομπότ είναι πειστικά,
08:25
maybe a robotρομπότ can help you
200
490000
2000
ίσως ένα ρομπότ μπορεί να σας βοηθήσει
08:27
maintainδιατηρούν a dietδιατροφή and exerciseάσκηση programπρόγραμμα,
201
492000
2000
να κρατήσουμε ένα πρόγραμμα δίαιτας και άσκησης
08:29
maybe they can help you manageδιαχειρίζονται your weightβάρος.
202
494000
3000
να μας βοηθήσει να διαχειριστούμε το βάρος μας.
08:32
SortΕίδος of like a digitalψηφιακό JiminyΕλέφαντα --
203
497000
2000
Σαν έναν ψηφιακό Jiminy,
08:34
as in the well-knownγνωστό fairyνεράιδα taleιστορία --
204
499000
2000
από το γνωστό παραμύθι,
08:36
a kindείδος of friendlyφιλικός, supportiveυποστηρικτικό presenceπαρουσία that's always there
205
501000
2000
ένα είδος φιλικής, υποστηρικτικής παρουσίας που είναι πάντα δίπλα μας
08:38
to be ableικανός to help you make the right decisionαπόφαση
206
503000
2000
για να μας βοηθήσει να πάρουμε τη σωστή απόφαση
08:40
in the right way at the right time
207
505000
2000
με το σωστό τρόπο, την κατάλληλη στιγμή,
08:42
to help you formμορφή healthyυγιής habitsσυνήθειες.
208
507000
2000
να μας βοηθήσει να αποκτήσουμε υγιεινές συνήθειες.
08:44
So we actuallyπράγματι exploredδιερευνηθούν this ideaιδέα in our labεργαστήριο.
209
509000
2000
Μελετήσαμε λοιπόν αυτήν την ιδέα στο εργαστήριό μας.
08:46
This is a robotρομπότ, AutomAutom.
210
511000
2000
Αυτό είναι ένα ρομπότ, το Autom.
08:48
CoryCory KiddKidd developedαναπτηγμένος this robotρομπότ for his doctoralΔιδακτορικά work.
211
513000
3000
Ο Cory Kidd το κατασκεύασε για τη διδακτορική του εργασία.
08:51
And it was designedσχεδιασμένο to be a robotρομπότ diet-and-exerciseδιατροφή και άσκηση coachπροπονητής.
212
516000
3000
Και σχεδιάστηκε να είναι ένας δάσκαλος δίαιτας και άσκησης.
08:54
It had a coupleζευγάρι of simpleαπλός non-verbalμη λεκτική skillsικανότητες it could do.
213
519000
2000
Είχε μια δυο μη λεκτικές ικανότητες.
08:56
It could make eyeμάτι contactΕπικοινωνία with you.
214
521000
2000
Μπορούσε να έχει οπτική επαφή.
08:58
It could shareμερίδιο informationπληροφορίες looking down at a screenοθόνη.
215
523000
2000
Μπορούσε να μοιράζεται πληροφορίες κοιτάζοντας σε μια οθόνη.
09:00
You'dΠου θα use a screenοθόνη interfaceδιεπαφή to enterεισαγω informationπληροφορίες,
216
525000
2000
Μπορούσες να χρησιμοποιήσεις μια οθόνη για να εισάγεις πληροφορίες,
09:02
like how manyΠολλά caloriesθερμίδες you ateέφαγε that day,
217
527000
2000
όπως το πόσες θερμίδες κατανάλωσες εκείνη τη μέρα,
09:04
how much exerciseάσκηση you got.
218
529000
2000
πόσο ασκήθηκες.
09:06
And then it could help trackπίστα that for you.
219
531000
2000
Και μπορούσε να κρατήσει αρχείο για σένα.
09:08
And the robotρομπότ spokeακτίνα with a syntheticσυνθετικός voiceφωνή
220
533000
2000
Και το ρομπότ μιλούσε με συνθετική φωνή
09:10
to engageαρραβωνιάζω you in a coachingπροπόνηση dialogueδιάλογος
221
535000
2000
για να σε εισάγει σε έναν εκπαιδευτικό διάλογο
09:12
modeledμοντέλο after trainersεκπαιδευτές
222
537000
2000
σχεδιασμένο από προπονητές
09:14
and patientsασθενείς and so forthΕμπρός.
223
539000
2000
και ασθενείς κ.ο.κ.
09:16
And it would buildχτίζω a workingεργαζόμενος allianceΣυμμαχία with you
224
541000
2000
Και μπορούσε να χτίσει μια ουσιαστική συμμαχία με σένα
09:18
throughδιά μέσου that dialogueδιάλογος.
225
543000
2000
μέσα από αυτόν το διάλογο.
09:20
It could help you setσειρά goalsστόχους and trackπίστα your progressπρόοδος,
226
545000
2000
Μπορούσε να σε βοηθήσει να ορίσεις στόχους και να παρακολουθείς την πρόοδό σου
09:22
and it would help motivateθέτω στην κίνησιν you.
227
547000
2000
και μπορούσε να σου δώσει κίνητρο.
09:24
So an interestingενδιαφέρων questionερώτηση is,
228
549000
2000
Μια ενδιαφέρουσα ερώτηση είναι
09:26
does the socialκοινωνικός embodimentενσωμάτωση really matterύλη? Does it matterύλη that it's a robotρομπότ?
229
551000
3000
πόσο μετράει πραγματικά η κοινωνική ενσωμάτωση. Έχει σημασία που είναι ένα ρομπότ;
09:29
Is it really just the qualityποιότητα of adviceσυμβουλή and informationπληροφορίες that mattersθέματα?
230
554000
3000
Είναι απλά η ποιότητα των συμβουλών και της πληροφορίας που μετράει;
09:32
To exploreεξερευνώ that questionερώτηση,
231
557000
2000
Για να απαντήσουμε αυτήν την ερώτηση,
09:34
we did a studyμελέτη in the BostonΒοστώνη areaπεριοχή
232
559000
2000
κάναμε μια μελέτη στην περιοχή της Βοστώνης
09:36
where we put one of threeτρία interventionsπαρεμβάσεις in people'sτων ανθρώπων homesσπίτια
233
561000
3000
όπου βάλαμε μια από τρεις παρεμβάσεις στα σπίτια των συμμετεχόντων
09:39
for a periodπερίοδος of severalαρκετά weeksεβδομάδες.
234
564000
2000
για μια περίοδο αρκετών εβδομάδων.
09:41
One caseπερίπτωση was the robotρομπότ you saw there, AutomAutom.
235
566000
3000
Μια περίπτωση ήταν το ρομπότ που είδατε εκεί, το Autom.
09:44
AnotherΈνα άλλο was a computerυπολογιστή that ranέτρεξα the sameίδιο touch-screenοθόνη αφής interfaceδιεπαφή,
236
569000
3000
Μια άλλη ήταν ένας υπολογιστής με την ίδια οθόνη αφής,
09:47
ranέτρεξα exactlyακριβώς the sameίδιο dialoguesδιάλογοι.
237
572000
2000
και τους ίδιους διαλόγους.
09:49
The qualityποιότητα of adviceσυμβουλή was identicalπανομοιότυπο.
238
574000
2000
Η ποιότητα των συμβουλών ήταν ολόιδια.
09:51
And the thirdτρίτος was just a penστυλό and paperχαρτί logκούτσουρο,
239
576000
2000
Και η τρίτη ήταν απλά ένα σημειωματάριο,
09:53
because that's the standardπρότυπο interventionπαρέμβαση you typicallyτυπικά get
240
578000
2000
γιατί αυτή είναι η κλασική παρέμβαση
09:55
when you startαρχή a diet-and-exerciseδιατροφή και άσκηση programπρόγραμμα.
241
580000
3000
όταν ξεκινάτε ένα πρόγραμμα δίαιτας και άσκησης.
09:58
So one of the things we really wanted to look at
242
583000
3000
Έτσι, ένα από τα πράγματα που θέλαμε πραγματικά να δούμε
10:01
was not how much weightβάρος people lostχαμένος,
243
586000
3000
δεν ήταν το πόσο βάρος έχασαν οι συμμετέχοντες,
10:04
but really how long they interactedαλληλεπίδραση with the robotρομπότ.
244
589000
3000
αλλά πόσο διαρκούσε η αλληλεπίδραση με το ρομπότ.
10:07
Because the challengeπρόκληση is not losingχάνοντας weightβάρος, it's actuallyπράγματι keepingτήρηση it off.
245
592000
3000
Γιατί η πρόκληση δεν είναι να χάσεις βάρος, αλλά να μην το ξαναπάρεις.
10:10
And the longerμακρύτερα you could interactαλληλεπιδρώ with one of these interventionsπαρεμβάσεις,
246
595000
3000
Και όσο περισσότερο αλληλεπιδράς με μια από αυτές τις παρεμβάσεις,
10:13
well that's indicativeενδεικτικό, potentiallyενδεχομένως, of longer-termπιο μακροπρόθεσμες successεπιτυχία.
247
598000
3000
αυτό είναι μια ένδειξη μακροπρόθεσμης επιτυχίας.
10:16
So the first thing I want to look at is how long,
248
601000
2000
Έτσι, το πρώτο πράγμα που ήθελα να δω είναι ο χρόνος,
10:18
how long did people interactαλληλεπιδρώ with these systemsσυστήματα.
249
603000
2000
πόσο χρόνο διαρκεί η αλληλεπίδραση με αυτά τα συστήματα.
10:20
It turnsστροφές out that people interactedαλληλεπίδραση with the robotρομπότ
250
605000
2000
Αποδείχθηκε ότι οι άνθρωποι αλληλεπιδρούσαν με το ρομπότ
10:22
significantlyσημαντικά more,
251
607000
2000
σημαντικά περισσότερο,
10:24
even thoughαν και the qualityποιότητα of the adviceσυμβουλή was identicalπανομοιότυπο to the computerυπολογιστή.
252
609000
3000
αν και η ποιότητα των συμβουλών ήταν ολόιδια με του υπολογιστή.
10:28
When it askedερωτηθείς people to rateτιμή it on termsόροι of the qualityποιότητα of the workingεργαζόμενος allianceΣυμμαχία,
253
613000
3000
Όταν ζητήσαμε από τους συμμετέχοντες να βαθμολογήσουν την ποιότητα της συμμαχίας,
10:31
people ratedΒαθμολογήθηκε the robotρομπότ higherπιο ψηλά
254
616000
2000
έδωσαν στο ρομπότ υψηλότερη βαθμολογία
10:33
and they trustedέμπιστος the robotρομπότ more.
255
618000
2000
και το εμπιστεύονταν περισσότερο.
10:35
(LaughterΤο γέλιο)
256
620000
2000
(Γέλια)
10:37
And when you look at emotionalΣυναισθηματική engagementσύμπλεξη,
257
622000
2000
Και αν μελετήσεις τη συναισθηματική σύνδεση
10:39
it was completelyεντελώς differentδιαφορετικός.
258
624000
2000
ήταν τελείως διαφορετική.
10:41
People would nameόνομα the robotsρομπότ.
259
626000
2000
Οι συμμετέχοντες έδιναν όνομα στο ρομπότ τους.
10:43
They would dressφόρεμα the robotsρομπότ.
260
628000
2000
Το ντύνανε.
10:45
(LaughterΤο γέλιο)
261
630000
2000
(Γέλια)
10:47
And even when we would come up to pickδιαλέγω up the robotsρομπότ at the endτέλος of the studyμελέτη,
262
632000
3000
Κι όταν πηγαίναμε να το πάρουμε πίσω στο τέλος της έρευνας,
10:50
they would come out to the carαυτοκίνητο and say good-byeαντίο to the robotsρομπότ.
263
635000
2000
έρχονταν μέχρι το αυτοκίνητο να αποχαιρετίσουν το ρομπότ.
10:52
They didn't do this with a computerυπολογιστή.
264
637000
2000
Δεν το έκαναν αυτό με τον υπολογιστή.
10:54
The last thing I want to talk about todayσήμερα
265
639000
2000
Το τελευταίο πράγμα για το οποίο θέλω να μιλήσω σήμερα
10:56
is the futureμελλοντικός of children'sπαιδιά mediaμεσο ΜΑΖΙΚΗΣ ΕΝΗΜΕΡΩΣΗΣ.
266
641000
2000
είναι το μέλλον των μέσων για τα παιδιά.
10:58
We know that kidsπαιδιά spendδαπανήσει a lot of time behindπίσω screensοθόνες todayσήμερα,
267
643000
3000
Ξέρουμε ότι τα παιδιά περνούν πολύ χρόνο πίσω από μια οθόνη σήμερα,
11:01
whetherκατά πόσο it's televisionτηλεόραση or computerυπολογιστή gamesΠαιχνίδια or whatnotεταζέρα.
268
646000
3000
άσχετα από το αν είναι μια τηλεόραση ή παιχνίδια υπολογιστή.
11:04
My sonsΥΙΟΙ, they love the screenοθόνη. They love the screenοθόνη.
269
649000
3000
Οι γιοι μου λατρεύουν την οθόνη. Τη λατρεύουν.
11:07
But I want them to playπαίζω; as a momμαμά, I want them to playπαίζω,
270
652000
3000
Αλλά, σαν μητέρα, θέλω να παίζουν
11:10
like, real-worldπραγματικό κόσμο playπαίζω.
271
655000
2000
όπως στον πραγματικό κόσμο.
11:12
And so I have a newνέος projectέργο in my groupομάδα I wanted to presentπαρόν to you todayσήμερα
272
657000
3000
Κι έτσι δουλεύω σε ένα νέο σύστημα με την ομάδα μου, το οποίο ήθελα να σας δείξω σήμερα
11:15
calledπου ονομάζεται PlaytimeΏρα για παιχνίδι ComputingΠληροφορική
273
660000
2000
που λέγεται Υπολογιστική Παιχνιδιού (Playtime Computing)
11:17
that's really tryingπροσπαθεί to think about how we can take
274
662000
2000
το οποίο προσπαθεί να βρει
11:19
what's so engagingελκυστικός about digitalψηφιακό mediaμεσο ΜΑΖΙΚΗΣ ΕΝΗΜΕΡΩΣΗΣ
275
664000
2000
τι είναι τόσο ελκυστικό στα ψηφιακά μέσα
11:21
and literallyΚυριολεκτικά bringνα φερεις it off the screenοθόνη
276
666000
2000
και να το φέρει κυριολεκτικά εκτός οθόνης,
11:23
into the realπραγματικός worldκόσμος of the childπαιδί,
277
668000
2000
στον πραγματικό κόσμο του παιδιού,
11:25
where it can take on manyΠολλά of the propertiesιδιότητες of real-worldπραγματικό κόσμο playπαίζω.
278
670000
3000
όπου μπορεί να πάρει πολλές από τις ιδιότητες του πραγματικού παιχνιδιού.
11:29
So here'sεδώ είναι the first explorationεξερεύνηση of this ideaιδέα,
279
674000
4000
Αυτή είναι η πρώτη διερεύνηση αυτής της ιδέας,
11:33
where charactersχαρακτήρες can be physicalφυσικός or virtualεικονικός,
280
678000
3000
όπου οι χαρακτήρες μπορούν να είναι πραγματικοί ή εικονικοί,
11:36
and where the digitalψηφιακό contentπεριεχόμενο
281
681000
2000
κι όπου το ψηφιακό περιεχόμενο
11:38
can literallyΚυριολεκτικά come off the screenοθόνη
282
683000
2000
μπορεί να βγει κυριολεκτικά εκτός οθόνης
11:40
into the worldκόσμος and back.
283
685000
2000
στον πραγματικό κόσμο και πάλι πίσω.
11:42
I like to think of this
284
687000
2000
Το βλέπω αυτό κάτι
11:44
as the AtariAtari PongΠινγκ πονγκ
285
689000
2000
σαν το Pong της Atari
11:46
of this blended-realityαναμειγνύονται-πραγματικότητα playπαίζω.
286
691000
2000
των παιχνιδιών μεικτής πραγματικότητας.
11:48
But we can pushΣπρώξτε this ideaιδέα furtherπεραιτέρω.
287
693000
2000
Αλλά μπορούμε να πάμε αυτήν την ιδέα παραπέρα.
11:50
What if --
288
695000
2000
Τι θα συνέβαινε αν --
11:52
(GameΠαιχνίδι) NathanNathan: Here it comesέρχεται. YayYay!
289
697000
3000
(Παιχνίδι) Νέιθαν: Νάτο, έρχεται. Ναι!
11:55
CBCB: -- the characterχαρακτήρας itselfεαυτό could come into your worldκόσμος?
290
700000
3000
Σύνθια: -- ο χαρακτήρας ερχόταν στον κόσμο σας;
11:58
It turnsστροφές out that kidsπαιδιά love it
291
703000
2000
Φαίνεται ότι τα παιδιά το λατρεύουν
12:00
when the characterχαρακτήρας becomesγίνεται realπραγματικός and entersεισέρχεται into theirδικα τους worldκόσμος.
292
705000
3000
όταν ο χαρακτήρας ζωντανεύει κι μπαίνει στον κόσμο τους.
12:03
And when it's in theirδικα τους worldκόσμος,
293
708000
2000
Κι όταν είναι στον κόσμο τους,
12:05
they can relateσχετίζομαι to it and playπαίζω with it in a way
294
710000
2000
μπορούν να σχετιστούν με αυτόν και να παίξουν με τέτοιον τρόπο
12:07
that's fundamentallyθεμελιωδώς differentδιαφορετικός from how they playπαίζω with it on the screenοθόνη.
295
712000
2000
που είναι τελείως διαφορετικός από τον τρόπο παίζουν μαζί του στην οθόνη.
12:09
AnotherΈνα άλλο importantσπουδαίος ideaιδέα is this notionέννοια
296
714000
2000
Μια άλλη σημαντική ιδέα είναι αυτή
12:11
of persistenceεπιμονή of characterχαρακτήρας acrossαπέναντι realitiesπραγματικότητα.
297
716000
3000
της συνέπειας του χαρακτήρα ανάμεσα στις πραγματικότητες.
12:14
So changesαλλαγές that childrenπαιδιά make in the realπραγματικός worldκόσμος
298
719000
2000
Έτσι, οι αλλαγές που κάνουν τα παιδιά στον πραγματικό κόσμο
12:16
need to translateμεταφράζω to the virtualεικονικός worldκόσμος.
299
721000
2000
πρέπει να μεταφερθούν και στον εικονικό.
12:18
So here, NathanNathan has changedάλλαξε the letterεπιστολή A to the numberαριθμός 2.
300
723000
3000
Εδώ ο Νέιθαν έχει αλλάξει το γράμμα Α στον αριθμό 2.
12:21
You can imagineφαντάζομαι maybe these symbolsσύμβολα
301
726000
2000
Μπορείτε να φανταστείτε ότι αυτά τα σύμβολα
12:23
give the charactersχαρακτήρες specialειδικός powersεξουσίες when it goesπηγαίνει into the virtualεικονικός worldκόσμος.
302
728000
3000
δίνουν στους χαρακτήρες ειδικές δυνάμεις όταν αυτός πηγαίνει στον εικονικό κόσμο.
12:26
So they are now sendingαποστολή the characterχαρακτήρας back into that worldκόσμος.
303
731000
3000
Τώρα λοιπόν στέλνουν το χαρακτήρα πίσω σ' εκείνο τον κόσμο.
12:29
And now it's got numberαριθμός powerεξουσία.
304
734000
3000
Και τώρα έχει τη δύναμη των αριθμών!
12:32
And then finallyτελικά, what I've been tryingπροσπαθεί to do here
305
737000
2000
Και τελικά, αυτό που έχω προσπαθήσει να κάνω εδώ
12:34
is createδημιουργώ a really immersiveκαθηλωτική experienceεμπειρία for kidsπαιδιά,
306
739000
3000
είναι να δημιουργήσω μια συναρπαστική εμπειρία για τα παιδιά
12:37
where they really feel like they are partμέρος of that storyιστορία,
307
742000
3000
όπου πραγματικά αισθάνονται μέρος αυτής της ιστορίας,
12:40
a partμέρος of that experienceεμπειρία.
308
745000
2000
μέρος αυτής της εμπειρίας.
12:42
And I really want to sparkσπίθα theirδικα τους imaginationsφαντασίας
309
747000
2000
Και θέλω πραγματικά να εξάψω την φαντασία τους
12:44
the way mineδικος μου was sparkedπυροδότησε as a little girlκορίτσι watchingβλέποντας "StarΑστέρι WarsΠόλεμοι."
310
749000
3000
με την έξαψη που είχα κι εγώ παρακολουθώντας τον "Πόλεμο των Άστρων" σαν κοριτσάκι.
12:47
But I want to do more than that.
311
752000
2000
Αλλά θέλω να κάνω περισσότερα από αυτό.
12:49
I actuallyπράγματι want them to createδημιουργώ those experiencesεμπειρίες.
312
754000
3000
Θέλω να δημιουργήσουν αυτά τις εμπειρίες.
12:52
I want them to be ableικανός to literallyΚυριολεκτικά buildχτίζω theirδικα τους imaginationφαντασία
313
757000
2000
Να μπορούν να χτίσουν κυριολεκτικά τη φαντασία τους
12:54
into these experiencesεμπειρίες and make them theirδικα τους ownτα δικά.
314
759000
2000
μέσα σε αυτές τις εμπειρίες και να τις κάνουν δικές τους.
12:56
So we'veέχουμε been exploringεξερευνώντας a lot of ideasιδέες
315
761000
2000
Έτσι, εξερευνούμε πολλές ιδέες
12:58
in telepresenceTelePresence and mixedμικτός realityπραγματικότητα
316
763000
2000
στην τηλε-παρουσία και τη μεικτή πραγματικότητα
13:00
to literallyΚυριολεκτικά allowεπιτρέπω kidsπαιδιά to projectέργο theirδικα τους ideasιδέες into this spaceχώρος
317
765000
3000
ώστε να αφήνουμε κυριολεκτικά στα παιδιά να προβάλλουν τις ιδέες τους σε αυτόν το χώρο
13:03
where other kidsπαιδιά can interactαλληλεπιδρώ with them
318
768000
2000
ώστε τα άλλα παιδιά να αλληλεπιδρούν με αυτές
13:05
and buildχτίζω uponεπάνω σε them.
319
770000
2000
και να χτίζουν πάνω τους.
13:07
I really want to come up with newνέος waysτρόπους of children'sπαιδιά mediaμεσο ΜΑΖΙΚΗΣ ΕΝΗΜΕΡΩΣΗΣ
320
772000
3000
Θέλω πραγματικά να βρω καινούρια παιδικά μέσα
13:10
that fosterπροώθηση creativityδημιουργικότητα and learningμάθηση and innovationκαινοτομία.
321
775000
3000
που να ενθαρρύνουν τη δημιουργικότητα, την μάθηση και την καινοτομία.
13:13
I think that's very, very importantσπουδαίος.
322
778000
3000
Νομίζω ότι αυτό είναι πολύ, πολύ σημαντικό.
13:16
So this is a newνέος projectέργο.
323
781000
2000
Αυτό λοιπόν είναι ένα νέο σύστημα.
13:18
We'veΈχουμε invitedκαλεσμένος a lot of kidsπαιδιά into this spaceχώρος,
324
783000
2000
Προσκαλέσαμε πολλά παιδιά σε αυτόν το χώρο
13:20
and they think it's prettyαρκετά coolδροσερός.
325
785000
3000
και τον λατρεύουν.
13:23
But I can tell you, the thing that they love the mostπλέον
326
788000
2000
Αλλά μπορώ να σας πω ότι εκείνο που λατρεύουν περισσότερο
13:25
is the robotρομπότ.
327
790000
2000
είναι το ρομπότ.
13:27
What they careΦροντίδα about is the robotρομπότ.
328
792000
3000
Αυτό για το οποίο νοιάζονταΙ είναι το ρομπότ.
13:30
RobotsΡομπότ touchαφή something deeplyκατα ΒΑΘΟΣ humanο άνθρωπος withinστα πλαίσια us.
329
795000
3000
Τα ρομπότ αγγίζουν κάτι βαθιά ανθρώπινο μέσα μας.
13:33
And so whetherκατά πόσο they're helpingβοήθεια us
330
798000
2000
Έτσι, είτε μας βοηθούν
13:35
to becomeγίνομαι creativeδημιουργικός and innovativeκαινοτόμο,
331
800000
2000
να γίνουμε δημιουργικοί και καινοτόμοι,
13:37
or whetherκατά πόσο they're helpingβοήθεια us
332
802000
2000
είτε μας βοηθούν
13:39
to feel more deeplyκατα ΒΑΘΟΣ connectedσυνδεδεμένος despiteπαρά distanceαπόσταση,
333
804000
2000
να αισθανθούμε πιο κοντά, παρά την απόσταση,
13:41
or whetherκατά πόσο they are our trustedέμπιστος sidekickυφιστάμενος
334
806000
2000
είτε είναι ο έμπιστος βοηθός μας
13:43
who'sποιος είναι helpingβοήθεια us attainεπίτευξη our personalπροσωπικός goalsστόχους
335
808000
2000
που μας βοηθά να πετύχουμε τους προσωπικούς μας στόχους
13:45
in becomingθελκτικός our highestύψιστος and bestκαλύτερος selvesεαυτός,
336
810000
2000
και να γίνουμε ο καλύτερος εαυτός μας.
13:47
for me, robotsρομπότ are all about people.
337
812000
3000
για μένα, τα ρομπότ έχουν να κάνουν πρώτιστα με τους ανθρώπους.
13:50
Thank you.
338
815000
2000
Σας ευχαριστώ.
13:52
(ApplauseΧειροκροτήματα)
339
817000
5000
(Χειροκροτήματα)
Translated by Kostas Karpouzis
Reviewed by Lina Zaproudi

▲Back to top

ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee