ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com
TEDxPaloAlto

Leila Takayama: What's it like to be a robot?

Λέιλα Τακαγιάμα: Πώς είναι να είσαι ρομπότ;

Filmed:
1,183,118 views

Ήδη ζούμε ανάμεσα σε ρομπότ: εργαλεία και μηχανήματα, όπως το πλυντήριο πιάτων και ο θερμοστάτης, έχουν τόσο ενσωματωθεί στη ζωή μας που ποτέ δεν θα σκεφτόμασταν να τα αποκαλέσουμε έτσι. Πώς θα είναι το μέλλον όπου θα υπάρχουν ακόμη περισσότεροι ρομπότ; Η κοινωνικός επιστήμονας Λέιλα Τακαγιάμα μοιράζεται μερικές μοναδικές προκλήσεις σχεδιασμού για αλληλεπιδράσεις ανθρώπου-ρομπότ, και το πώς ο πειραματισμός με τα μελλοντικά ρομπότ μας οδηγεί στην καλύτερη κατανόηση του εαυτού μας.
- Social scientist
Leila Takayama conducts research on human-robot interaction. Full bio

Double-click the English transcript below to play the video.

00:12
You only get one chanceευκαιρία
to make a first impressionεντύπωση,
0
760
2656
Μόνο μία φορά μπορείς
να κάνεις την πρώτη εντύπωση,
00:15
and that's trueαληθής if you're a robotρομπότ
as well as if you're a personπρόσωπο.
1
3440
3176
και αυτό ισχύει για τους ανθρώπους
αλλά και για τα ρομπότ.
00:18
The first time that I metσυνάντησε
one of these robotsρομπότ
2
6640
3016
Για πρώτη φορά που γνώρισα
ένα τέτοιο ρομπότ
00:21
was at a placeθέση
calledπου ονομάζεται WillowΙτιά GarageΓκαράζ in 2008.
3
9680
2896
ήταν το 2008 σ' ένα μέρος
που λεγόταν Γουίλοου Γκαράζ.
Όταν πήγα εκεί, μπήκα στο κτίριο
μαζί με τoν οικοδεσπότη μου
00:24
When I wentπήγε to visitεπίσκεψη there,
my hostπλήθος walkedπερπάτησε me into the buildingΚτίριο
4
12600
3016
και έτσι έγινε η γνωριμία μας μαζί του.
00:27
and we metσυνάντησε this little guy.
5
15640
1576
00:29
He was rollingκυλιομένος into the hallwayδιάδρομος,
6
17240
1656
Κυλούσε μέσα στον διάδρομο,
00:30
cameήρθε up to me, satsat there,
7
18920
1816
με πλησίασε, σταμάτησε,
00:32
staredκοίταξε blanklyκατηγορηματικώς pastτο παρελθόν me,
8
20760
2256
κοίταξε προς την κατεύθυνσή μου,
00:35
did nothing for a while,
9
23040
1656
για λίγο δεν έκανε τίποτα,
και μετά γύρισε απότομα
το κεφάλι του 180 μοίρες
00:36
rapidlyταχέως spunπεριστρέφεται his headκεφάλι around 180 degreesβαθμούς
10
24720
1936
00:38
and then ranέτρεξα away.
11
26680
1536
και έφυγε τρέχοντας.
00:40
And that was not a great first impressionεντύπωση.
12
28240
2176
Κι αυτό δεν ήταν καθόλου
καλή πρώτη εντύπωση.
00:42
The thing that I learnedέμαθα
about robotsρομπότ that day
13
30440
2176
Αυτό που έμαθα εκείνη
την ημέρα για τα ρομπότ
00:44
is that they kindείδος of do theirδικα τους ownτα δικά thing,
14
32640
2176
είναι ότι κάνουν το δικό τους
00:46
and they're not totallyεντελώς awareενήμερος of us.
15
34840
2136
και δεν μας αντιλαμβάνονται πλήρως.
Νομίζω ότι καθώς πειραματιζόμαστε
με το πιθανό ρομποτικό μέλλον,
00:49
And I think as we're experimentingπειραματίζονται
with these possibleδυνατόν robotρομπότ futuresσυμβόλαια μελλοντικής εκπλήρωσης,
16
37000
3239
00:52
we actuallyπράγματι endτέλος up learningμάθηση
a lot more about ourselvesεμείς οι ίδιοι
17
40263
2673
στην ουσία γνωρίζουμε καλύτερα
τους ίδιους μας εαυτούς
00:54
as opposedαντίθετος to just these machinesμηχανές.
18
42960
1656
σε σύγκριση με αυτά τα μηχανήματα.
00:56
And what I learnedέμαθα that day
19
44640
1336
Αυτό που κατάλαβα τότε
00:58
was that I had prettyαρκετά highυψηλός
expectationsπροσδοκίες for this little dudeφίλε.
20
46000
3416
ήταν ότι είχα μεγάλες προσδοκίες
από αυτόν τον μικρούλι.
01:01
He was not only supposedυποτιθεμένος to be ableικανός
to navigateκυβερνώ the physicalφυσικός worldκόσμος,
21
49440
3176
Έπρεπε να είναι σε θέση να περιηγείται
όχι μόνο στον φυσικό κόσμο,
01:04
but alsoεπίσης be ableικανός
to navigateκυβερνώ my socialκοινωνικός worldκόσμος --
22
52640
2656
αλλά και στον κοινωνικό μου κόσμο,
βρίσκεται στον χώρο μου
άρα είναι ένα προσωπικό ρομπότ.
01:07
he's in my spaceχώρος; it's a personalπροσωπικός robotρομπότ.
23
55320
2176
01:09
wWhyΓιατί didn't it understandκαταλαβαίνουν me?
24
57520
2016
Γιατί δεν με κατάλαβε;
Ο οικοδεσπότης μου μού εξήγησε,
01:11
My hostπλήθος explainedεξηγείται to me,
25
59560
1256
01:12
"Well, the robotρομπότ is tryingπροσπαθεί
to get from pointσημείο A to pointσημείο B,
26
60840
3176
«Απλά το ρομπότ προσπαθούσε
να πάει από το σημείο Α στο σημείο Β
01:16
and you were an obstacleεμπόδιο in his way,
27
64040
1776
και εσύ ήσουν εμπόδιο στο δρόμο του,
οπότε έπρεπε να σχεδιάσει
ξανά την πορεία του,
01:17
so he had to replanΑνασχεδιασμός his pathμονοπάτι,
28
65840
2016
01:19
figureεικόνα out where to go,
29
67880
1256
να καταλάβει προς τα πού να πάει
και μετά να το κάνει,
01:21
and then get there some other way,"
30
69160
1696
αλλά διαφορετικά»,
01:22
whichοι οποίες was actuallyπράγματι
not a very efficientαποτελεσματικός thing to do.
31
70880
2456
το οποίο δεν ήταν και πολύ αποτελεσματικό.
01:25
If that robotρομπότ had figuredσχηματικός out
that I was a personπρόσωπο, not a chairκαρέκλα,
32
73360
3256
Άμα το ρομπότ είχε καταλάβει
ότι είμαι άνθρωπος κι όχι καρέκλα,
01:28
and that I was willingπρόθυμος
to get out of its way
33
76640
2096
και ότι ήμουν πρόθυμη
να φύγω από το δρόμο του,
01:30
if it was tryingπροσπαθεί to get somewhereκάπου,
34
78760
1656
αν προσπαθούσε να πάει κάπου,
01:32
then it actuallyπράγματι
would have been more efficientαποτελεσματικός
35
80440
2216
αυτό θα ήταν πιο αποτελεσματικό,
για να επιτύχει τον σκοπό του,
01:34
at gettingνα πάρει its jobδουλειά doneΈγινε
36
82680
1256
εάν έμπαινε στον κόπο
να σκεφτεί ότι είμαι άνθρωπος
01:35
if it had botheredενοχλημένος
to noticeειδοποίηση that I was a humanο άνθρωπος
37
83960
2216
01:38
and that I have differentδιαφορετικός affordancesaffordances
than things like chairsκαρέκλες and wallsτοίχους do.
38
86200
3576
και έχω διαφορετικές προοπτικές
από μια καρέκλα ή έναν τοίχο.
Ξέρετε, έχουμε την τάση να πιστεύουμε
ότι είναι από το απώτερο διάστημα,
01:41
You know, we tendτείνω to think of these robotsρομπότ
as beingνα εισαι from outerεξωτερικός spaceχώρος
39
89800
3216
από το μέλλον και
την επιστημονική φαντασία,
01:45
and from the futureμελλοντικός
and from scienceεπιστήμη fictionμυθιστόρημα,
40
93040
2136
01:47
and while that could be trueαληθής,
41
95200
1416
και ενώ μπορεί να ισχύει αυτό,
01:48
I'd actuallyπράγματι like to argueλογομαχώ
that robotsρομπότ are here todayσήμερα,
42
96640
2656
εγώ θα ήθελα να διαφωνήσω
και να πω ότι είναι εδώ και τώρα,
01:51
and they liveζω and work
amongstμεταξύ των us right now.
43
99320
2776
ζουν και δουλεύουν ανάμεσά μας.
01:54
These are two robotsρομπότ that liveζω in my home.
44
102120
2856
Αυτά τα δύο ρομπότ ζουν στο σπίτι μου.
01:57
They vacuumκενό the floorsδάπεδα
and they cutΤομή the grassγρασίδι
45
105000
2496
Καθαρίζουν το πάτωμα και κόβουν το γρασίδι
01:59
everyκάθε singleμονόκλινο day,
46
107520
1216
κάθε μέρα,
02:00
whichοι οποίες is more than I would do
if I actuallyπράγματι had time to do these tasksκαθήκοντα,
47
108760
3376
πολύ πιο συχνά απ' ό,τι
θα το έκανα εγώ, αν το έκανα,
02:04
and they probablyπιθανώς
do it better than I would, too.
48
112160
2336
και μάλλον το κάνουν
και καλύτερα από μένα.
Αυτό φροντίζει το γατί μου.
02:06
This one actuallyπράγματι takes careΦροντίδα of my kittyγατούλα.
49
114520
2496
Κάθε φόρα που το γατί το χρησιμοποιεί,
καθαρίζεται μόνο του,
02:09
EveryΚάθε singleμονόκλινο time
he usesχρήσεις the boxκουτί, it cleansκαθαρίζει it,
50
117040
2576
κάτι, που δεν είμαι πρόθυμη να το κάνω,
02:11
whichοι οποίες is not something I'm willingπρόθυμος to do,
51
119640
1976
και έτσι κάνει τις ζωές μας καλύτερες.
02:13
and it actuallyπράγματι makesκάνει
his life better as well as mineδικος μου.
52
121640
2576
Καθώς τα αποκαλούμε ρομποτικά μηχανήματα,
02:16
And while we call these robotρομπότ productsπροϊόντα --
53
124240
2416
αυτά είναι «το ρομπότ ηλεκτρική σκούπα,
το ρομπότ μηχανή του γκαζόν,
02:18
it's a "robotρομπότ vacuumκενό cleanerκαθαριστής,
it's a robotρομπότ lawnmowerχλοοκοπτική μηχανή,
54
126680
2696
02:21
it's a robotρομπότ littlerμικρότερη boxκουτί,"
55
129400
1495
το ρομπότ τουαλέτα για γάτες»,
02:22
I think there's actuallyπράγματι a bunchδέσμη
of other robotsρομπότ hidingΑπόκρυψη in plainπεδιάδα sightθέαμα
56
130919
4137
νομίζω ότι υπάρχουν κι άλλα πολλά
ρομπότ, τα οποία κρύβονται σε κοινή θέα,
02:27
that have just becomeγίνομαι so darnκαταριέται usefulχρήσιμος
57
135080
1856
που έγιναν τόσο χρήσιμα
02:28
and so darnκαταριέται mundaneτετριμμένο
58
136960
1456
και τόσο τετριμμένα
που έχουν δικό τους όνομα,
όπως «πλυντήριο πιάτων».
02:30
that we call them things
like, "dishwasherπλυντήριο πιάτων," right?
59
138440
2496
02:32
They get newνέος namesονόματα.
60
140960
1216
Αποκαλούνται διαφορετικά.
02:34
They don't get calledπου ονομάζεται robotρομπότ anymoreπια
61
142200
1696
Δεν τα λέμε πλέον ρομπότ,
γιατί εξυπηρετούν έναν σκοπό στη ζωή τους.
02:35
because they actuallyπράγματι
serveσερβίρισμα a purposeσκοπός in our livesζωή.
62
143920
2416
Το ίδιο και ο θερμοστάτης, σωστά;
02:38
SimilarlyΟμοίως, a thermostatΘερμοστάτης, right?
63
146360
1496
Ξέρω ότι οι φίλοι μου
που μελετούν τη ρομποτική
02:39
I know my roboticsΡομποτική friendsοι φιλοι out there
64
147880
1776
02:41
are probablyπιθανώς cringingcringing
at me callingκλήση this a robotρομπότ,
65
149680
2336
μάλλον μορφάζουν που το αποκαλώ ρομπότ,
02:44
but it has a goalστόχος.
66
152040
1256
αλλά έχει έναν σκοπό.
Δηλαδή να ζεσταίνει το σπίτι μου
στους 19 βαθμούς Κελσίου
02:45
Its goalστόχος is to make my houseσπίτι
66 degreesβαθμούς FahrenheitΦαρενάιτ,
67
153320
2896
και διαισθάνεται τον κόσμο.
02:48
and it sensesαισθήσεις the worldκόσμος.
68
156240
1256
Αν αντιλαμβάνεται ότι κάνει λίγο κρύο,
02:49
It knowsξέρει it's a little bitκομμάτι coldκρύο,
69
157520
1576
02:51
it makesκάνει a planσχέδιο and then
it actsπράξεις on the physicalφυσικός worldκόσμος.
70
159120
2616
το επεξεργάζεται και μετά
ενεργεί στον φυσικό κόσμο.
02:53
It's roboticsΡομποτική.
71
161760
1256
Αυτή λέγεται ρομποτική.
02:55
Even if it mightθα μπορούσε not
look like RosieRosie the RobotΡομπότ,
72
163040
2576
Ακόμα και αν δεν έχει
την εμφάνιση του ρομπότ Ρόζι,
02:57
it's doing something
that's really usefulχρήσιμος in my life
73
165640
2936
κάνει κάτι που είναι
πραγματικά χρήσιμο στη ζωή μου,
03:00
so I don't have to take careΦροντίδα
74
168600
1376
ώστε να μην έχω την έγνοια
03:02
of turningστροφή the temperatureθερμοκρασία
up and down myselfεγώ ο ίδιος.
75
170000
2576
να ελέγχω συνεχώς τη θερμοκρασία μόνη μου.
03:04
And I think these systemsσυστήματα
liveζω and work amongstμεταξύ των us now,
76
172600
3816
Θεωρώ ότι όλα αυτά τα συστήματα ζουν
και δουλεύουν τώρα ανάμεσά μας
03:08
and not only are these systemsσυστήματα
livingζωή amongstμεταξύ των us
77
176440
2336
και όχι μόνο ζουν ανάμεσα μας,
03:10
but you are probablyπιθανώς
a robotρομπότ operatorχειριστή, too.
78
178800
2656
αλλά πιθανόν κι εσείς
να είστε χειριστές ρομπότ.
03:13
When you driveοδηγώ your carαυτοκίνητο,
79
181480
1256
Όταν οδηγείτε αυτοκίνητο,
03:14
it feelsαισθάνεται like you are operatingλειτουργικός machineryμηχανήματα.
80
182760
2216
είναι σαν χειρίζεστε μια μηχανή.
03:17
You are alsoεπίσης going
from pointσημείο A to pointσημείο B,
81
185000
2816
Κι εσείς πάτε από το σημείο Α
στο σημείο Β,
αλλά το αυτοκίνητό σας
μάλλον έχει υδραυλικό τιμόνι
03:19
but your carαυτοκίνητο probablyπιθανώς has powerεξουσία steeringπηδαλιούχηση,
82
187840
2216
03:22
it probablyπιθανώς has automaticΑυτόματη brakingφρενάρισμα systemsσυστήματα,
83
190080
2696
όπως και αυτόματα συστήματα πέδησης,
μπορεί να έχει αυτόματο κιβώτιο ταχυτήτων,
ίσως και προσαρμοστικό ταχοστάτη.
03:24
it mightθα μπορούσε have an automaticΑυτόματη transmissionμετάδοση
and maybe even adaptiveπροσαρμοστικό cruiseκρουαζιέρα controlέλεγχος.
84
192800
3736
03:28
And while it mightθα μπορούσε not be
a fullyπλήρως autonomousαυτονόμος carαυτοκίνητο,
85
196560
2936
Και καθώς μπορεί να μην είναι
πλήρως αυτόνομο αυτοκίνητο,
όμως έχει στοιχεία αυτονομίας
03:31
it has bitsbits of autonomyαυτονομία,
86
199520
1296
03:32
and they're so usefulχρήσιμος
87
200840
1336
που είναι πολύ χρήσιμα,
γιατί κάνουν την οδήγηση πιο ασφαλή
03:34
and they make us driveοδηγώ saferασφαλέστερα,
88
202200
1816
ενώ εμείς έχουμε την αίσθηση
ότι είναι αόρατα στην χρήση, σωστά;
03:36
and we just sortείδος of feel
like they're invisible-in-useαόρατο στη χρήση, right?
89
204040
3656
03:39
So when you're drivingοδήγηση your carαυτοκίνητο,
90
207720
1576
Οπότε, όταν οδηγείτε αυτοκίνητο
03:41
you should just feel like
you're going from one placeθέση to anotherαλλο.
91
209320
3096
πρέπει να σκέφτεστε ότι απλώς
πάτε από ένα σημείο στο άλλο.
Δεν είναι κάτι φοβερό,
με το οποίο πρέπει να ασχολείστε,
03:44
It doesn't feel like it's this bigμεγάλο thing
that you have to dealσυμφωνία with and operateλειτουργεί
92
212440
3736
να το χειρίζεστε και να το ελέγχετε,
03:48
and use these controlsελέγχους
93
216200
1256
γιατί μας πήρε τόσο πολύ καιρό
να μάθουμε να οδηγούμε
03:49
because we spentξόδεψε so long
learningμάθηση how to driveοδηγώ
94
217480
2176
03:51
that they'veέχουν becomeγίνομαι
extensionsεπεκτάσεις of ourselvesεμείς οι ίδιοι.
95
219680
2696
που τα αυτοκίνητα έχουν γίνει
προέκταση του εαυτού μας.
03:54
When you parkπάρκο that carαυτοκίνητο
in that tightσφιχτός little garageγκαράζ spaceχώρος,
96
222400
2696
Όταν παρκάρετε αυτοκίνητο
σ' ένα στενό και μικρό γκαράζ,
03:57
you know where your cornersγωνίες are.
97
225120
1576
ξέρετε πού είναι οι γωνίες.
Και όταν έχετε ένα ενοικιαζόμενο αμάξι
που μάλλον δεν έχετε ξανά οδηγήσει,
03:58
And when you driveοδηγώ a rentalΕνοικίαση carαυτοκίνητο
that maybe you haven'tδεν έχουν drivenοδηγείται before,
98
226720
3256
04:02
it takes some time
to get used to your newνέος robotρομπότ bodyσώμα.
99
230000
3056
χρειάζεστε λίγο χρόνο, για να
συνηθίσετε το καινούργιο σας φιλαράκι.
04:05
And this is alsoεπίσης trueαληθής for people
who operateλειτουργεί other typesτύπους of robotsρομπότ,
100
233080
3976
Αυτό ισχύει και για τους ανθρώπους
που χειρίζονται άλλα είδη ρομπότ
04:09
so I'd like to shareμερίδιο with you
a fewλίγοι storiesιστορίες about that.
101
237080
2600
και γι' αυτό θα ήθελα να μοιραστώ
μαζί σας κάποιες ιστορίες.
Αντιμετώπιση προβλήματος
συνεργασίας εξ αποστάσεως.
04:12
DealingΑσχολούνται with the problemπρόβλημα
of remoteμακρινός collaborationσυνεργασία.
102
240240
2336
04:14
So, at WillowΙτιά GarageΓκαράζ
I had a coworkerσυνεργάτης namedόνομα DallasΝτάλας,
103
242600
2576
Λοιπόν, στο Γουίλοου Γκαράζ
είχα έναν συνεργάτη, τον Ντάλας,
04:17
and DallasΝτάλας lookedκοίταξε like this.
104
245200
1576
και ήταν έτσι.
04:18
He workedεργάστηκε from his home in IndianaΙντιάνα
in our companyΕταιρία in CaliforniaΚαλιφόρνια.
105
246800
4056
Δούλευε από το σπίτι του στην Ιντιάνα
για την εταιρεία μας στην Καλιφόρνια.
04:22
He was a voiceφωνή in a boxκουτί
on the tableτραπέζι in mostπλέον of our meetingsσυνεδριάσεις,
106
250880
2936
Στις συναντήσεις μας ήταν ένα κουτί
με φωνή πάνω στο τραπέζι,
04:25
whichοι οποίες was kindείδος of OK
exceptεκτός that, you know,
107
253840
2215
κάτι που ήταν εντάξει, εκτός του ότι,
04:28
if we had a really heatedθερμαίνεται debateδημόσια συζήτηση
and we didn't like what he was sayingρητό,
108
256079
3377
όταν είχαμε μια έντονη διαφωνία
και δεν μας άρεσε αυτό που έλεγε,
04:31
we mightθα μπορούσε just hangκρεμάω up on him.
109
259480
1416
μπορούσαμε απλά να τον κλείσουμε.
04:32
(LaughterΤο γέλιο)
110
260920
1015
(Γέλιο)
04:33
Then we mightθα μπορούσε have a meetingσυνάντηση
after that meetingσυνάντηση
111
261959
2217
Μετά μπορεί να συναντιόμασταν
πάλι μετά απ' αυτό
04:36
and actuallyπράγματι make the decisionsαποφάσεων
in the hallwayδιάδρομος afterwardsέπειτα
112
264200
2696
και στο τέλος να αποφασίζαμε
στον διάδρομο,
όταν δεν ήταν πλέον εκεί.
04:38
when he wasn'tδεν ήταν there anymoreπια.
113
266920
1416
Και αυτό δεν του άρεσε καθόλου.
04:40
So that wasn'tδεν ήταν so great for him.
114
268360
1576
Και ως εταιρεία ρομποτικής στο Γουίλοου,
04:41
And as a roboticsΡομποτική companyΕταιρία at WillowΙτιά,
115
269960
1736
είχαμε στην άκρη μερικά
έξτρα κομμάτια ρομπότ
04:43
we had some extraεπιπλέον
robotρομπότ bodyσώμα partsεξαρτήματα layingγια τον καθορισμό around,
116
271720
2336
έτσι ο Ντάλας και o φίλος του Κουρτ
έφτιαξαν αυτό,
04:46
so DallasΝτάλας and his buddyφίλε CurtCurt
put togetherμαζί this thing,
117
274080
2496
που μοιάζει με το Skype
πάνω σ' ένα μπαστούνι με ρόδες,
04:48
whichοι οποίες looksφαίνεται kindείδος of
like SkypeSkype on a stickραβδί on wheelsτροχούς,
118
276600
2936
ένα τεχνολογικό χαζό παιχνίδι,
04:51
whichοι οποίες seemsφαίνεται like a techyTechy, sillyανόητος toyπαιχνίδι,
119
279560
1736
04:53
but really it's probablyπιθανώς
one of the mostπλέον powerfulισχυρός toolsεργαλεία
120
281320
2776
αλλά μάλλον είναι ένα
από τα πιο ισχυρά εργαλεία
04:56
that I've seenείδα ever madeέκανε
for remoteμακρινός collaborationσυνεργασία.
121
284120
2480
που έχω δει να φτιάχνονται
για τη συνεργασία από απόσταση.
04:59
So now, if I didn't answerαπάντηση
Dallas'Ντάλας emailΗΛΕΚΤΡΟΝΙΚΗ ΔΙΕΥΘΥΝΣΗ questionερώτηση,
122
287160
3496
Οπότε τώρα, εάν δεν απαντήσω
στην ερώτηση του e-mail του Ντάλλας,
05:02
he could literallyΚυριολεκτικά rollρολό into my officeγραφείο,
123
290680
2216
μπορεί κυριολεκτικά
να έρθει στο γραφείο μου,
05:04
blockΟΙΚΟΔΟΜΙΚΟ ΤΕΤΡΑΓΩΝΟ my doorwayπόρτα
and askπαρακαλώ me the questionερώτηση again --
124
292920
2576
να μπλοκάρει την είσοδο
και να με ξαναρωτήσει
05:07
(LaughterΤο γέλιο)
125
295520
1016
(Γέλια)
05:08
untilμέχρις ότου I answeredαπάντησε it.
126
296560
1216
μέχρι να απαντήσω.
05:09
And I'm not going to turnστροφή him off, right?
That's kindείδος of rudeαγενής.
127
297800
2976
Και δε θα το κλείσω, σωστά;
Είναι λίγο αγενές.
05:12
Not only was it good
for these one-on-oneOne-on-One communicationsδιαβιβάσεις,
128
300800
2696
Δεν ήταν μόνο χρήσιμο
στην προσωπική επικοινωνία,
05:15
but alsoεπίσης for just showingεπίδειξη up
at the companyΕταιρία all-handsόλα τα χέρια meetingσυνάντηση.
129
303520
2936
αλλά επίσης στη συμμετοχή
στις συναντήσεις της εταιρείας.
05:18
GettingΝα πάρει your buttπισινό in that chairκαρέκλα
130
306480
1696
Το να τσακιστείς να πας εκεί
05:20
and showingεπίδειξη people that you're presentπαρόν
and committedδεσμεύεται to your projectέργο
131
308200
3216
και να δείξεις ότι είσαι παρών
και αφοσιωμένος στο έργο,
05:23
is a bigμεγάλο dealσυμφωνία
132
311440
1256
είναι σοβαρό ζήτημα
και μπορεί να βοηθήσει άπειρα
στη συνεργασία εξ αποστάσεως.
05:24
and can help remoteμακρινός collaborationσυνεργασία a tonτόνος.
133
312720
2176
05:26
We saw this over the periodπερίοδος
of monthsμήνες and then yearsχρόνια,
134
314920
2856
Το είδαμε με την πάροδο μηνών
και μετά χρόνων,
όχι μόνο στην εταιρεία μας,
αλλά και στις άλλες.
05:29
not only at our companyΕταιρία
but at othersοι υπολοιποι, too.
135
317800
2160
Το καλύτερο μ' αυτά τα συστήματα
05:32
The bestκαλύτερος thing that can happenσυμβεί
with these systemsσυστήματα
136
320720
2336
είναι ότι αρχίζεις να νιώθεις
ότι είσαι όντως εκεί.
05:35
is that it startsξεκινά to feel
like you're just there.
137
323080
2336
05:37
It's just you, it's just your bodyσώμα,
138
325440
1696
Είναι εσύ, είναι το σώμα σου
05:39
and so people actuallyπράγματι startαρχή
to give these things personalπροσωπικός spaceχώρος.
139
327160
3096
και έτσι οι άνθρωποι όντως αρχίζουν
να τους δίνουν προσωπικό χώρο.
05:42
So when you're havingέχοντας a stand-upΣήκω πάνω meetingσυνάντηση,
140
330280
1976
Έτσι, όταν έχεις μια σύντομη συνάντηση,
05:44
people will standστάση around the spaceχώρος
141
332280
1656
άνθρωποι θα σταθούν γύρω γύρω,
όπως θα έκαναν αν όντως ήσουν εκεί.
05:45
just as they would
if you were there in personπρόσωπο.
142
333960
2216
Αυτό είναι ωραίο μέχρι να χαλάσουν
και τότε δεν είναι ωραίο.
05:48
That's great untilμέχρις ότου
there's breakdownsαναλύσεις and it's not.
143
336200
2576
Όταν κάποιος βλέπει
τέτοιο ρομπότ πρώτη φορά
05:50
People, when they first see these robotsρομπότ,
144
338800
1976
05:52
are like, "WowWow, where'sπου είναι the componentsσυστατικά?
There mustπρέπει be a cameraΦΩΤΟΓΡΑΦΙΚΗ ΜΗΧΑΝΗ over there,"
145
340800
3576
λέει, «Ω, πού είναι τα εξαρτήματα;
Εδώ πρέπει να υπάρχει μια κάμερα»,
κι αρχίζει να σκουντάει το πρόσωπό σου.
05:56
and they startαρχή pokingσπρώχνει your faceπρόσωπο.
146
344400
1576
05:58
"You're talkingομιλία too softlyμαλακά,
I'm going to turnστροφή up your volumeΕνταση ΗΧΟΥ,"
147
346000
2936
«Μιλάς σιγά, θα ανεβάσω τον ήχο σου»
που είναι σαν να σου λέει ο συνεργάτης σου
06:00
whichοι οποίες is like havingέχοντας a coworkerσυνεργάτης
walkΠερπατήστε up to you and say,
148
348960
2616
«Μιλάς πολύ σιγά,
θα ανεβάσω το πρόσωπό σου».
06:03
"You're speakingΟμιλία too softlyμαλακά,
I'm going to turnστροφή up your faceπρόσωπο."
149
351600
2896
Είναι περίεργο και καθόλου εντάξει,
06:06
That's awkwardαμήχανη and not OK,
150
354520
1256
γι' αυτό καταλήξαμε να φτιάξουμε
νέους κοινωνικούς κανόνες
06:07
and so we endτέλος up havingέχοντας to buildχτίζω
these newνέος socialκοινωνικός normsκανόνες
151
355800
2616
06:10
around usingχρησιμοποιώντας these systemsσυστήματα.
152
358440
2216
για τη χρήση αυτών των μηχανημάτων.
06:12
SimilarlyΟμοίως, as you startαρχή
feelingσυναισθημα like it's your bodyσώμα,
153
360680
3416
Παρομοίως, αφού αρχίζεις
να το νιώθεις σαν το σώμα σου,
06:16
you startαρχή noticingπαρατηρώντας things like,
"Oh, my robotρομπότ is kindείδος of shortμικρός."
154
364120
3696
παρατηρείς πράγματα όπως,
«Ω, το ρομπότ μου είναι λίγο κοντό».
06:19
DallasΝτάλας would say things to me --
he was six-footέξι-ποδιών tallψηλός --
155
367840
2656
Ο Ντάλας μου έλεγε διάφορα,
-ότι είχε ύψος 1,82 μέτρα-
06:22
and we would take him viaμέσω robotρομπότ
to cocktailκοκτέιλ partiesσυμβαλλόμενα μέρη and things like that,
156
370520
3456
και τον παίρναμε μαζί μας
σε διάφορα πάρτι μέσω του ρομπότ,
06:26
as you do,
157
374000
1216
όπως κι εσείς,
και το ρομπότ ήταν περίπου 1,52 μέτρα,
που είναι κοντά στο ύψος μου.
06:27
and the robotρομπότ was about five-foot-tallπέντε ποδιών-ψηλός,
whichοι οποίες is closeΚοντά to my heightύψος.
158
375240
3336
06:30
And he would tell me,
159
378600
1216
Και μου έλεγε,
06:31
"You know, people are not
really looking at me.
160
379840
2536
«Ξέρεις, δεν με κοιτάει κανείς.
06:34
I feel like I'm just looking
at this seaθάλασσα of shouldersώμους,
161
382400
2696
Νιώθω λες και βλέπω
μόνο τους ώμους των άλλων,
06:37
and it's just -- we need a tallerπιο ΨΗΛΟΣ robotρομπότ."
162
385120
1976
μάλλον χρειαζόμαστε πιο ψηλό ρομπότ».
06:39
And I told him,
163
387120
1256
Και του είπα,
06:40
"UmUm, no.
164
388400
1296
«Εμ, όχι.
06:41
You get to walkΠερπατήστε in my shoesπαπούτσια for todayσήμερα.
165
389720
1936
Σήμερα θα με καταλάβεις.
06:43
You get to see what it's like
to be on the shorterκοντύτερος endτέλος of the spectrumφάσμα."
166
391680
3536
Πρέπει να καταλάβεις πώς είναι
να είσαι από την άλλη πλευρά».
06:47
And he actuallyπράγματι endedέληξε up buildingΚτίριο
a lot of empathyενσυναίσθηση for that experienceεμπειρία,
167
395240
3376
Στο τέλος είχε αποκτήσει ενσυναίσθηση
από αυτή την εμπειρία
και ήταν τέλειο.
06:50
whichοι οποίες was kindείδος of great.
168
398640
1256
Έτσι όταν με επισκεπτόταν αυτοπροσώπως,
06:51
So when he'dΕίχε come visitεπίσκεψη in personπρόσωπο,
169
399920
1656
δε στεκόταν πλέον από πάνω μου,
όπως συνήθιζε,
06:53
he no longerμακρύτερα stoodστάθηκε over me
as he was talkingομιλία to me,
170
401600
2416
καθόταν σε καρέκλα
και μου μίλαγε στο ίδιο ύψος,
06:56
he would sitκαθίζω down
and talk to me eyeμάτι to eyeμάτι,
171
404040
2096
06:58
whichοι οποίες was kindείδος of a beautifulπανεμορφη thing.
172
406160
1736
και ήταν ωραίο που το έκανε.
06:59
So we actuallyπράγματι decidedαποφασισμένος
to look at this in the laboratoryεργαστήριο
173
407920
2656
Έτσι αποφασίσαμε
να το εξετάσουμε στο εργαστήριο
για να δούμε τι θα άλλαζε κι άλλο
μαζί με τα χαρακτηριστικά, όπως το ύψος.
07:02
and see what othersοι υπολοιποι kindsείδη of differencesδιαφορές
things like robotρομπότ heightύψος would make.
174
410600
3656
Οι μισοί συμμετάσχοντες
διάλεξαν πιο κοντό ρομπότ,
07:06
And so halfΉμισυ of the people in our studyμελέτη
used a shorterκοντύτερος robotρομπότ,
175
414280
2856
07:09
halfΉμισυ of the people in our studyμελέτη
used a tallerπιο ΨΗΛΟΣ robotρομπότ
176
417160
2416
ενώ οι άλλοι μισοί προτίμησαν πιο ψηλό,
ανακαλύψαμε ότι ακριβώς το ίδιο άτομο,
07:11
and we actuallyπράγματι foundβρέθηκαν
that the exactακριβής sameίδιο personπρόσωπο
177
419600
2256
που έχει ακριβώς το ίδιο σώμα
και λέει ακριβώς τα ίδια με κάποιον άλλον,
07:13
who has the exactακριβής sameίδιο bodyσώμα
and saysλέει the exactακριβής sameίδιο things as someoneκάποιος,
178
421880
3336
07:17
is more persuasiveπειστική
and perceivedαντιληπτή as beingνα εισαι more credibleαξιόπιστος
179
425240
2616
φαίνεται πιο πειστικό
και θεωρείται πιο έμπιστο,
εάν είναι σε πιο ψηλή μορφή του ρομπότ.
07:19
if they're in a tallerπιο ΨΗΛΟΣ robotρομπότ formμορφή.
180
427880
1656
07:21
It makesκάνει no rationalλογικός senseέννοια,
181
429560
1816
Δεν εξηγείται με τη λογική,
αλλά γι' αυτό μελετάμε ψυχολογία.
07:23
but that's why we studyμελέτη psychologyΨυχολογία.
182
431400
1696
07:25
And really, you know,
the way that CliffCliff NassΝας would put this
183
433120
2856
Ο Κλιφ Νας θα έλεγε
ότι έχουμε να αντιμετωπίσουμε
αυτές τις καινούργιες τεχνολογίες,
07:28
is that we're havingέχοντας to dealσυμφωνία
with these newνέος technologiesτεχνολογίες
184
436000
3016
07:31
despiteπαρά the factγεγονός
that we have very oldπαλαιός brainsμυαλά.
185
439040
2736
παρά το γεγονός ότι έχουμε παλιά μυαλά.
Η ανθρώπινη ψυχολογία δεν αλλάζει
τόσο γρήγορα όσο η τεχνολογία,
07:33
HumanΑνθρώπινη psychologyΨυχολογία is not changingαλλάζοντας
at the sameίδιο speedΤαχύτητα that techtech is
186
441800
2976
έτσι πάντα τρέχουμε
να προλάβουμε τις εξελίξεις,
07:36
and so we're always playingπαιχνίδι catch-upενημερώνομαι,
187
444800
1816
07:38
tryingπροσπαθεί to make senseέννοια of this worldκόσμος
188
446640
1656
προσπαθώντας να καταλάβουμε τον κόσμο,
07:40
where these autonomousαυτονόμος things
are runningτρέξιμο around.
189
448320
2336
όπου κινούνται αυτές οι αυτόματες μηχανές.
07:42
UsuallyΣυνήθως, things that talk are people,
not machinesμηχανές, right?
190
450680
2736
Συνήθως μιλάνε οι άνθρωποι
και όχι οι μηχανές, σωστά;
07:45
And so we breatheαναπνέω a lot of meaningέννοια
into things like just heightύψος of a machineμηχανή,
191
453440
4576
Βάζουμε πολύ νόημα σε πράγματα
όπως το ύψος μιας μηχανής,
όχι ενός ανθρώπου,
07:50
not a personπρόσωπο,
192
458040
1256
07:51
and attributeΧαρακτηριστικό that
to the personπρόσωπο usingχρησιμοποιώντας the systemΣύστημα.
193
459320
2360
και το αποδίδουμε
στον άνθρωπο που το έχει.
Ξέρετε, πιστεύω ότι αυτό
είναι πολύ σημαντικό,
07:55
You know, this, I think,
is really importantσπουδαίος
194
463120
2216
όταν σκέφτεσαι την ρομποτική.
07:57
when you're thinkingσκέψη about roboticsΡομποτική.
195
465360
1736
Δεν είναι για την επανεφεύρεση ανθρώπων,
07:59
It's not so much about reinventingεπανεφεύρεση humansτου ανθρώπου,
196
467120
2096
αλλά περισσότερο για να μάθουμε
πώς επεκτείνουμε τον εαυτό μας, σωστά;
08:01
it's more about figuringκατανόηση out
how we extendεπεκτείνω ourselvesεμείς οι ίδιοι, right?
197
469240
3136
08:04
And we endτέλος up usingχρησιμοποιώντας things
in waysτρόπους that are sortείδος of surprisingεκπληκτικός.
198
472400
2976
Καταλήγουμε να χρησιμοποιούμε πράγματα
με εκπληκτικούς τρόπους.
08:07
So these guys can't playπαίζω poolπισίνα
because the robotsρομπότ don't have armsόπλα,
199
475400
4256
Τα ρομπότ δεν μπορούν να παίξουν
μπιλιάρδο, γιατί δεν έχουν χέρια,
όμως μπορούν να παρενοχλούν
τους άλλους παίκτες
08:11
but they can heckleενοχλώ the guys
who are playingπαιχνίδι poolπισίνα
200
479680
2336
και αυτό παίζει σημαντικό ρόλο
για την ομαδικότητα
08:14
and that can be an importantσπουδαίος thing
for teamομάδα bondingσυγκόλληση,
201
482040
3176
και είναι και πολύ πρώτο.
08:17
whichοι οποίες is kindείδος of neatκαθαρός.
202
485240
1296
Άνθρωποι που γίνονται
πολύ καλοί στον χειρισμό τους
08:18
People who get really good
at operatingλειτουργικός these systemsσυστήματα
203
486560
2496
στο τέλος θα φτιάχνουν
καινούργια παιχνίδια,
08:21
will even do things
like make up newνέος gamesΠαιχνίδια,
204
489080
2056
όπως το ποδόσφαιρο με ρομπότ τα μεσάνυχτα
08:23
like robotρομπότ soccerποδόσφαιρο
in the middleΜέσης of the night,
205
491160
2136
να σπρώχνουν σκουπιδοτενεκέδες.
08:25
pushingπιέζοντας the trashΣκουπίδια cansδοχεία around.
206
493320
1456
Όμως δεν μπορεί να το κάνει ο καθένας.
08:26
But not everyone'sο καθένας good.
207
494800
1576
08:28
A lot of people have troubleταλαιπωρία
operatingλειτουργικός these systemsσυστήματα.
208
496400
2496
Πολλοί δυσκολεύονται στον χειρισμό.
Αυτός άνθρωπος μπήκε
στο λογισμικό του ρομπότ
08:30
This is actuallyπράγματι a guy
who loggedσυνδεδεμένοι into the robotρομπότ
209
498920
2256
και το μάτι του ήταν γυρισμένο
90 μοίρες στα αριστερά.
08:33
and his eyeballβολβό του ματιού was turnedγύρισε
90 degreesβαθμούς to the left.
210
501200
2376
Δεν το ήξερε,
08:35
He didn't know that,
211
503600
1256
έτσι κατέληξε να σκουντουφλάει
μέσα στο γραφείο,
08:36
so he endedέληξε up just bashingbashing
around the officeγραφείο,
212
504880
2176
να πέφτει πάνω στα γραφεία,
να προσβάλλεται και να γελάει μ' αυτό,
08:39
runningτρέξιμο into people'sτων ανθρώπων desksγραφεία,
gettingνα πάρει superσούπερ embarrassedαμήχανος,
213
507080
2616
08:41
laughingγέλιο about it --
his volumeΕνταση ΗΧΟΥ was way too highυψηλός.
214
509720
2336
ενώ ο ήχος του ήταν στο μάξιμουμ.
Και αυτός στη φωτογραφία να μου λέει,
08:44
And this guy here
in the imageεικόνα is tellingαποτελεσματικός me,
215
512080
2136
«Χρειάζεται να βάλουμε
ένα κουμπί σίγασης ήχου».
08:46
"We need a robotρομπότ muteσίγαση buttonκουμπί."
216
514240
2096
08:48
And by that what he really meantσήμαινε
was we don't want it to be so disruptiveαποδιοργανωτικός.
217
516360
3496
Μάλλον εννοούσε ότι δεν θέλουμε
να είναι τόσο καταστροφικός.
08:51
So as a roboticsΡομποτική companyΕταιρία,
218
519880
1616
Λοιπόν, ως εταιρεία ρομποτικής,
08:53
we addedπρόσθεσε some obstacleεμπόδιο
avoidanceαποφυγή to the systemΣύστημα.
219
521520
2456
προσθέσαμε λειτουργία αποφυγής
εμποδίων στο σύστημα.
Απέκτησε έναν λέιζερ μετρητή απόστασης
που εντοπίζει εμπόδια.
08:56
It got a little laserλέιζερ rangeσειρά finderανιχνευτής
that could see the obstaclesεμπόδια,
220
524000
3056
και αν, ως χειρίστρια των ρομπότ,
του έλεγα πέσε πάνω στην καρέκλα,
08:59
and if I as a robotρομπότ operatorχειριστή
try to say, runτρέξιμο into a chairκαρέκλα,
221
527080
3136
δε θα μ' άφηνε, απλώς
θα σχεδίαζε μια παράκαμψη,
09:02
it wouldn'tδεν θα ήταν let me,
it would just planσχέδιο a pathμονοπάτι around,
222
530240
2496
09:04
whichοι οποίες seemsφαίνεται like a good ideaιδέα.
223
532760
1856
που φαίνεται καλή ιδέα.
Σαφώς οι άνθρωποι απέφευγαν
περισσότερα εμπόδια με το σύστημα,
09:06
People did hitΚτύπημα fewerλιγότεροι obstaclesεμπόδια
usingχρησιμοποιώντας that systemΣύστημα, obviouslyπροφανώς,
224
534640
3176
09:09
but actuallyπράγματι, for some of the people,
225
537840
2096
αλλά από την άλλη,
κάποιοι χρειάστηκαν περισσότερο χρόνο
για να περάσουν το μάθημα εμποδίων
09:11
it tookπήρε them a lot longerμακρύτερα
to get throughδιά μέσου our obstacleεμπόδιο courseσειρά μαθημάτων,
226
539960
2856
09:14
and we wanted to know why.
227
542840
1560
και θέλαμε να μάθουμε το γιατί.
09:17
It turnsστροφές out that there's
this importantσπουδαίος humanο άνθρωπος dimensionδιάσταση --
228
545080
3056
Αποδείχτηκε ότι υπάρχει
μια σημαντική ανθρώπινη διάσταση -
διάσταση προσωπικότητας,
το λεγόμενο σημείο ελέγχου,
09:20
a personalityπροσωπικότητα dimensionδιάσταση
calledπου ονομάζεται locusΓεωμετρικός τόπος of controlέλεγχος,
229
548160
2296
09:22
and people who have
a strongισχυρός internalεσωτερικός locusΓεωμετρικός τόπος of controlέλεγχος,
230
550480
3136
και εκείνοι που έχουν δυνατό
εσωτερικό σημείο ελέγχου,
09:25
they need to be the mastersπλοιάρχων
of theirδικα τους ownτα δικά destinyΠΕΠΡΩΜΕΝΟ --
231
553640
3056
έχουν ανάγκη να είναι οι ίδιοι
κύριοι του πεπρωμένου τους,
-δεν τους αρέσει να αφήνουν τον έλεγχο
σε αυτόματα συστήματα-
09:28
really don't like givingδίνοντας up controlέλεγχος
to an autonomousαυτονόμος systemΣύστημα --
232
556720
3096
τόσο πολύ, που είναι έτοιμοι
να πολεμήσουν την αυτονομία;
09:31
so much so that they will
fightπάλη the autonomyαυτονομία;
233
559840
2136
09:34
"If I want to hitΚτύπημα that chairκαρέκλα,
I'm going to hitΚτύπημα that chairκαρέκλα."
234
562000
3096
«Άμα θέλω να χτυπήσω εκείνη
την καρέκλα, θα τη χτυπήσω».
09:37
And so they would actuallyπράγματι sufferυποφέρω
from havingέχοντας that autonomousαυτονόμος assistanceβοήθεια,
235
565120
3616
Κι έτσι, πραγματικά θα βασανίζονται
απ' αυτή την αυτόνομη βοήθεια
09:40
whichοι οποίες is an importantσπουδαίος thing for us to know
236
568760
2576
και είναι σημαντικό να το γνωρίζουμε,
09:43
as we're buildingΚτίριο increasinglyόλο και περισσότερο
autonomousαυτονόμος, say, carsαυτοκίνητα, right?
237
571360
3296
γιατί κατασκευάζουμε όλο και πιο
αυτόνομα συστήματα, σωστά;
09:46
How are differentδιαφορετικός people going
to grappleδαγκάνα with that lossαπώλεια of controlέλεγχος?
238
574680
3360
Πώς διάφοροι άνθρωποι θα αντέξουν
αυτή την απώλεια ελέγχου;
09:50
It's going to be differentδιαφορετικός
dependingσε συνάρτηση on humanο άνθρωπος dimensionsδιαστάσεις.
239
578880
2696
Θα διαφέρει αναλόγως
με τις ανθρώπινες διαστάσεις.
Δεν μπορούμε να αντιμετωπίζουμε
τους ανθρώπους σαν μονολιθικά πλάσματα.
09:53
We can't treatκέρασμα humansτου ανθρώπου
as if we're just one monolithicμονολιθικός thing.
240
581600
3496
Διαφέρουμε στην προσωπικότητα, κουλτούρα,
09:57
We varyποικίλλω by personalityπροσωπικότητα, by cultureΠολιτισμός,
241
585120
2416
διαφέρουμε ώρες ώρες ακόμα
και στη συναισθηματική κατάσταση,
09:59
we even varyποικίλλω by emotionalΣυναισθηματική stateκατάσταση
momentστιγμή to momentστιγμή,
242
587560
2456
και για να μπορούμε να σχεδιάζουμε
10:02
and beingνα εισαι ableικανός to designσχέδιο these systemsσυστήματα,
243
590040
1976
τέτοια συστήματα
αλληλεπίδρασης ανθρώπου-ρομπότ,
10:04
these human-robotανθρώπου-ρομπότ interactionΑΛΛΗΛΕΠΙΔΡΑΣΗ systemsσυστήματα,
244
592040
2296
10:06
we need to take into accountΛογαριασμός
the humanο άνθρωπος dimensionsδιαστάσεις,
245
594360
2736
πρέπει να λάβουμε υπ' όψιν
και τις ανθρώπινες διαστάσεις,
10:09
not just the technologicalτεχνολογικός onesαυτές.
246
597120
1720
όχι μόνο τις τεχνολογικές.
10:11
AlongΚατά μήκος with a senseέννοια of controlέλεγχος
alsoεπίσης comesέρχεται a senseέννοια of responsibilityευθύνη.
247
599640
4296
Μαζί με την αίσθηση ελέγχου
έρχεται και η αίσθηση ευθύνης.
Και αν ήσουν χειριστής ρομπότ και
χειριζόσουν ένα από τα συστήματα,
10:15
And if you were a robotρομπότ operatorχειριστή
usingχρησιμοποιώντας one of these systemsσυστήματα,
248
603960
2856
έτσι θα ήταν το περιβάλλον.
10:18
this is what the interfaceδιεπαφή
would look like.
249
606840
2056
10:20
It looksφαίνεται a little bitκομμάτι like a videoβίντεο gameπαιχνίδι,
250
608920
1936
Μοιάζει λίγο με βίντεο παιχνίδι,
κάτι που μπορεί να είναι καλό,
γιατί είναι οικείο στους ανθρώπους,
10:22
whichοι οποίες can be good because
that's very familiarοικείος to people,
251
610880
2976
10:25
but it can alsoεπίσης be badκακό
252
613880
1216
και κακό ταυτόχρονα,
10:27
because it makesκάνει people feel
like it's a videoβίντεο gameπαιχνίδι.
253
615120
2456
γιατί θα το αντιμετωπίζουν ως παιχνίδι.
Είχαμε πολλά παιδάκια στο Στάνφορντ,
που έπαιζαν μ' αυτά,
10:29
We had a bunchδέσμη of kidsπαιδιά
over at StanfordΠανεπιστήμιο του Στάνφορντ playπαίζω with the systemΣύστημα
254
617600
2856
οδηγούσαν τα ρομπότ γύρω
στο γραφείο μας στο Μένλο Πάρκ
10:32
and driveοδηγώ the robotρομπότ
around our officeγραφείο in MenloMenlo ParkΠάρκο,
255
620480
2456
και τα παιδιά άρχισαν να λένε:
10:34
and the kidsπαιδιά startedξεκίνησε sayingρητό things like,
256
622960
1936
«10 πόντους αν χτυπήσεις εκείνον τον τύπο,
20 πόντους για τον άλλον».
10:36
"10 pointsσημεία if you hitΚτύπημα that guy over there.
20 pointsσημεία for that one."
257
624920
3176
Και τους κυνηγούσαν στον διάδρομο.
10:40
And they would
chaseκυνηγητό them down the hallwayδιάδρομος.
258
628120
2016
(Γέλια)
10:42
(LaughterΤο γέλιο)
259
630160
1016
Τους είπα, «Εμ, είναι αληθινοί άνθρωποι.
10:43
I told them, "UmUm, those are realπραγματικός people.
260
631200
1936
Θα ματώσουν και θα πονάνε,
αν τους χτυπήσετε."
10:45
They're actuallyπράγματι going to bleedξάκρισμα
and feel painπόνος if you hitΚτύπημα them."
261
633160
3296
Μου απάντησαν, «Εντάξει, το καταλάβαμε».
10:48
And they'dτο είχαν be like, "OK, got it."
262
636480
1616
10:50
But fiveπέντε minutesλεπτά laterαργότερα,
they would be like,
263
638120
2056
Σε πέντε λεπτά όμως έλεγαν πάλι:
«20 πόντους για εκείνον τον τύπο,
ζητάει λίγο ξύλο».
10:52
"20 pointsσημεία for that guy over there,
he just looksφαίνεται like he needsανάγκες to get hitΚτύπημα."
264
640200
3616
Λες και είναι το παιχνίδι
«Ender's Game», έτσι;
10:55
It's a little bitκομμάτι
like "Ender'sΟ Εντερ GameΠαιχνίδι," right?
265
643840
2136
Υπάρχει ένας αληθινός κόσμος
από την άλλη πλευρά
10:58
There is a realπραγματικός worldκόσμος on that other sideπλευρά
266
646000
1936
και θεωρώ ότι έχουμε ευθύνη
ως άτομα που φτιάχνουν τέτοιο περιβάλλον
10:59
and I think it's our responsibilityευθύνη
as people designingσχέδιο these interfacesδιεπαφές
267
647960
3416
να υπενθυμίζουμε στους ανθρώπους
11:03
to help people rememberθυμάμαι
268
651400
1256
11:04
that there's realπραγματικός consequencesσυνέπειες
to theirδικα τους actionsΕνέργειες
269
652680
2256
ότι οι πράξεις τους έχουν
πραγματικές συνέπειες
11:06
and to feel a senseέννοια of responsibilityευθύνη
270
654960
2296
και να είναι υπεύθυνοι,
11:09
when they're operatingλειτουργικός
these increasinglyόλο και περισσότερο autonomousαυτονόμος things.
271
657280
3280
όταν χειρίζονται όλο και περισσότερο
αυτόνομα μηχανήματα.
11:13
These are kindείδος of a great exampleπαράδειγμα
272
661840
2296
Όλα αυτά είναι ωραία παραδείγματα
11:16
of experimentingπειραματίζονται with one
possibleδυνατόν roboticρομποτικό futureμελλοντικός,
273
664160
3256
πειραματισμού μ' ένα πιθανό
ρομποτικό μέλλον,
11:19
and I think it's prettyαρκετά coolδροσερός
that we can extendεπεκτείνω ourselvesεμείς οι ίδιοι
274
667440
3856
και πιστεύω ότι είναι πολύ καλό να
μπορούμε να επεκτείνουμε τους εαυτούς μας
11:23
and learnμαθαίνω about the waysτρόπους
that we extendεπεκτείνω ourselvesεμείς οι ίδιοι
275
671320
2336
και να μαθαίνουμε τους τρόπους επέκτασης
11:25
into these machinesμηχανές
276
673680
1216
σ' αυτά τα μηχανήματα
11:26
while at the sameίδιο time
beingνα εισαι ableικανός to expressεξπρές our humanityανθρωπότητα
277
674920
2696
ενώ ταυτόχρονα να μπορούμε
να εκφράζουμε την ανθρωπιά
και την προσωπικότητά μας.
11:29
and our personalityπροσωπικότητα.
278
677640
1216
11:30
We alsoεπίσης buildχτίζω empathyενσυναίσθηση for othersοι υπολοιποι
279
678880
1576
Επίσης κατανοούμε τους άλλους,
το πώς είναι να είσαι πιο ψηλός,
πιο κοντός, πιο γρήγορος ή πιο αργός,
11:32
in termsόροι of beingνα εισαι
shorterκοντύτερος, tallerπιο ΨΗΛΟΣ, fasterγρηγορότερα, slowerβραδύτερη,
280
680480
3216
11:35
and maybe even armlessαγόρι χωρίς βραχίονες,
281
683720
1416
ή ακόμα και να μην έχεις χέρια,
11:37
whichοι οποίες is kindείδος of neatκαθαρός.
282
685160
1336
και είναι τέλειο.
11:38
We alsoεπίσης buildχτίζω empathyενσυναίσθηση
for the robotsρομπότ themselvesτους εαυτούς τους.
283
686520
2536
Επίσης αποκτάμε ενσυναίσθηση
και για τα ίδια ρομπότ.
11:41
This is one of my favoriteαγαπημένη robotsρομπότ.
284
689080
1656
Αυτό είναι από τα αγαπημένα μου ρομπότ.
11:42
It's calledπου ονομάζεται the TweenbotΤαμομπότ.
285
690760
1456
Το λένε Τουίνμποτ.
11:44
And this guy has a little flagσημαία that saysλέει,
286
692240
1976
Έχει μια μικρή σημαία που λέει
11:46
"I'm tryingπροσπαθεί to get
to this intersectionσημείο τομής in ManhattanΜανχάταν,"
287
694240
2576
«Προσπαθώ να φτάσω
στην τάδε διασταύρωση στο Μανχάταν»,
11:48
and it's cuteΧαριτωμένο and rollsρολά
forwardπρος τα εμπρός, that's it.
288
696840
2776
είναι χαριτωμένο, κυλάει μπροστά,
αλλά μέχρι εκεί.
11:51
It doesn't know how to buildχτίζω a mapχάρτης,
it doesn't know how to see the worldκόσμος,
289
699640
3456
Δεν ξέρει πώς να φτιάξει έναν χάρτη,
δεν ξέρει πώς να δει τον κόσμο,
απλά ζητάει βοήθεια.
11:55
it just asksζητάει for help.
290
703120
1256
11:56
The niceόμορφη thing about people
291
704400
1336
Το καλό με τους ανθρώπους είναι
11:57
is that it can actuallyπράγματι dependεξαρτώμαι
uponεπάνω σε the kindnessκαλοσύνη of strangersαγνώστους.
292
705760
3096
ότι μπορεί να υπολογίζει
στην ευγένεια των περαστικών.
12:00
It did make it acrossαπέναντι the parkπάρκο
to the other sideπλευρά of ManhattanΜανχάταν --
293
708880
3896
Κατάφερε να περάσει το πάρκο
στην άλλη πλευρά του Μανχάταν
12:04
whichοι οποίες is prettyαρκετά great --
294
712800
1256
και είναι αρκετά καλό,
12:06
just because people would pickδιαλέγω it up
and pointσημείο it in the right directionκατεύθυνση.
295
714080
3456
απλώς επειδή άνθρωποι το έπαιρναν
και το έστριβαν στη σωστή κατεύθυνση.
12:09
(LaughterΤο γέλιο)
296
717560
936
(Γέλια)
12:10
And that's great, right?
297
718520
1256
Και είναι τέλειο, σωστά;
Προσπαθούμε να φτιάξουμε
έναν κόσμο με ανθρώπους και ρομπότ,
12:11
We're tryingπροσπαθεί to buildχτίζω
this human-robotανθρώπου-ρομπότ worldκόσμος
298
719800
2696
12:14
in whichοι οποίες we can coexistσυνυπάρχουν
and collaborateσυνεργάζομαι with one anotherαλλο,
299
722520
3416
όπου μπορούμε να συνυπάρχουμε και
συνεργαζόμαστε ο ένας με τον άλλον,
12:17
and we don't need to be fullyπλήρως autonomousαυτονόμος
and just do things on our ownτα δικά.
300
725960
3376
και δεν χρειάζεται να είμαστε αυτόνομοι
και να κάνουμε τα πάντα μόνοι μας.
12:21
We actuallyπράγματι do things togetherμαζί.
301
729360
1496
Πράγματι κάνουμε πράγματα μαζί.
12:22
And to make that happenσυμβεί,
302
730880
1256
Για να γίνει εφικτό αυτό,
12:24
we actuallyπράγματι need help from people
like the artistsκαλλιτέχνες and the designersσχεδιαστές,
303
732160
3256
χρειαζόμαστε βοήθεια
από καλλιτέχνες ή σχεδιαστές,
υπεύθυνους χάραξης πολιτικής,
νομικούς επιστήμονες,
12:27
the policyπολιτική makersκατασκευαστές, the legalνομικός scholarsμελετητές,
304
735440
1856
12:29
psychologistsψυχολόγους, sociologistsκοινωνιολόγους,
anthropologistsανθρωπολόγοι --
305
737320
2216
ψυχολόγους, κοινωνιολόγους,
ανθρωπολόγους,
χρειαζόμαστε περισσότερες προοπτικές
12:31
we need more perspectivesπροοπτικές in the roomδωμάτιο
306
739560
1816
αν πρόκειται να κάνουμε
αυτό που μας προτρέπει ο Στιού Καρντ,
12:33
if we're going to do the thing
that StuStu CardΚάρτα saysλέει we should do,
307
741400
2976
12:36
whichοι οποίες is inventεφευρίσκω the futureμελλοντικός
that we actuallyπράγματι want to liveζω in.
308
744400
3936
να δημιουργήσουμε το μέλλον
στο οποίο πραγματικά θα θέλαμε να ζούμε.
12:40
And I think we can continueνα συνεχίσει to experimentπείραμα
309
748360
2656
Θεωρώ ότι μπορούμε να συνεχίσουμε
να πειραματιζόμαστε
12:43
with these differentδιαφορετικός
roboticρομποτικό futuresσυμβόλαια μελλοντικής εκπλήρωσης togetherμαζί,
310
751040
2176
με το ρομποτικό μέλλον μαζί
12:45
and in doing so, we will endτέλος up
learningμάθηση a lot more about ourselvesεμείς οι ίδιοι.
311
753240
4680
και έτσι θα καταλήξουμε στο να μαθαίνουμε
πολλά περισσότερα για τους εαυτούς μας.
12:50
Thank you.
312
758720
1216
Σας ευχαριστώ.
12:51
(ApplauseΧειροκροτήματα)
313
759960
2440
(Χειροκρότημα)
Translated by Maria Veselkova
Reviewed by Lucas Kaimaras

▲Back to top

ABOUT THE SPEAKER
Leila Takayama - Social scientist
Leila Takayama conducts research on human-robot interaction.

Why you should listen

Leila Takayama is an acting associate professor of Psychology at the University of California, Santa Cruz, where she founded and leads the Re-Embodied Cognition Lab. Her lab examines how people make sense of, interact with, and relate to new technologies. Prior to academia, she was a researcher at GoogleX and Willow Garage, where she developed a taste for working alongside engineers, designers, animators, and more. Her interdisciplinary research continues in her current work on what happens when people interact with robots and through robots.

Takayama is a World Economic Forum Global Futures Council Member and Young Global Leader. In 2015, she was presented the IEEE Robotics & Automation Society Early Career Award. In 2012, she was named a TR35 winner and one of the 100 most creative people in business by Fast Company. She completed her PhD in Communication at Stanford University in 2008, advised by Professor Clifford Nass. She also holds a PhD minor in Psychology from Stanford, a master's degree in Communication from Stanford, and bachelor's of arts degrees in Psychology and Cognitive Science from UC Berkeley (2003). During her graduate studies, she was a research assistant in the User Interface Research (UIR) group at Palo Alto Research Center (PARC).

Photo: Melissa DeWitt

More profile about the speaker
Leila Takayama | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee