ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

Κέιτ Ντάρλινγκ: Για ποιο λόγο νιώθουμε συναισθηματικό δέσιμο με τα ρομπότ

Filmed:
2,403,010 views

Απέχουμε πολύ από το να δημιουργήσουμε ρομπότ με συναισθήματα, αλλά εμείς ήδη έχουμε αισθήματα προς αυτά και αυτή η ενστικτώδης αντίδραση έχει επιπτώσεις, λέει η Κέιτ Ντάρλινγκ, ειδική στην ηθική δεοντολογία στη ρομποτική. Γνωρίστε περισσότερα για τη γενετική μας προδιάθεση να αποδίδουμε προθέσεις και ύπαρξη σε μηχανές και πώς αυτό μπορεί να μας βοηθήσει να γνωρίσουμε καλύτερα ποιοι είμαστε.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

00:13
There was a day, about 10 yearsχρόνια agoπριν,
0
1047
2508
Μια μέρα πριν περίπου 10 χρόνια,
00:15
when I askedερωτηθείς a friendφίλος to holdΚρατήστε
a babyμωρό dinosaurδεινόσαυρος robotρομπότ upsideάνω μέρος down.
1
3579
3944
ζήτησα από μια φίλη να κρατήσει
ανάποδα ένα ρομπότ μωρό δεινόσαυρο.
00:21
It was this toyπαιχνίδι calledπου ονομάζεται a PleoΠλίο
that I had orderedδιέταξε,
2
9889
3446
Ήταν ένα παιχνίδι, ο Πλίο,
που είχα παραγγείλει
00:25
and I was really excitedερεθισμένος about it
because I've always lovedαγαπούσε robotsρομπότ.
3
13359
4401
και ήμουν ενθουσιασμένη
γιατί λατρεύω τα ρομπότ.
Το συγκεκριμένο είχε
ωραία τεχνικά χαρακτηριστικά.
00:29
And this one has really coolδροσερός
technicalτεχνικός featuresχαρακτηριστικά.
4
17784
2279
00:32
It had motorsκινητήρες and touchαφή sensorsΑισθητήρες
5
20087
2119
Είχε μοτέρ, αισθητήρες αφής
00:34
and it had an infraredυπερύθρων cameraΦΩΤΟΓΡΑΦΙΚΗ ΜΗΧΑΝΗ.
6
22230
2244
και κάμερα υπερύθρων.
00:36
And one of the things it had
was a tiltκλίση sensorαισθητήρα,
7
24498
2763
Είχε και αισθητήρα κλίσης,
00:39
so it knewήξερε what directionκατεύθυνση it was facingαντιμέτωπος.
8
27285
2318
οπότε γνώριζε σε ποια κατεύθυνση κοιτούσε.
00:42
And when you heldπου πραγματοποιήθηκε it upsideάνω μέρος down,
9
30095
2134
Όταν το κρατούσες με το κεφάλι κάτω,
00:44
it would startαρχή to cryκραυγή.
10
32253
1572
έβαζε τα κλάματα.
00:46
And I thought this was superσούπερ coolδροσερός,
so I was showingεπίδειξη it off to my friendφίλος,
11
34527
3496
Το έβρισκα εκπληκτικό
και ήθελα να το δει η φίλη μου.
Της είπα «Κράτα το από την ουρά
να δεις τι κάνει».
00:50
and I said, "Oh, holdΚρατήστε it up by the tailουρά.
See what it does."
12
38047
2805
00:55
So we're watchingβλέποντας
the theatricsθεατρινισμούς of this robotρομπότ
13
43268
3625
Κοιτούσαμε τα καμώματά του.
00:58
struggleπάλη and cryκραυγή out.
14
46917
2199
Να χτυπιέται και να φωνάζει.
01:02
And after a fewλίγοι secondsδευτερολέπτων,
15
50767
2047
Έπειτα από λίγα λεπτά
01:04
it startsξεκινά to botherενοχλεί me a little,
16
52838
1972
το θέαμα αρχίζει να με ενοχλεί κάπως
01:07
and I said, "OK, that's enoughαρκετά now.
17
55744
3424
και λέω, εντάξει «Φτάνει για τώρα
01:11
Let's put him back down."
18
59930
2305
Ας τον αφήσουμε κάτω».
01:14
And then I petκατοικίδιο ζώο the robotρομπότ
to make it stop cryingκλάμα.
19
62259
2555
Και τον χάιδεψα
για να σταματήσει το κλάμα.
01:18
And that was kindείδος of
a weirdΠερίεργο experienceεμπειρία for me.
20
66973
2452
Μου ήταν μια αλλόκοτη εμπειρία.
01:22
For one thing, I wasn'tδεν ήταν the mostπλέον
maternalμητέρας personπρόσωπο at the time.
21
70084
4569
Πρώτα απ' όλα, δεν είχα τότε
και το πιο έντονο μητρικό ένστικτο.
01:26
AlthoughΠαρά το γεγονός ότι sinceΑπό then I've becomeγίνομαι
a motherμητέρα, nineεννέα monthsμήνες agoπριν,
22
74677
2731
Αργότερα, όμως,
πριν εννιά μήνες, έγινα μητέρα
01:29
and I've learnedέμαθα that babiesμωρά alsoεπίσης squirmΑνησυχώ
when you holdΚρατήστε them upsideάνω μέρος down.
23
77432
3433
και έμαθα πως και τα μωρά κάνουν έτσι
όταν τα κρατάς ανάποδα.
01:32
(LaughterΤο γέλιο)
24
80889
1563
(Γέλια)
01:35
But my responseαπάντηση to this robotρομπότ
was alsoεπίσης interestingενδιαφέρων
25
83023
2358
Επιπλέον, η αντίδρασή μου είχε ενδιαφέρον
01:37
because I knewήξερε exactlyακριβώς
how this machineμηχανή workedεργάστηκε,
26
85405
4101
επειδή γνώριζα ακριβώς
πώς λειτουργούσε αυτό το μηχάνημα,
01:41
and yetΑκόμη I still feltένιωσα
compelledυποχρεωμένοι to be kindείδος to it.
27
89530
3262
και παρ' όλα αυτά ένιωσα την ανάγκη
να του δείξω καλοσύνη.
01:46
And that observationπαρατήρηση sparkedπυροδότησε a curiosityπεριέργεια
28
94450
2707
Αυτή η συνειδητοποίηση
πυροδότησε μια περιέργεια
01:49
that I've spentξόδεψε the pastτο παρελθόν decadeδεκαετία pursuingεπιδιώκοντας.
29
97181
2832
που κρατάει δέκα πια χρόνια
01:52
Why did I comfortάνεση this robotρομπότ?
30
100911
1793
Γιατί παρηγόρησα το ρομπότ;
01:56
And one of the things I discoveredανακαλύφθηκε
was that my treatmentθεραπεία of this machineμηχανή
31
104228
3579
Ανακάλυψα ότι η στάση μου
απέναντι σε αυτό το μηχάνημα
01:59
was more than just an awkwardαμήχανη momentστιγμή
in my livingζωή roomδωμάτιο,
32
107831
3701
ήταν κάτι σπουδαιότερο
από μια αμήχανη στιγμή στο σαλόνι μου.
02:03
that in a worldκόσμος where we're increasinglyόλο και περισσότερο
integratingενσωμάτωση robotsρομπότ into our livesζωή,
33
111556
5420
Σε έναν κόσμο όπου βάζουμε συνεχώς
τα ρομπότ στη ζωή μας
02:09
an instinctένστικτο like that
mightθα μπορούσε actuallyπράγματι have consequencesσυνέπειες,
34
117000
3126
στιγμές σαν εκείνη
ίσως να έχουν επιπτώσεις,
02:13
because the first thing that I discoveredανακαλύφθηκε
is that it's not just me.
35
121452
3749
γιατί ανακάλυψα ότι
δεν συνέβαινε μόνο με εμένα.
02:19
In 2007, the WashingtonΟυάσινγκτον PostΘέση
reportedέχουν αναφερθεί that the UnitedΕνωμένοι StatesΚράτη μέλη militaryΣΤΡΑΤΟΣ
36
127249
4802
Το 2007 η Ουάσιγκτον Ποστ
έγραψε ότι ο αμερικανικός στρατός
02:24
was testingδοκιμές this robotρομπότ
that defusedαποκατασταθεί landγη minesορυχεία.
37
132075
3230
έκανε δοκιμές με ένα ρομπότ
που εξουδετέρωνε νάρκες εδάφους.
02:27
And the way it workedεργάστηκε
was it was shapedσχηματισμένος like a stickραβδί insectέντομο
38
135329
2912
Είχε σχήμα εντόμου με μακριά πόδια,
02:30
and it would walkΠερπατήστε
around a minefieldναρκοπέδιο on its legsπόδια,
39
138265
2651
βάδιζε στο ναρκοπέδιο,
02:32
and everyκάθε time it steppedβγήκε on a mineδικος μου,
one of the legsπόδια would blowπλήγμα up,
40
140940
3206
και όταν πατούσε νάρκη,
έχανε ένα από τα πόδια του
και συνέχιζε με τα υπόλοιπα
για να ανατινάξει κι άλλες.
02:36
and it would continueνα συνεχίσει on the other legsπόδια
to blowπλήγμα up more minesορυχεία.
41
144170
3057
02:39
And the colonelο συνταγματάρχης who was in chargeχρέωση
of this testingδοκιμές exerciseάσκηση
42
147251
3786
Ο επικεφαλής συνταγματάρχης της άσκησης
02:43
endsτελειώνει up callingκλήση it off,
43
151061
2118
την ακύρωσε τελικά,
02:45
because, he saysλέει, it's too inhumaneαπάνθρωπη
44
153203
2435
γιατί, όπως είπε, ήταν απάνθρωπο
02:47
to watch this damagedσκάρτος robotρομπότ
dragσέρνω itselfεαυτό alongκατά μήκος the minefieldναρκοπέδιο.
45
155662
4516
να βλέπεις το διαλυμένο ρομπότ
να σέρνεται στο ναρκοπέδιο.
02:54
Now, what would causeαιτία
a hardenedσκληρυνθεί militaryΣΤΡΑΤΟΣ officerαξιωματικός
46
162978
3897
Τι προκαλεί σε έναν σκληραγωγημένο
αξιωματικό του στρατού
02:58
and someoneκάποιος like myselfεγώ ο ίδιος
47
166899
2043
και κάποια σαν κι εμένα
03:00
to have this responseαπάντηση to robotsρομπότ?
48
168966
1857
τέτοια αντίδραση απέναντι σ' ένα ρομπότ;
03:03
Well, of courseσειρά μαθημάτων, we're primedγεμάτοι
by scienceεπιστήμη fictionμυθιστόρημα and popκρότος cultureΠολιτισμός
49
171537
3310
Η επιστημονική φαντασία
και η ποπ κουλτούρα μας προετοιμάζουν
03:06
to really want to personifyπροσωποποιούν these things,
50
174871
2579
ώστε να προσωποποιούμε αυτά τα πράγματα.
03:09
but it goesπηγαίνει a little bitκομμάτι deeperβαθύτερη than that.
51
177474
2789
Αλλά η αιτία είναι βαθύτερη.
03:12
It turnsστροφές out that we're biologicallyβιολογικά
hardwiredHardwired to projectέργο intentπρόθεση and life
52
180287
5309
Είμαστε εκ γενετής προγραμματισμένοι
να αποδίδουμε προθέσεις και ζωή
03:17
ontoεπάνω σε any movementκίνηση in our physicalφυσικός spaceχώρος
that seemsφαίνεται autonomousαυτονόμος to us.
53
185620
4766
σε ό,τι κινείται στον χώρο μας
και μοιάζει αυτόνομο.
03:23
So people will treatκέρασμα all sortsείδος
of robotsρομπότ like they're aliveζωντανός.
54
191214
3465
Γι' αυτό φερόμαστε στα ρομπότ
σαν να είναι ζωντανά.
03:26
These bomb-disposalαπόρριψη βόμβας unitsμονάδες get namesονόματα.
55
194703
2683
Δίνουν ονόματα στα μηχανήματα
εξουδετέρωσης βομβών.
03:29
They get medalsμετάλλια of honorτιμή.
56
197410
1682
Τους δίνουν τιμητικά παράσημα.
03:31
They'veΘα έχουμε had funeralsκηδείες for them
with gunόπλο salutesΧαιρετίζει.
57
199116
2325
Τους κάνουν κηδείες
με τιμητικές ρίψεις πυρών.
03:34
And researchέρευνα showsδείχνει that we do this
even with very simpleαπλός householdνοικοκυριό robotsρομπότ,
58
202380
3833
Έρευνες δείχνουν ότι κάνουμε τέτοια
ακόμη και για απλά ρομπότ του σπιτιού,
03:38
like the RoombaΤο Roomba vacuumκενό cleanerκαθαριστής.
59
206237
2135
όπως τη σκούπα ρομπότ Roomba.
03:40
(LaughterΤο γέλιο)
60
208396
1291
(Γέλια)
03:41
It's just a discδίσκος that roamsπεριπλανιέται
around your floorπάτωμα to cleanΚΑΘΑΡΗ it,
61
209711
3089
Είναι ένας δίσκος που περιφέρεται
και καθαρίζει το πάτωμα.
03:44
but just the factγεγονός it's movingκίνηση
around on its ownτα δικά
62
212824
2306
Αλλά το γεγονός ότι έχει αυτόνομη κίνηση
03:47
will causeαιτία people to nameόνομα the RoombaΤο Roomba
63
215154
2167
κάνει τους ανθρώπους να της δίνουν ονόματα
03:49
and feel badκακό for the RoombaΤο Roomba
when it getsπαίρνει stuckκολλήσει underκάτω από the couchκαναπές.
64
217345
3182
και να τη λυπούνται
όταν σφηνώνει στον καναπέ.
03:52
(LaughterΤο γέλιο)
65
220551
1865
(Γέλια)
03:54
And we can designσχέδιο robotsρομπότ
specificallyειδικά to evokeπροκαλώ this responseαπάντηση,
66
222440
3340
Μπορούμε να φτιάξουμε ρομπότ
με στόχο τέτοιες αντιδράσεις
03:57
usingχρησιμοποιώντας eyesμάτια and facesπρόσωπα or movementsκινήσεις
67
225804
3461
δίνοντάς τους μάτια, πρόσωπα, κινήσεις
04:01
that people automaticallyαυτομάτως,
subconsciouslyυποσυνείδητα associateΑναπληρωτής
68
229289
3259
που αυτόματα, υποσυνείδητα σχετίζουμε
με διανοητικές καταστάσεις.
04:04
with statesκράτη μέλη of mindμυαλό.
69
232572
2020
04:06
And there's an entireολόκληρος bodyσώμα of researchέρευνα
calledπου ονομάζεται human-robotανθρώπου-ρομπότ interactionΑΛΛΗΛΕΠΙΔΡΑΣΗ
70
234616
3293
Υπάρχει τομέας ερευνών που καλείται
αλληλεπίδραση ατόμων με ρομπότ
04:09
that really showsδείχνει how well this worksεργοστάσιο.
71
237933
1826
και δείχνει πόσο καλά λειτουργεί αυτό.
04:11
So for exampleπαράδειγμα, researchersερευνητές
at StanfordΠανεπιστήμιο του Στάνφορντ UniversityΠανεπιστήμιο foundβρέθηκαν out
72
239783
3126
Για παράδειγμα, ερευνητές
στο Στάνφορντ ανακάλυψαν
04:14
that it makesκάνει people really uncomfortableάβολος
73
242933
2001
ότι οι άνθρωποι νιώθουν άβολα
04:16
when you askπαρακαλώ them to touchαφή
a robot'sρομπότ privateιδιωτικός partsεξαρτήματα.
74
244958
2472
αν πρέπει να αγγίξουν
τα ρομπότ στα απόκρυφά τους.
04:19
(LaughterΤο γέλιο)
75
247454
2120
(Γέλια)
04:21
So from this, but from manyΠολλά other studiesσπουδές,
76
249598
2023
Από αυτή και άλλες μελέτες
04:23
we know, we know that people
respondαπαντώ to the cuesσυνθήματα givenδεδομένος to them
77
251645
4223
γνωρίζουμε ότι οι άνθρωποι
αντιδρούν στα σήματα
04:27
by these lifelikeζωντανές machinesμηχανές,
78
255892
2022
αυτών των «ζωντανών» μηχανών
04:29
even if they know that they're not realπραγματικός.
79
257938
2017
παρότι ξέρουν πως δεν είναι ζωντανές.
04:33
Now, we're headedμε επικεφαλής towardsπρος a worldκόσμος
where robotsρομπότ are everywhereπαντού.
80
261654
4056
Στον κόσμο μας, μελλοντικά,
θα υπάρχουν ρομπότ παντού.
04:37
RoboticΡομποτική technologyτεχνολογία is movingκίνηση out
from behindπίσω factoryεργοστάσιο wallsτοίχους.
81
265734
3065
Η ρομποτική βγαίνει από τα εργοστάσια
04:40
It's enteringεισερχόμενοι workplacesχώροι εργασίας, householdsνοικοκυριά.
82
268823
3013
και μπαίνει σε χώρους εργασίας, σε σπίτια.
04:43
And as these machinesμηχανές that can senseέννοια
and make autonomousαυτονόμος decisionsαποφάσεων and learnμαθαίνω
83
271860
6209
Καθώς αυτές οι μηχανές που νιώθουν,
αποφασίζουν αυτόνομα και μαθαίνουν
04:50
enterεισαγω into these sharedκοινή χρήση spacesχώρων,
84
278093
2552
μπαίνουν στους ίδιους χώρους με εμάς
04:52
I think that maybe the bestκαλύτερος
analogyαναλογία we have for this
85
280669
2496
ίσως η καλύτερη αναλογία γι' αυτό
04:55
is our relationshipσχέση with animalsτων ζώων.
86
283189
1935
είναι η σχέση μας με τα ζώα.
04:57
ThousandsΧιλιάδες of yearsχρόνια agoπριν,
we startedξεκίνησε to domesticateεξημερώνω animalsτων ζώων,
87
285523
3888
Πριν χιλιάδες χρόνια αρχίσαμε
να εξημερώνουμε ζώα.
05:01
and we trainedεκπαιδευμένο them for work
and weaponryοπλισμού and companionshipσυντροφικότητα.
88
289435
4045
Τα μάθαμε να δουλεύουν, να πολεμούν
και να μας κρατούν συντροφιά.
05:05
And throughoutκαθόλη τη διάρκεια historyιστορία, we'veέχουμε treatedαντιμετωπίζεται
some animalsτων ζώων like toolsεργαλεία or like productsπροϊόντα,
89
293504
4985
Και στην πορεία είδαμε κάποια
ζώα ως εργαλεία ή προϊόντα
05:10
and other animalsτων ζώων,
we'veέχουμε treatedαντιμετωπίζεται with kindnessκαλοσύνη
90
298513
2174
και σε άλλα φερθήκαμε με καλοσύνη
05:12
and we'veέχουμε givenδεδομένος a placeθέση in societyκοινωνία
as our companionsσύντροφοι.
91
300711
3078
και τους δώσαμε μια θέση
δίπλα μας ως συντρόφους.
05:15
I think it's plausibleεύλογες we mightθα μπορούσε startαρχή
to integrateενσωματώνουν robotsρομπότ in similarπαρόμοιος waysτρόπους.
92
303813
3849
Νομίζω πως μπορεί να γίνει
το ίδιο και με τα ρομπότ.
05:21
And sure, animalsτων ζώων are aliveζωντανός.
93
309484
3096
Βέβαια, τα ζώα είναι ζωντανά,
05:24
RobotsΡομπότ are not.
94
312604
1150
ενώ τα ρομπότ όχι.
05:27
And I can tell you,
from workingεργαζόμενος with roboticistsτα roboticists,
95
315626
2580
Και γνωρίζω, αφού εργάζομαι
στο χώρο της ρομποτικής,
05:30
that we're prettyαρκετά farμακριά away from developingανάπτυξη
robotsρομπότ that can feel anything.
96
318230
3522
ότι δεν θα δούμε σύντομα
ρομπότ με αισθήματα.
05:35
But we feel for them,
97
323072
1460
Μα, εμείς νοιαζόμαστε γι' αυτά
05:37
and that mattersθέματα,
98
325835
1207
κι αυτό μετράει.
05:39
because if we're tryingπροσπαθεί to integrateενσωματώνουν
robotsρομπότ into these sharedκοινή χρήση spacesχώρων,
99
327066
3627
Αν θέλουμε να βάλουμε τα ρομπότ
στους κοινούς μας χώρους,
05:42
we need to understandκαταλαβαίνουν that people will
treatκέρασμα them differentlyδιαφορετικά than other devicesσυσκευές,
100
330717
4628
πρέπει να γνωρίζουμε ότι θα έχουν
διαφορετική μεταχείριση
05:47
and that in some casesπεριπτώσεις,
101
335369
1844
και ότι σε κάποιες περιπτώσεις,
05:49
for exampleπαράδειγμα, the caseπερίπτωση of a soldierστρατιώτης
who becomesγίνεται emotionallyσυναισθηματικά attachedσυνημμένο
102
337237
3172
όπως κάποιου στρατιώτη
που δένεται συναισθηματικά
05:52
to the robotρομπότ that they work with,
103
340433
2047
με το ρομπότ στη δουλειά του,
05:54
that can be anything
from inefficientανεπαρκής to dangerousεπικίνδυνος.
104
342504
2504
μπορεί αυτό να αποδειχθεί
ανεπαρκές έως επικίνδυνο.
05:58
But in other casesπεριπτώσεις,
it can actuallyπράγματι be usefulχρήσιμος
105
346551
2138
Όμως, αλλού μπορεί να είναι ωφέλιμο
06:00
to fosterπροώθηση this emotionalΣυναισθηματική
connectionσύνδεση to robotsρομπότ.
106
348713
2623
να ενισχυθεί ο συναισθηματικός
δεσμός με τα ρομπότ.
06:04
We're alreadyήδη seeingβλέπων some great use casesπεριπτώσεις,
107
352184
2134
Βλέπουμε ήδη τέτοιες περιπτώσεις
06:06
for exampleπαράδειγμα, robotsρομπότ workingεργαζόμενος
with autisticαυτιστική childrenπαιδιά
108
354342
2604
όπου ρομπότ δουλεύουν με αυτιστικά παιδιά
06:08
to engageαρραβωνιάζω them in waysτρόπους
that we haven'tδεν έχουν seenείδα previouslyπροηγουμένως,
109
356970
3634
και τα κάνουν να συμμετέχουν
με πρωτόγνωρους τρόπους.
06:12
or robotsρομπότ workingεργαζόμενος with teachersκαθηγητές to engageαρραβωνιάζω
kidsπαιδιά in learningμάθηση with newνέος resultsΑποτελέσματα.
110
360628
4000
Ή ρομπότ να δουλεύουν με δασκάλους
για να εντάξουν παιδιά στο σχολείο.
06:17
And it's not just for kidsπαιδιά.
111
365433
1381
Δεν είναι μόνο για τα παιδιά.
06:19
EarlyΝωρίς studiesσπουδές showπροβολή that robotsρομπότ
can help doctorsτους γιατρούς and patientsασθενείς
112
367750
3223
Μελέτες δείχνουν ότι μπορούν
να βοηθήσουν γιατρούς και ασθενείς
06:22
in healthυγεία careΦροντίδα settingsρυθμίσεις.
113
370997
1427
στην ιατρική φροντίδα.
06:25
This is the PAROΠάρο babyμωρό sealσφραγίδα robotρομπότ.
114
373535
1810
Αυτό είναι το ρομπότ μωρό-φώκια PARO,
06:27
It's used in nursingΝοσηλευτική homesσπίτια
and with dementiaάνοια patientsασθενείς.
115
375369
3285
Χρησιμοποιείται σε οίκους ευγηρίας
και σε ασθενείς με άνοια.
06:30
It's been around for a while.
116
378678
1570
Είναι καιρό στην αγορά.
06:32
And I rememberθυμάμαι, yearsχρόνια agoπριν,
beingνα εισαι at a partyκόμμα
117
380272
3325
Θυμάμαι πριν χρόνια σε ένα πάρτι
06:35
and tellingαποτελεσματικός someoneκάποιος about this robotρομπότ,
118
383621
2571
είπα σε κάποια γι' αυτό το ρομπότ
06:38
and her responseαπάντηση was,
119
386216
2126
και η αντίδρασή της ήταν
06:40
"Oh my goshΘέε μου.
120
388366
1262
«Θεέ μου,
06:42
That's horribleφρικτός.
121
390508
1188
Φρικτό.
06:45
I can't believe we're givingδίνοντας people
robotsρομπότ insteadαντι αυτου of humanο άνθρωπος careΦροντίδα."
122
393056
3397
Είναι απίστευτο ότι τους δίνουμε
ρομπότ αντί για ανθρώπινη φροντίδα».
06:50
And this is a really commonκοινός responseαπάντηση,
123
398540
1875
Συνηθισμένη αντίδραση.
06:52
and I think it's absolutelyαπολύτως correctσωστός,
124
400439
2499
Και εντελώς δικαιολογημένη,
06:54
because that would be terribleτρομερός.
125
402962
2040
γιατί θα ήταν φρικτό.
06:57
But in this caseπερίπτωση,
it's not what this robotρομπότ replacesαντικαθιστά.
126
405795
2484
Μα, δεν είναι αυτό
που το ρομπότ αντικαθιστά.
07:00
What this robotρομπότ replacesαντικαθιστά is animalζώο therapyθεραπεία
127
408858
3120
Αντικαθιστά τη θεραπεία με ζώα
07:04
in contextsπεριβάλλοντα where
we can't use realπραγματικός animalsτων ζώων
128
412002
3198
σε περιπτώσεις που δεν μπορούμε
να έχουμε αληθινά ζώα,
07:07
but we can use robotsρομπότ,
129
415224
1168
αλλά να έχουμε ρομπότ,
07:08
because people will consistentlyμε συνέπεια treatκέρασμα
them more like an animalζώο than a deviceσυσκευή.
130
416416
5230
γιατί τα αντιμετωπίζουμε σταθερά
σαν ζώα παρά σαν συσκευές.
07:15
AcknowledgingΑναγνωρίζοντας this emotionalΣυναισθηματική
connectionσύνδεση to robotsρομπότ
131
423502
2380
Παραδεχομένοι τον συναισθηματικό
μας δεσμό με αυτά
θα μπορέσουμε να προβλέψουμε τις δυσκολίες
07:17
can alsoεπίσης help us anticipateπροσδοκώ challengesπροκλήσεις
132
425906
1969
07:19
as these devicesσυσκευές moveκίνηση into more intimateοικεία
areasπεριοχές of people'sτων ανθρώπων livesζωή.
133
427899
3451
όπως αυτά θα εισέρχονται
σε πιο ιδιωτικούς χώρους της ζωής μας.
07:24
For exampleπαράδειγμα, is it OK
if your child'sτου παιδιού teddyαρκουδάκι bearαρκούδα robotρομπότ
134
432111
3404
Για παράδειγμα, θα το δεχτούμε
αν το αρκουδάκι του παιδιού μας
07:27
recordsαρχεία privateιδιωτικός conversationsσυνομιλίες?
135
435539
2237
καταγράφει προσωπικές συνομιλίες;
07:29
Is it OK if your sexφύλο robotρομπότ
has compellingεπιτακτικοί in-appεντός εφαρμογής purchasesψώνια?
136
437800
4063
Ή αν το ρομπότ για σεξ έχει
υποχρεωτικές ενσωματωμένες αγορές;
07:33
(LaughterΤο γέλιο)
137
441887
1396
(Γέλια)
07:35
Because robotsρομπότ plusσυν capitalismκαπιταλισμός
138
443307
2501
Επειδή ρομπότ συνδυασμένα με καπιταλισμό
07:37
equalsισούται με questionsερωτήσεις around
consumerκαταναλωτής protectionΠΡΟΣΤΑΣΙΑ and privacyπροστασίας προσωπικών δεδομένων.
139
445832
3705
εγείρουν αμφιβολίες για την προστασία
του καταναλωτή και την ιδιωτικότητα.
07:42
And those aren'tδεν είναι the only reasonsαιτιολογικό
140
450549
1612
Δεν είναι αυτοί μόνο οι λόγοι
07:44
that our behaviorη ΣΥΜΠΕΡΙΦΟΡΑ around
these machinesμηχανές could matterύλη.
141
452185
2570
που η στάση μας προς αυτές
τις μηχανές έχει σημασία.
07:48
A fewλίγοι yearsχρόνια after that first
initialαρχικός experienceεμπειρία I had
142
456747
3270
Λίγα χρόνια μετά από εκείνη
την πρώτη εμπειρία
07:52
with this babyμωρό dinosaurδεινόσαυρος robotρομπότ,
143
460041
2311
με το ρομπότ μωρό δεινοσαύρου
οργάνωσα ένα σεμινάριο
με τον φίλο μου Χάνες Γκάσερτ.
07:54
I did a workshopΕΡΓΑΣΤΗΡΙ
with my friendφίλος HannesHannes GassertΓκάγερτ.
144
462376
2501
07:56
And we tookπήρε fiveπέντε
of these babyμωρό dinosaurδεινόσαυρος robotsρομπότ
145
464901
2897
Πήραμε πέντε τέτοια ρομπότ
μωρά δεινοσαύρων
07:59
and we gaveέδωσε them to fiveπέντε teamsτης ομάδας of people.
146
467822
2453
και τα δώσαμε σε πέντε ομάδες ανθρώπων.
08:02
And we had them nameόνομα them
147
470299
1697
Τους είπαμε να τους δώσουν ονόματα
08:04
and playπαίζω with them and interactαλληλεπιδρώ with them
for about an hourώρα.
148
472020
3809
και να παίξουν μαζί τους
για περίπου μία ώρα.
08:08
And then we unveiledαποκάλυψε
a hammerσφυρί and a hatchetτσεκούρι
149
476707
2206
Μετά τους δώσαμε ένα σφυρί
και ένα τσεκουράκι,
08:10
and we told them to tortureβασανιστήριο
and killσκοτώνω the robotsρομπότ.
150
478937
2278
για να βασανίσουν
και να σκοτώσουν τα ρομπότ.
08:13
(LaughterΤο γέλιο)
151
481239
3007
(Γέλια)
08:16
And this turnedγύρισε out to be
a little more dramaticδραματικός
152
484857
2294
Αποδείχθηκε πιο δραματικό
απ' ό,τι περιμέναμε,
08:19
than we expectedαναμενόμενος it to be,
153
487175
1278
08:20
because noneκανένας of the participantsσυμμετέχοντες
would even so much as strikeαπεργία
154
488477
3072
γιατί κανείς από τους συμμετέχοντες
ούτε καν χτύπησε
08:23
these babyμωρό dinosaurδεινόσαυρος robotsρομπότ,
155
491573
1307
τα ρομπότ μωρά δεινοσαύρων.
08:24
so we had to improviseαυτοσχεδιάζω a little,
and at some pointσημείο, we said,
156
492904
5150
Έπρεπε να αυτοσχεδιάσουμε
και κάποια στιγμή είπαμε
08:30
"OK, you can saveαποθηκεύσετε your team'sτης ομάδας robotρομπότ
if you destroyκαταστρέφω anotherαλλο team'sτης ομάδας robotρομπότ."
157
498078
4437
«Μπορείτε να γλιτώσετε το ρομπότ σας
αν καταστρέψετε μιας άλλης ομάδας».
08:34
(LaughterΤο γέλιο)
158
502539
1855
(Γέλια)
08:36
And even that didn't work.
They couldn'tδεν μπορούσε do it.
159
504839
2195
Ούτε αυτό βοήθησε.
Δεν ήθελαν να το κάνουν.
08:39
So finallyτελικά, we said,
160
507058
1151
Τελικά τους είπαμε
08:40
"We're going to destroyκαταστρέφω all of the robotsρομπότ
161
508233
2032
«Θα καταστρέψουμε όλα τα ρομπότ
08:42
unlessεκτός someoneκάποιος takes
a hatchetτσεκούρι to one of them."
162
510289
2285
αν κάποιος δεν σκοτώσει ένα από αυτά».
08:45
And this guy stoodστάθηκε up,
and he tookπήρε the hatchetτσεκούρι,
163
513586
3579
Σηκώθηκε ένας και πήρε το τσεκουράκι
08:49
and the wholeολόκληρος roomδωμάτιο wincedwinced
as he broughtέφερε the hatchetτσεκούρι down
164
517189
2706
και όλοι μόρφασαν με αποτροπιασμό
καθώς το κατέβασε στον λαιμό του ρομπότ
08:51
on the robot'sρομπότ neckλαιμός,
165
519919
1780
08:53
and there was this half-jokingμισή αστεία,
half-seriousμισή σοβαρή momentστιγμή of silenceσιωπή in the roomδωμάτιο
166
521723
6338
και υπήρξε μια μισοαστεία
μισοσοβαρή στιγμή σιωπής στον χώρο
09:00
for this fallenπεσμένος robotρομπότ.
167
528085
1698
προς τιμήν του θανόντος ρομπότ.
09:01
(LaughterΤο γέλιο)
168
529807
1406
(Γέλια)
09:03
So that was a really
interestingενδιαφέρων experienceεμπειρία.
169
531237
3694
Ήταν μια πραγματικά ενδιαφέρουσα εμπειρία.
09:06
Now, it wasn'tδεν ήταν a controlledελέγχονται
studyμελέτη, obviouslyπροφανώς,
170
534955
2459
Δεν ήταν, βέβαια,
μια αυστηρά ελεγχόμενη μελέτη,
09:09
but it did leadΟΔΗΓΩ to some
laterαργότερα researchέρευνα that I did at MITMIT
171
537438
2850
αλλά οδήγησε σε μια κατοπινή
έρευνα που έκανα στο ΜΙΤ
09:12
with PalashPalash NandyΝάντι and CynthiaCynthia BreazealBreazeal,
172
540312
2228
με τον Παλάς Νάντι και την Σίνθια Μπραζίλ
09:14
where we had people come into the labεργαστήριο
and smashsmash these HEXBUGsΤα Εξαέντομα
173
542564
3627
όπου καλέσαμε άτομα στο εργαστήριο
για να κομματιάσουν HEXBUG
09:18
that moveκίνηση around in a really
lifelikeζωντανές way, like insectsέντομα.
174
546215
3087
που κινούνται με ρεαλιστικό
τρόπο σαν έντομα.
09:21
So insteadαντι αυτου of choosingεπιλογή something cuteΧαριτωμένο
that people are drawnσυρθεί to,
175
549326
3134
Αντί, λοιπόν, για κάτι χαριτωμένο
που ελκύει τους ανθρώπους
09:24
we choseεπέλεξε something more basicβασικός,
176
552484
2093
διαλέξαμε κάτι πιο βασικό
09:26
and what we foundβρέθηκαν
was that high-empathyυψηλής κατανόησης people
177
554601
3480
και διαπιστώσαμε ότι τα άτομα
με τη μεγαλύτερη συμπόνια
09:30
would hesitateδιστάζω more to hitΚτύπημα the HEXBUGSΕΞΑΈΝΤΟΜΑ.
178
558105
2143
δίσταζαν περισσότερο
να χτυπήσουν τα HEXBUG.
09:33
Now this is just a little studyμελέτη,
179
561575
1564
Ήταν μια μικρή μελέτη,
09:35
but it's partμέρος of a largerμεγαλύτερος bodyσώμα of researchέρευνα
180
563163
2389
αλλά μέρος ενός μεγαλύτερου τομέα έρευνας
09:37
that is startingεκκίνηση to indicateυποδεικνύω
that there mayενδέχεται be a connectionσύνδεση
181
565576
2944
που αρχίζει να δείχνει
ότι ίσως υπάρχει σχέση
09:40
betweenμεταξύ people'sτων ανθρώπων tendenciesτάσεις for empathyενσυναίσθηση
182
568544
2373
μεταξύ της τάσης των ανθρώπων για συμπόνια
09:42
and theirδικα τους behaviorη ΣΥΜΠΕΡΙΦΟΡΑ around robotsρομπότ.
183
570941
1976
και της στάσης τους προς τα ρομπότ.
09:45
But my questionερώτηση for the comingερχομός eraεποχή
of human-robotανθρώπου-ρομπότ interactionΑΛΛΗΛΕΠΙΔΡΑΣΗ
184
573721
3627
Η ερώτησή μου για την επερχόμενη εποχή
της αλληλεπίδρασης με τα ρομπότ δεν είναι
09:49
is not: "Do we empathizeσυμπάσχουν with robotsρομπότ?"
185
577372
3055
«Νιώθουμε συμπόνια για τα ρομπότ;»
09:53
It's: "Can robotsρομπότ changeαλλαγή
people'sτων ανθρώπων empathyενσυναίσθηση?"
186
581211
2920
Αλλά «Μπορούν τα ρομπότ
να επηρεάσουν την συμπόνια μας;»
09:57
Is there reasonλόγος to, for exampleπαράδειγμα,
187
585489
2287
Υπάρχει λόγος, για παράδειγμα,
09:59
preventαποτρέψει your childπαιδί
from kickingκλοτσιές a roboticρομποτικό dogσκύλος,
188
587800
2333
να μην κλωτσήσει το παιδί σας
ένα ρομπότ σκύλο,
10:03
not just out of respectΣεβασμός for propertyιδιοκτησία,
189
591228
2914
όχι από σεβασμό στα αντικείμενα
10:06
but because the childπαιδί mightθα μπορούσε be
more likelyπιθανός to kickλάκτισμα a realπραγματικός dogσκύλος?
190
594166
2953
αλλά γιατί έτσι θα είναι πιθανότερο
να κλωτσήσει έναν αληθινό;
10:10
And again, it's not just kidsπαιδιά.
191
598507
1883
Επαναλαμβάνω ότι δεν αφορά μόνο τα παιδιά.
10:13
This is the violentβίαιος videoβίντεο gamesΠαιχνίδια questionερώτηση,
but it's on a completelyεντελώς newνέος levelεπίπεδο
192
601564
4056
Αφορά στο ερώτημα για τα βίαια
βιντεοπαιχνίδια από μια νέα σκοπιά
10:17
because of this visceralσπλαγχνική physicalityφυσικότητα
that we respondαπαντώ more intenselyέντονα to
193
605644
4760
γιατί υπάρχει αυθόρμητη υλική επαφή
στην οποία αντιδρούμε πιο έντονα
10:22
than to imagesεικόνες on a screenοθόνη.
194
610428
1547
απ' ότι σε εικόνες στην οθόνη.
10:25
When we behaveσυμπεριφέρομαι violentlyβίαια towardsπρος robotsρομπότ,
195
613674
2578
Όταν φερόμαστε βίαια προς τα ρομπότ,
10:28
specificallyειδικά robotsρομπότ
that are designedσχεδιασμένο to mimicμίμος life,
196
616276
3120
ιδιαίτερα προς όσα έχουν σχεδιαστεί
ως αντίγραφα όντων
10:31
is that a healthyυγιής outletέξοδος
for violentβίαιος behaviorη ΣΥΜΠΕΡΙΦΟΡΑ
197
619420
3892
είναι αυτό υγιής διέξοδος
βίαιης συμπεριφοράς
10:35
or is that trainingεκπαίδευση our crueltyσκληρότητα musclesμυς?
198
623336
2544
ή εξάσκηση στη βία;
10:39
We don't know ...
199
627511
1150
Δεν γνωρίζουμε...
10:42
But the answerαπάντηση to this questionερώτηση has
the potentialδυνητικός to impactεπίπτωση humanο άνθρωπος behaviorη ΣΥΜΠΕΡΙΦΟΡΑ,
200
630622
3945
Όμως η απάντηση μπορεί να επηρεάσει
την συμπεριφορά των ανθρώπων,
10:46
it has the potentialδυνητικός
to impactεπίπτωση socialκοινωνικός normsκανόνες,
201
634591
2768
μπορεί να επηρεάσει
τις κοινωνικές συμβάσεις,
10:49
it has the potentialδυνητικός to inspireεμπνέω rulesκανόνες
around what we can and can't do
202
637383
3849
μπορεί να εμπνεύσει νέους κανόνες
για το τι μπορούμε ή όχι να κάνουμε
10:53
with certainβέβαιος robotsρομπότ,
203
641256
1151
με συγκεκριμένα ρομπότ
10:54
similarπαρόμοιος to our animalζώο crueltyσκληρότητα lawsτου νόμου.
204
642431
1848
σαν αυτούς περί κακομεταχείρισης ζώων.
10:57
Because even if robotsρομπότ can't feel,
205
645228
2864
Ακόμη κι αν τα ρομπότ δεν αισθάνονται,
11:00
our behaviorη ΣΥΜΠΕΡΙΦΟΡΑ towardsπρος them
mightθα μπορούσε matterύλη for us.
206
648116
3080
η συμπεριφορά μας προς αυτά
ίσως είναι σημαντική για εμάς.
11:04
And regardlessΑνεξάρτητα of whetherκατά πόσο
we endτέλος up changingαλλάζοντας our rulesκανόνες,
207
652889
2855
Και άσχετα από το αν τελικά
θα αλλάξουμε τους κανόνες,
11:08
robotsρομπότ mightθα μπορούσε be ableικανός to help us
come to a newνέος understandingκατανόηση of ourselvesεμείς οι ίδιοι.
208
656926
3556
τα ρομπότ ίσως μας οδηγήσουν
σε μια νέα γνώση του ποιοι είμαστε.
11:14
MostΠερισσότερα of what I've learnedέμαθα
over the pastτο παρελθόν 10 yearsχρόνια
209
662276
2316
Τα πιο πολλά από όσα έμαθα
εδώ και δέκα χρόνια
11:16
has not been about technologyτεχνολογία at all.
210
664616
2238
δεν έχουν καμία εντελώς
σχέση με τεχνολογία.
11:18
It's been about humanο άνθρωπος psychologyΨυχολογία
211
666878
2503
Αλλά με την ανθρώπινη ψυχοσύνθεση,
11:21
and empathyενσυναίσθηση and how we relateσχετίζομαι to othersοι υπολοιποι.
212
669405
2603
την συμπόνια και τη δημιουργία σχέσεων.
11:25
Because when a childπαιδί is kindείδος to a RoombaΤο Roomba,
213
673524
2365
Όταν ένα παιδί συμπονά
μια ηλεκτρική σκούπα,
11:29
when a soldierστρατιώτης triesπροσπαθεί to saveαποθηκεύσετε
a robotρομπότ on the battlefieldπεδίο μάχης,
214
677262
4015
όταν ένας στρατιώτης σώζει
ένα ρομπότ στο πεδίο της μάχης
11:33
or when a groupομάδα of people refusesαρνείται
to harmκανω κακο a roboticρομποτικό babyμωρό dinosaurδεινόσαυρος,
215
681301
3638
ή όταν κάποιοι αρνούνται να βλάψουν
ένα ρομπότ μωρό δεινοσαύρου,
11:38
those robotsρομπότ aren'tδεν είναι just motorsκινητήρες
and gearsγρανάζια and algorithmsαλγορίθμους.
216
686248
3191
τότε αυτά τα ρομπότ δεν είναι απλώς
μηχανές, γρανάζια κι αλγόριθμοι.
11:42
They're reflectionsαντανακλάσεις of our ownτα δικά humanityανθρωπότητα.
217
690501
1905
Είναι αντανακλάσεις της ανθρωπιάς μας.
11:45
Thank you.
218
693523
1151
Σας ευχαριστώ.
11:46
(ApplauseΧειροκροτήματα)
219
694698
3397
(Χειροκρότημα)
Translated by Anthi Lakka
Reviewed by Thanassis Zadrimas

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee