ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

Kate Darling: Varför vi har en känslomässig anknytning till robotar

Filmed:
2,403,010 views

Vi är långt från att utveckla robotar som kan känna känslor, men vi har redan känslor inför dem, menar robotetikern Kate Darling, och en sådan instinkt kan ha konsekvenser. Lär dig mer om hur vi är biologiskt programmerade att projicera vilja och liv på maskiner -- och hur det kan hjälpa oss att bättre förstå oss själva.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

00:13
There was a day, about 10 yearsår agosedan,
0
1047
2508
Det var en dag, för ungefär 10 år sedan,
00:15
when I askedfrågade a friendvän to holdhåll
a babybebis dinosaurdinosaurie robotrobot upsideupside down.
1
3579
3944
som jag bad en vän att hålla en robot
i form av en dinosauriebebis upp och ned.
00:21
It was this toyleksak calledkallad a PleoPleo
that I had orderedbeordrade,
2
9889
3446
Det var en leksak som kallas Pleo
som jag hade beställt,
och jag var väldigt glad över det
eftersom jag alltid älskat robotar.
00:25
and I was really excitedupphetsad about it
because I've always lovedälskade robotsrobotar.
3
13359
4401
Just denna har väldigt coola
tekniska egenskaper.
00:29
And this one has really coolHäftigt
technicalteknisk featuresfunktioner.
4
17784
2279
00:32
It had motorsmotorer and touchRör sensorssensorer
5
20087
2119
Den hade motorer och rörelsesensorer
00:34
and it had an infraredinfraröd camerakamera.
6
22230
2244
och den hade en infraröd kamera.
00:36
And one of the things it had
was a tiltluta sensorsensor,
7
24498
2763
En av funktionerna den hade
var en lutningssensor,
00:39
so it knewvisste what directionriktning it was facingvänd.
8
27285
2318
så den visste i vilken
riktning den var vänd.
00:42
And when you heldhållen it upsideupside down,
9
30095
2134
När du höll den upp och ned,
00:44
it would startStart to crygråta.
10
32253
1572
så började den gråta.
00:46
And I thought this was supersuper coolHäftigt,
so I was showingsom visar it off to my friendvän,
11
34527
3496
Jag tyckte det var jättehäftigt,
så jag visade upp den för min vän,
00:50
and I said, "Oh, holdhåll it up by the tailsvans.
See what it does."
12
38047
2805
och jag sade "Håll upp den i svansen.
Se vad den gör."
00:55
So we're watchingtittar på
the theatricsskådespel of this robotrobot
13
43268
3625
Så vi håller på att observera
robotens agerande,
00:58
strugglekamp and crygråta out.
14
46917
2199
kämpande och gråtande.
01:02
And after a few secondssekunder,
15
50767
2047
Efter en stund,
01:04
it startsbörjar to botherbry me a little,
16
52838
1972
så börjar det besvära mig lite,
01:07
and I said, "OK, that's enoughtillräckligt now.
17
55744
3424
och jag sade "OK, nu räcker det.
01:11
Let's put him back down."
18
59930
2305
Vi sätter ned honom igen."
01:14
And then I petsällskapsdjur the robotrobot
to make it stop cryinggråtande.
19
62259
2555
Sedan klappade jag roboten
för att få den att sluta gråta.
01:18
And that was kindsnäll of
a weirdkonstig experienceerfarenhet for me.
20
66973
2452
Det var en konstig erfarenhet för mig.
01:22
For one thing, I wasn'tvar inte the mostmest
maternalmaternell personperson at the time.
21
70084
4569
För det första var jag inte en särskilt
moderlig person vid det tillfället.
01:26
AlthoughÄven om sincesedan then I've becomebli
a mothermor, ninenio monthsmånader agosedan,
22
74677
2731
Men sedan jag blev mamma
för nio månader sedan,
01:29
and I've learnedlärt mig that babiesspädbarn alsoockså squirmvåndas
when you holdhåll them upsideupside down.
23
77432
3433
har jag lärt mig att bebisar också gråter
när man håller dem upp och ned.
01:32
(LaughterSkratt)
24
80889
1563
(Skratt)
01:35
But my responsesvar to this robotrobot
was alsoockså interestingintressant
25
83023
2358
Min respons till den här roboten
var intressant,
01:37
because I knewvisste exactlyexakt
how this machinemaskin workedarbetade,
26
85405
4101
eftersom jag visste exakt
hur den här maskinen fungerade,
01:41
and yetän I still feltkänt
compelledTvingad to be kindsnäll to it.
27
89530
3262
och ändå kände jag
att jag behövde vara snäll mot den.
01:46
And that observationobservation sparkedutlöste a curiositynyfikenhet
28
94450
2707
Den observationen väckte en nyfikenhet
01:49
that I've spentbringade the pastdåtid decadeårtionde pursuingfullfölja.
29
97181
2832
som jag har ägnat mig åt
under det senaste årtiondet.
01:52
Why did I comfortbekvämlighet this robotrobot?
30
100911
1793
Varför tröstade jag roboten?
01:56
And one of the things I discoveredupptäckt
was that my treatmentbehandling of this machinemaskin
31
104228
3579
En av sakerna jag upptäckte var att
min behandling av den här maskinen
01:59
was more than just an awkwardtafatt momentögonblick
in my livinglevande roomrum,
32
107831
3701
var mer än bara ett besvärligt ögonblick
i mitt vardagsrum,
02:03
that in a worldvärld where we're increasinglyalltmer
integratingintegrera robotsrobotar into our livesliv,
33
111556
5420
att i en värld där vi mer och mer
integrerar robotar i våra liv,
02:09
an instinctinstinkt like that
mightmakt actuallyfaktiskt have consequenceskonsekvenser,
34
117000
3126
kan en sådan instinkt
faktiskt ha konsekvenser,
02:13
because the first thing that I discoveredupptäckt
is that it's not just me.
35
121452
3749
eftersom det första jag märkte var
att det inte bara är jag.
02:19
In 2007, the WashingtonWashington PostInlägg
reportedrapporterad that the UnitedUnited StatesStaterna militarymilitär-
36
127249
4802
2007 rapporterade Washington Post
att USA:s militär
02:24
was testingtestning this robotrobot
that defuseddesarmerade landlanda minesgruvor.
37
132075
3230
höll på att testa en robot
som desarmerade landminor.
02:27
And the way it workedarbetade
was it was shapedformad like a stickpinne insectinsekt
38
135329
2912
Den fungerade så att den var formad
som en vandrande pinne
02:30
and it would walk
around a minefieldMinfält on its legsben,
39
138265
2651
och den gick runt på
ett minfält på sina ben,
02:32
and everyvarje time it steppedstegad on a minemina,
one of the legsben would blowblåsa up,
40
140940
3206
och varje gång den trampade på en mina,
så sprängdes ett ben sönder,
02:36
and it would continueFortsätta on the other legsben
to blowblåsa up more minesgruvor.
41
144170
3057
och sen fortsatte den på de andra benen
och sprängde fler minor.
02:39
And the colonelÖverste who was in chargeavgift
of this testingtestning exerciseträning
42
147251
3786
Översten som ledde det här testet
02:43
endsändarna up callingkallelse it off,
43
151061
2118
avbröt till slut övningen,
02:45
because, he sayssäger, it's too inhumaneomänskliga
44
153203
2435
eftersom han menade
att det var för inhumant
02:47
to watch this damagedskadad robotrobot
dragdrag itselfsig alonglängs the minefieldMinfält.
45
155662
4516
att se den skadade roboten
släpa sig fram över minfältet.
02:54
Now, what would causeorsak
a hardenedhärdad militarymilitär- officerofficer
46
162978
3897
Vad skulle kunna göra att
en tuff militär officer
02:58
and someonenågon like myselfjag själv
47
166899
2043
och någon som jag själv
03:00
to have this responsesvar to robotsrobotar?
48
168966
1857
har en sådan respons till robotar?
03:03
Well, of coursekurs, we're primedprimas
by sciencevetenskap fictionfiktion and poppop- culturekultur
49
171537
3310
Vi är såklart påverkade av
science fiction och populärkultur
03:06
to really want to personifypersonifiera these things,
50
174871
2579
att vilja personifiera de här sakerna,
03:09
but it goesgår a little bitbit deeperdjupare than that.
51
177474
2789
men det går lite djupare än så.
03:12
It turnsvarv out that we're biologicallybiologiskt
hardwiredhårdkodade to projectprojekt intentavsikt and life
52
180287
5309
Vi är tydligen biologiskt programmerade
till att projicera vilja och liv
03:17
ontotill any movementrörelse in our physicalfysisk spacerymden
that seemsverkar autonomousautonom to us.
53
185620
4766
på all rörelse i vår fysiska omgivning
som för oss verkar vara självständig.
03:23
So people will treatbehandla all sortssorterar
of robotsrobotar like they're aliveLevande.
54
191214
3465
Så människor kommer att behandla
alla slags robotar som levande varelser.
03:26
These bomb-disposalbomb-bortskaffande unitsenheter get namesnamn.
55
194703
2683
Minröjarrobotarna får egna namn.
03:29
They get medalsmedaljer of honorära.
56
197410
1682
De får hedersmedaljer.
03:31
They'veDe har had funeralsbegravningar for them
with gunpistol salutesSaluter.
57
199116
2325
De har haft begravningar för dem
med kanonsalut.
03:34
And researchforskning showsvisar that we do this
even with very simpleenkel householdhushåll robotsrobotar,
58
202380
3833
Forskning visar att vi även gör detta
med enkla hushållsrobotar,
03:38
like the RoombaRoomba vacuumVakuum cleanerrengöringsmedel.
59
206237
2135
som Roomba-dammsugaren.
03:40
(LaughterSkratt)
60
208396
1291
(Skratt)
03:41
It's just a discskiva that roamsStrövar
around your floorgolv to cleanrena it,
61
209711
3089
Det är bara en disk som åker runt
på ditt golv och rengör det,
03:44
but just the factfaktum it's movingrör på sig
around on its ownegen
62
212824
2306
men det faktum att den
åker omkring på egen hand
03:47
will causeorsak people to namenamn the RoombaRoomba
63
215154
2167
gör så att folk döper sin Roomba
03:49
and feel baddålig for the RoombaRoomba
when it getsblir stuckfastnat underunder the couchsoffa.
64
217345
3182
och tycker synd om den
när den fastnar under soffan.
03:52
(LaughterSkratt)
65
220551
1865
(Skratt)
03:54
And we can designdesign robotsrobotar
specificallyspecifikt to evokeframkalla this responsesvar,
66
222440
3340
Vi kan designa robotar
för att framkalla den här reaktionen,
03:57
usinganvänder sig av eyesögon and facesansikten or movementsrörelser
67
225804
3461
genom att använda
ögon och ansikten eller rörelser
04:01
that people automaticallyautomatiskt,
subconsciouslyundermedvetet associateassociera
68
229289
3259
som folk automatiskt,
undermedvetet associerar
04:04
with statesstater of mindsinne.
69
232572
2020
med känslor.
04:06
And there's an entirehel bodykropp of researchforskning
calledkallad human-robotmänniska-robot interactioninteraktion
70
234616
3293
Det finns ett helt forskningsområde
kallat människa-robotinteraktion
04:09
that really showsvisar how well this worksArbetar.
71
237933
1826
som visar hur väl det här fungerar.
04:11
So for exampleexempel, researchersforskare
at StanfordStanford UniversityUniversitet foundhittades out
72
239783
3126
Till exempel har forskare
vid Stanfords universitet upptäckt
04:14
that it makesgör people really uncomfortableobekväm
73
242933
2001
att det gör folk väldigt obekväma
04:16
when you askfråga them to touchRör
a robot'srobotens privateprivat partsdelar.
74
244958
2472
om du ber dem att ta på
en robots intima delar.
04:19
(LaughterSkratt)
75
247454
2120
(Skratt)
04:21
So from this, but from manymånga other studiesstudier,
76
249598
2023
Från denna, men även många andra studier,
04:23
we know, we know that people
respondsvara to the cuesstack-ikoner givengiven to them
77
251645
4223
vet vi att människor reagerar
på dessa signaler
04:27
by these lifelikeverklighetstrogna machinesmaskiner,
78
255892
2022
från dessa naturtrogna maskiner,
04:29
even if they know that they're not realverklig.
79
257938
2017
fastän de vet att de inte är verkliga.
04:33
Now, we're headedheaded towardsmot a worldvärld
where robotsrobotar are everywhereöverallt.
80
261654
4056
Nu är vi på väg mot en värld
där robotar finns överallt.
04:37
RoboticRobotic technologyteknologi is movingrör på sig out
from behindBakom factoryfabrik wallsväggar.
81
265734
3065
Robotteknik träder ut
genom fabriksväggarna.
04:40
It's enteringin workplacesarbetsplatser, householdshushåll.
82
268823
3013
Den kommer in på arbetsplatser, i hushåll.
04:43
And as these machinesmaskiner that can sensekänsla
and make autonomousautonom decisionsbeslut and learnlära sig
83
271860
6209
I och med att dessa maskiner som kan
läsa av, ta egna beslut och lära sig saker
04:50
enterstiga på into these shareddelad spacesutrymmen,
84
278093
2552
träder in i dessa gemensamma utrymmen,
04:52
I think that maybe the bestbäst
analogyanalogi we have for this
85
280669
2496
tror jag att den
bästa analogin vi har för detta
04:55
is our relationshiprelation with animalsdjur.
86
283189
1935
är vår relation till djur.
04:57
ThousandsTusentals of yearsår agosedan,
we startedsatte igång to domesticatetämja animalsdjur,
87
285523
3888
För tusentals år sedan
började vi tämja djur,
05:01
and we trainedtränad them for work
and weaponryvapen and companionshipsällskap.
88
289435
4045
vi tränade dem för arbete,
beväpning och sällskap.
05:05
And throughoutgenom hela historyhistoria, we'vevi har treatedbehandlad
some animalsdjur like toolsverktyg or like productsProdukter,
89
293504
4985
Genom historien har vi behandlat
vissa djur som verktyg eller produkter,
05:10
and other animalsdjur,
we'vevi har treatedbehandlad with kindnessvänlighet
90
298513
2174
och andra djur har vi behandlat
med vänlighet
05:12
and we'vevi har givengiven a placeplats in societysamhälle
as our companionsföljeslagare.
91
300711
3078
och vi har gett dem en plats
i samhället som våra kamrater.
05:15
I think it's plausiblerimliga we mightmakt startStart
to integrateintegrera robotsrobotar in similarliknande wayssätt.
92
303813
3849
Jag tror det är sannolikt att vi kommer
börja integrera robotar på liknande sätt.
05:21
And sure, animalsdjur are aliveLevande.
93
309484
3096
Och visst, djur är levande.
05:24
RobotsRobotar are not.
94
312604
1150
Robotar är det inte.
Och jag kan säga,
efter att ha jobbat med robottekniker,
05:27
And I can tell you,
from workingarbetssätt with roboticistsroboticists,
95
315626
2580
05:30
that we're prettySöt farlångt away from developingutvecklande
robotsrobotar that can feel anything.
96
318230
3522
att vi är ganska långt från att utveckla
robotar som har känslor.
05:35
But we feel for them,
97
323072
1460
Men vi känner med dem,
05:37
and that mattersfrågor,
98
325835
1207
och det spelar roll,
05:39
because if we're tryingpåfrestande to integrateintegrera
robotsrobotar into these shareddelad spacesutrymmen,
99
327066
3627
för om vi försöker integrera
robotar i våra gemensamma rum,
05:42
we need to understandförstå that people will
treatbehandla them differentlyannorlunda than other devicesenheter,
100
330717
4628
behöver vi förstå att folk kommer att
behandla dem annorlunda än andra maskiner,
05:47
and that in some casesfall,
101
335369
1844
och att i vissa fall,
05:49
for exampleexempel, the casefall of a soldiersoldat
who becomesblir emotionallyemotionellt attachedbifogad
102
337237
3172
till exempel i fallet med en soldat
som blir känslomässigt fäst
05:52
to the robotrobot that they work with,
103
340433
2047
till den robot hen arbetar med,
05:54
that can be anything
from inefficientineffektiv to dangerousfarlig.
104
342504
2504
kan det bli allt från
ineffektivt till farligt.
05:58
But in other casesfall,
it can actuallyfaktiskt be usefulanvändbar
105
346551
2138
I andra fall kan
det faktiskt vara användbart
06:00
to fosterfrämja this emotionalemotionell
connectionförbindelse to robotsrobotar.
106
348713
2623
att vårda den känslomässiga
anknytningen till robotar.
Vi ser redan några
viktiga användningsområden,
06:04
We're alreadyredan seeingseende some great use casesfall,
107
352184
2134
06:06
for exampleexempel, robotsrobotar workingarbetssätt
with autisticautistisk childrenbarn
108
354342
2604
exempelvis robotar som arbetar
med autistiska barn
06:08
to engageförlova sig them in wayssätt
that we haven'thar inte seensett previouslytidigare,
109
356970
3634
för att engagera dem på sätt vi
inte har sett tidigare,
06:12
or robotsrobotar workingarbetssätt with teacherslärare to engageförlova sig
kidsbarn in learninginlärning with newny resultsresultat.
110
360628
4000
eller robotar som jobbar med lärare och
uppmuntrar barns lärande med nya resultat.
06:17
And it's not just for kidsbarn.
111
365433
1381
Det är inte bara för barn.
06:19
EarlyTidigt studiesstudier showshow that robotsrobotar
can help doctorsdoktorer and patientspatienter
112
367750
3223
Tidigare studier visar att robotar
kan hjälpa läkare och patienter
06:22
in healthhälsa carevård settingsinställningar.
113
370997
1427
i sjukvårdssituationer.
06:25
This is the PAROParo babybebis sealtäta robotrobot.
114
373535
1810
Detta är PARO, en sälbebisrobot.
06:27
It's used in nursingomvårdnad homeshem
and with dementiademens patientspatienter.
115
375369
3285
Den används på vårdhem
och med demenspatienter.
06:30
It's been around for a while.
116
378678
1570
Den har funnits ganska länge.
06:32
And I rememberkom ihåg, yearsår agosedan,
beingvarelse at a partyfest
117
380272
3325
Jag minns, för flera år sedan,
när jag var på en fest
06:35
and tellingtalande someonenågon about this robotrobot,
118
383621
2571
och berättade för någon om
den här roboten,
06:38
and her responsesvar was,
119
386216
2126
och hennes svar var,
06:40
"Oh my goshOj.
120
388366
1262
"Herregud.
06:42
That's horriblefruktansvärd.
121
390508
1188
Vad hemskt.
06:45
I can't believe we're givingger people
robotsrobotar insteadistället of humanmänsklig carevård."
122
393056
3397
Det är otroligt att vi ger folk
robotar istället för mänsklig vård."
06:50
And this is a really commonallmänning responsesvar,
123
398540
1875
Detta är ett väldigt vanligt svar,
06:52
and I think it's absolutelyabsolut correctRätta,
124
400439
2499
och jag tycker att det stämmer,
06:54
because that would be terriblefruktansvärd.
125
402962
2040
för det vore ju hemskt.
06:57
But in this casefall,
it's not what this robotrobot replacesersätter.
126
405795
2484
Men nu är det inte det som
roboten ersätter.
07:00
What this robotrobot replacesersätter is animaldjur- therapyterapi
127
408858
3120
Det som roboten ersätter är djurterapi
07:04
in contextssammanhang where
we can't use realverklig animalsdjur
128
412002
3198
i sammanhang där vi inte
kan använda riktiga djur,
07:07
but we can use robotsrobotar,
129
415224
1168
men kan använda robotar,
07:08
because people will consistentlykonsekvent treatbehandla
them more like an animaldjur- than a deviceanordning.
130
416416
5230
eftersom folk alltid kommer att
behandla dem mer som djur än en maskin.
07:15
AcknowledgingAtt erkänna this emotionalemotionell
connectionförbindelse to robotsrobotar
131
423502
2380
Att erkänna det
känslomässiga bandet till robotar
07:17
can alsoockså help us anticipateförutse challengesutmaningar
132
425906
1969
kan även hjälpa oss att förutse problem
07:19
as these devicesenheter moveflytta into more intimateintima
areasområden of people'smänniskors livesliv.
133
427899
3451
när dessa apparater flyttar in
i mer intima delar av folks liv.
07:24
For exampleexempel, is it OK
if your child'sbarnets teddyTeddy bearBjörn robotrobot
134
432111
3404
Är det till exempel OK
att ditt barns gosedjursrobot
07:27
recordsuppgifter privateprivat conversationskonversationer?
135
435539
2237
spelar in privata samtal?
07:29
Is it OK if your sexsex robotrobot
has compellingövertygande in-appi-app purchasesinköp?
136
437800
4063
Är det OK att din sexrobot har
lockande köp inuti appen?
07:33
(LaughterSkratt)
137
441887
1396
(Skratt)
07:35
Because robotsrobotar plusplus capitalismkapitalism
138
443307
2501
För robotar plus kapitalism
07:37
equalsär lika med questionsfrågor around
consumerkonsument protectionskydd and privacysekretess.
139
445832
3705
är lika med frågor kring
konsumentskydd och integritet.
07:42
And those aren'tinte the only reasonsskäl
140
450549
1612
Och det är inte de enda skälen
07:44
that our behaviorbeteende around
these machinesmaskiner could mattermateria.
141
452185
2570
till att vårt beteende kring
dessa maskiner kan spela roll.
07:48
A few yearsår after that first
initialförsta experienceerfarenhet I had
142
456747
3270
Några år efter den där
första erfarenheten jag hade
07:52
with this babybebis dinosaurdinosaurie robotrobot,
143
460041
2311
med den här dinosauriebebisroboten
07:54
I did a workshopverkstad
with my friendvän HannesHannes GassertMer från Gassert.
144
462376
2501
gjorde jag en workshop
med min vän Hannes Gassert.
07:56
And we tooktog fivefem
of these babybebis dinosaurdinosaurie robotsrobotar
145
464901
2897
Vi tog fem av dessa dinosauriebebisrobotar
07:59
and we gavegav them to fivefem teamslag of people.
146
467822
2453
och gav dem till fem grupper av människor.
08:02
And we had them namenamn them
147
470299
1697
Vi fick dem att namnge dem
08:04
and playspela with them and interactpåverka varandra with them
for about an hourtimme.
148
472020
3809
och leka med dem och interagera med dem
i ungefär en timme.
08:08
And then we unveiledavtäcktes
a hammerhammare and a hatchetHandyxa
149
476707
2206
Sen tog vi fram en hammare och en yxa
08:10
and we told them to torturetortyr
and killdöda the robotsrobotar.
150
478937
2278
och vi bad dem att
tortera och döda robotarna.
08:13
(LaughterSkratt)
151
481239
3007
(Skratt)
08:16
And this turnedvände out to be
a little more dramaticdramatisk
152
484857
2294
Det visade sig bli lite mer dramatiskt
08:19
than we expectedförväntat it to be,
153
487175
1278
än vi förväntat oss,
08:20
because noneingen of the participantsdeltagare
would even so much as strikestrejk
154
488477
3072
eftersom ingen av deltagarna
ens ville slå till
08:23
these babybebis dinosaurdinosaurie robotsrobotar,
155
491573
1307
bebisdinosaurierobotarna,
08:24
so we had to improviseimprovisera a little,
and at some pointpunkt, we said,
156
492904
5150
så vi fick improvisera lite,
och vid ett tillfälle sade vi,
"OK, ni kan rädda ert lags robot
om ni förstör ett annat lags robot."
08:30
"OK, you can savespara your team'slagets robotrobot
if you destroyförstöra anotherannan team'slagets robotrobot."
157
498078
4437
08:34
(LaughterSkratt)
158
502539
1855
(Skratt)
08:36
And even that didn't work.
They couldn'tkunde inte do it.
159
504839
2195
Inte ens det fungerade.
De kunde inte göra det.
08:39
So finallytill sist, we said,
160
507058
1151
Så till slut sade vi,
08:40
"We're going to destroyförstöra all of the robotsrobotar
161
508233
2032
"Vi kommer att förstöra alla robotarna
08:42
unlesssåvida inte someonenågon takes
a hatchetHandyxa to one of them."
162
510289
2285
om inte någon använder yxan
på en av dem."
08:45
And this guy stoodstod up,
and he tooktog the hatchetHandyxa,
163
513586
3579
Och en kille ställde sig upp, tog yxan,
08:49
and the wholehela roomrum wincedryckte
as he broughttog med the hatchetHandyxa down
164
517189
2706
och hela rummet ryckte till
när han slog ned yxan
08:51
on the robot'srobotens necknacke,
165
519919
1780
på robotens nacke,
08:53
and there was this half-jokinghalv-skämt,
half-serioushalv allvarliga momentögonblick of silencetystnad in the roomrum
166
521723
6338
och det uppstod ett
halvt skämtsamt, halvt allvarligt
ögonblick av tystnad i rummet
för den fallna roboten.
09:00
for this fallenfallen robotrobot.
167
528085
1698
09:01
(LaughterSkratt)
168
529807
1406
(Skratt)
09:03
So that was a really
interestingintressant experienceerfarenhet.
169
531237
3694
Så det var en
väldigt intressant upplevelse.
09:06
Now, it wasn'tvar inte a controlledkontrollerade
studystudie, obviouslysjälvklart,
170
534955
2459
Det var ju såklart inte en
kontrollerad studie,
09:09
but it did leadleda to some
latersenare researchforskning that I did at MITMIT
171
537438
2850
men det ledde till senare forskning
som jag gjorde på MIT
09:12
with PalashPalash NandyNandy and CynthiaCynthia BreazealMer från Breazeal,
172
540312
2228
med Palash Nandy och Cynthia Breazeal,
09:14
where we had people come into the lablabb
and smashsmash these HEXBUGsHEXBUGs är
173
542564
3627
där folk fick komma till labbet
och krossa dessa HEXBUGS
09:18
that moveflytta around in a really
lifelikeverklighetstrogna way, like insectsinsekter.
174
546215
3087
som rör sig på ett
väldigt naturtroget sätt, som insekter.
09:21
So insteadistället of choosingatt välja something cuteSöt
that people are drawndragen to,
175
549326
3134
Istället för att välja något gulligt
som människor dras till,
09:24
we chosevalde something more basicgrundläggande,
176
552484
2093
valde vi något mer simpelt,
09:26
and what we foundhittades
was that high-empathyhög empati people
177
554601
3480
och vi upptäckte att
personer med hög empati
09:30
would hesitatetveka more to hitträffa the HEXBUGSHEXBUGS är.
178
558105
2143
tvekade mer inför att krossa våra HEXBUGS.
09:33
Now this is just a little studystudie,
179
561575
1564
Det här är bara en liten studie,
09:35
but it's partdel of a largerstörre bodykropp of researchforskning
180
563163
2389
men det är en del av
ett större forskningsområde
09:37
that is startingstartande to indicateange
that there mayMaj be a connectionförbindelse
181
565576
2944
som börjar visa på att
det kan finnas en koppling
09:40
betweenmellan people'smänniskors tendenciestendenser for empathyempati
182
568544
2373
mellan folks tendenser för empati
09:42
and theirderas behaviorbeteende around robotsrobotar.
183
570941
1976
och hur de beter sig med robotar.
09:45
But my questionfråga for the comingkommande eraepok
of human-robotmänniska-robot interactioninteraktion
184
573721
3627
Men min fråga för den kommande eran
av människa-robotinteraktion
09:49
is not: "Do we empathizeempati with robotsrobotar?"
185
577372
3055
är inte: "Empatiserar vi med robotar?"
09:53
It's: "Can robotsrobotar changeByta
people'smänniskors empathyempati?"
186
581211
2920
Utan: "Kan robotar
ändra människors empati?"
09:57
Is there reasonanledning to, for exampleexempel,
187
585489
2287
Finns det exempelvis en mening med
09:59
preventförhindra your childbarn
from kickingsparkar a roboticrobot doghund,
188
587800
2333
att hindra ditt barn från att sparka
en robothund,
10:03
not just out of respectrespekt for propertyfast egendom,
189
591228
2914
inte bara av respekt för egendom,
10:06
but because the childbarn mightmakt be
more likelytroligt to kicksparka a realverklig doghund?
190
594166
2953
men för att barnet kan vara mer benäget
att sparka en riktig hund?
10:10
And again, it's not just kidsbarn.
191
598507
1883
Igen, det handlar inte bara om barn.
10:13
This is the violentvåldsam videovideo- gamesspel questionfråga,
but it's on a completelyfullständigt newny levelnivå
192
601564
4056
Det är den våldsamma datorspelsfrågan,
men på en helt ny nivå
10:17
because of this visceralvisceral physicalityphysicality
that we respondsvara more intenselyintensivt to
193
605644
4760
på grund av den här fysiska dimensionen
som vi reagerar mer intensivt på
10:22
than to imagesbilder on a screenskärm.
194
610428
1547
än bilder på en skärm.
10:25
When we behavebete sig violentlyvåldsamt towardsmot robotsrobotar,
195
613674
2578
När vi beter oss våldsamt mot robotar,
10:28
specificallyspecifikt robotsrobotar
that are designeddesignat to mimichärma life,
196
616276
3120
speciellt robotar som är designade
att likna en levande varelse,
10:31
is that a healthyfriska outletutlopp
for violentvåldsam behaviorbeteende
197
619420
3892
är det ett hälsosamt utlopp
för våldsamt beteende
10:35
or is that trainingutbildning our crueltygrymhet musclesmuskler?
198
623336
2544
eller är det en träning
av våra grymhetsmuskler?
10:39
We don't know ...
199
627511
1150
Vi vet inte...
10:42
But the answersvar to this questionfråga has
the potentialpotential to impactinverkan humanmänsklig behaviorbeteende,
200
630622
3945
Men svaret på denna fråga har potential
att påverka mänskligt beteende,
10:46
it has the potentialpotential
to impactinverkan socialsocial normsnormer,
201
634591
2768
det har potential
att påverka sociala normer,
10:49
it has the potentialpotential to inspireinspirera rulesregler
around what we can and can't do
202
637383
3849
det har potential att ge upphov till
regler om vad vi får och inte får göra
10:53
with certainvissa robotsrobotar,
203
641256
1151
med vissa robotar,
10:54
similarliknande to our animaldjur- crueltygrymhet lawslagar.
204
642431
1848
liknande våra lagar om djurplågeri.
10:57
Because even if robotsrobotar can't feel,
205
645228
2864
Även om robotar inte kan känna,
11:00
our behaviorbeteende towardsmot them
mightmakt mattermateria for us.
206
648116
3080
kan vårt beteende gentemot dem
spela en roll för oss.
11:04
And regardlessoavsett of whetherhuruvida
we endslutet up changingskiftande our rulesregler,
207
652889
2855
Oavsett om vi i slutändan
ändrar våra regler eller inte,
11:08
robotsrobotar mightmakt be ablestånd to help us
come to a newny understandingförståelse of ourselvesoss själva.
208
656926
3556
så kan robotar hjälpa oss
att få en ny förståelse för oss själva.
Det mesta av det jag lärt mig
de senaste 10 åren
11:14
MostDe flesta of what I've learnedlärt mig
over the pastdåtid 10 yearsår
209
662276
2316
11:16
has not been about technologyteknologi at all.
210
664616
2238
har inte alls handlat om teknologi.
11:18
It's been about humanmänsklig psychologypsykologi
211
666878
2503
Det har handlat om mänsklig psykologi,
11:21
and empathyempati and how we relaterelatera to othersandra.
212
669405
2603
empati och hur vi relaterar till andra.
11:25
Because when a childbarn is kindsnäll to a RoombaRoomba,
213
673524
2365
När ett barn är snällt mot en Roomba,
11:29
when a soldiersoldat triesförsök to savespara
a robotrobot on the battlefieldBattlefield,
214
677262
4015
när en soldat försöker att rädda
en robot på slagfältet,
11:33
or when a groupgrupp of people refusesvägrar
to harmskada a roboticrobot babybebis dinosaurdinosaurie,
215
681301
3638
eller när en grupp människor vägrar
att skada en dinosauriebebisrobot,
11:38
those robotsrobotar aren'tinte just motorsmotorer
and gearskugghjul and algorithmsalgoritmer.
216
686248
3191
så är robotarna inte bara
motorer och kugghjul och algoritmer.
11:42
They're reflectionsreflektioner of our ownegen humanitymänskligheten.
217
690501
1905
De är reflektioner av vår egen humanitet.
11:45
Thank you.
218
693523
1151
Tack.
11:46
(ApplauseApplåder)
219
694698
3397
(Applåder)
Translated by Fanny Matt
Reviewed by Lisbeth Pekkari

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com