ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

Kate Darling: Kodėl jaučiame emocinį ryšį su robotais?

Filmed:
2,403,010 views

Robotikos etikos srities mokslininkė Kate Darling teigia, kad nors dar negebame sukurti robotų jaučiančių emocijas, mes patys jiems jau jaučiame tam tikrus jausmus. Sužinokite, kaip esame užprogramuoti biologiškai projektuoti mūsų suvokimą apie tikslingumą ir gyvybę į robotus ir kaip tai gali padėti mums geriau suprasti save pačius.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

00:13
There was a day, about 10 yearsmetai agoprieš,
0
1047
2508
Vieną dieną, maždaug prieš 10 metų,
00:15
when I askedpaklausė a frienddraugas to holdlaikykite
a babykūdikis dinosaurdinozauras robotrobotas upsideaukštyn down.
1
3579
3944
paprašiau draugės, kad palaikytų
robotą dinozauriuką žemyn galva.
00:21
It was this toyžaislas calledvadinamas a PleoPleo
that I had orderedužsisakyti,
2
9889
3446
Tą žaislą, vardu Pleo, užsisakiau
00:25
and I was really excitedsusijaudinęs about it
because I've always lovedmyliu robotsrobotai.
3
13359
4401
ir labai juo džiaugiausi, nes man visada
patiko robotai.
00:29
And this one has really coolSaunus
technicaltechninis featuresfunkcijos.
4
17784
2279
O Pleo techninės savybės –
tiesiog nuostabios.
00:32
It had motorsvarikliai and touchpaliesti sensorsjutikliai
5
20087
2119
Jis turėjo varikliukus, lietimo jutiklius
00:34
and it had an infraredinfraraudonieji spinduliai camerafotoaparatas.
6
22230
2244
ir infraraudonųjų spindulių kamerą.
00:36
And one of the things it had
was a tiltpakreipti sensorjutiklis,
7
24498
2763
Ir dar jis turėjo vieną dalykėlį –
pakrypimo jutiklį,
00:39
so it knewžinojau what directionkryptis it was facingsusiduria su.
8
27285
2318
tad robotukas žinojo,
kur jis pakrypęs.
00:42
And when you heldsurengtas it upsideaukštyn down,
9
30095
2134
O jeigu apversdavau jį žemyn galva,
00:44
it would startpradėti to cryverkis.
10
32253
1572
jis pradėdavo verkti.
00:46
And I thought this was supersuper coolSaunus,
so I was showingparodyti it off to my frienddraugas,
11
34527
3496
Tuomet man atrodė, kad tas žaislas
nepaprastas, gyriausi juo draugei
00:50
and I said, "Oh, holdlaikykite it up by the tailuodega.
See what it does."
12
38047
2805
ir pasakiau: „Paimk jį už uodegos.
Pamatysi, kas bus.“
00:55
So we're watchingžiūriu
the theatricsteatro meno of this robotrobotas
13
43268
3625
Stebėjome, kaip įstabiai
elgiasi robotukas,
00:58
strugglekova and cryverkis out.
14
46917
2199
kaip jis priešinasi ir garsiai verkia.
01:02
And after a fewnedaug secondssekundes,
15
50767
2047
Po kelių akimirkų
01:04
it startsprasideda to bothernerimauti me a little,
16
52838
1972
man pasidarė šiek tiek nesmagu
01:07
and I said, "OK, that's enoughpakankamai now.
17
55744
3424
ir aš pasakiau: „Baikim.
01:11
Let's put him back down."
18
59930
2305
Atverskime jį.“
01:14
And then I petnaminis gyvūnėlis the robotrobotas
to make it stop cryingverkti.
19
62259
2555
Ir tuomet aš jį glosčiau, kad
jis liautųsi verkęs.
01:18
And that was kindmalonus of
a weirdkeista experiencepatirtis for me.
20
66973
2452
Man tai sukėlė keistoką jausmą.
01:22
For one thing, I wasn'tnebuvo the mostlabiausiai
maternalmotinos personasmuo at the time.
21
70084
4569
Įdomu, kad tuo metu aš nejaučiau
stiprių motiniškų jausmų.
01:26
AlthoughNors sincenuo then I've becometapti
a mothermotina, ninedevyni monthsmėnesių agoprieš,
22
74677
2731
Bet kuomet prieš devynis mėnesius
tapau motina,
01:29
and I've learnedišmoko that babieskūdikiai alsotaip pat squirmmuistytis
when you holdlaikykite them upsideaukštyn down.
23
77432
3433
supratau, kad aukštyn kojomis apversti
kūdikiai taip pat muistosi.
01:32
(LaughterJuokas)
24
80889
1563
(Juokas.)
01:35
But my responseatsakymas to this robotrobotas
was alsotaip pat interestingįdomus
25
83023
2358
Bet mano reakciją į roboto veiksmus
buvo įdomi,
01:37
because I knewžinojau exactlytiksliai
how this machinemašina workeddirbo,
26
85405
4101
nes, nors ir žinojau, kaip veikia
tas aparatas,
01:41
and yetvis dar I still feltjaučiamas
compelledpriverstas to be kindmalonus to it.
27
89530
3262
vis tiek nenorėjau jo skriausti.
01:46
And that observationstebėjimas sparkediškvėpė a curiositysmalsumas
28
94450
2707
Tas pastebėjimas man buvo toks įdomus,
01:49
that I've spentišleista the pastpraeitis decadedešimtmetis pursuingsiekti.
29
97181
2832
kad pastaruosius dešimt metų
ieškojau paaiškinimo.
01:52
Why did I comfortkomfortas this robotrobotas?
30
100911
1793
Kodėl ėmiau guosti robotą?
01:56
And one of the things I discoveredatrado
was that my treatmentgydymas of this machinemašina
31
104228
3579
Vienas iš dalykų, kuriuos supratau
buvo tai, kad mano elgesys su aparatu
01:59
was more than just an awkwardNepatogi momentmomentas
in my livinggyvenimas roomkambarys,
32
107831
3701
nebuvo vien tik keista akimirka
patirta mano namų svetainėje,
02:03
that in a worldpasaulis where we're increasinglyvis labiau
integratingintegravimas robotsrobotai into our livesgyvena,
33
111556
5420
kad mūsų pasaulyje ir gyvenamoje aplinkoje
nuolat daugėja robotų,
02:09
an instinctinstinktas like that
mightgali actuallyiš tikrųjų have consequencespasekmės,
34
117000
3126
kad šitoks instinktas kažką reiškia,
02:13
because the first thing that I discoveredatrado
is that it's not just me.
35
121452
3749
nes jau pradžioje supratau,
kad aš tokia ne viena.
02:19
In 2007, the WashingtonVašingtonas PostPost
reportedpranešta that the UnitedDidžioji StatesAmerikos militarykariuomenė
36
127249
4802
2007 m. „Washington Post“ pranešė,
kad JAV kariuomenė
02:24
was testingbandymai this robotrobotas
that defusedsušvelnintas landžemė mineskasyklos.
37
132075
3230
testuoja robotą,
išminuojantį po žeme slypinčias minas.
02:27
And the way it workeddirbo
was it was shapedformos like a stickklijuoti insectvabzdys
38
135329
2912
Tas robotas veikė šitaip:
jis buvo gyvalazdės formos
02:30
and it would walkvaikščioti
around a minefieldminų lauką on its legskojos,
39
138265
2651
ir jis eidavo po minų lauką
judindamas kojas.
02:32
and everykiekvienas time it steppedpasisekė on a minemano,
one of the legskojos would blowsmūgis up,
40
140940
3206
Kaskart jam užlipus ant minos,
mina jam nutraukdavo vieną iš kojų.
02:36
and it would continueTęsti on the other legskojos
to blowsmūgis up more mineskasyklos.
41
144170
3057
Jis nesiliaudavo judėjęs,
kad sprogtų dar daugiau minų.
02:39
And the colonelpulkininkas who was in chargemokestis
of this testingbandymai exercisepratimas
42
147251
3786
Už šias pratybas atsakingas pulkininkas
02:43
endsbaigiasi up callingskambinti it off,
43
151061
2118
neištvėrė ir atšaukė išminavimą,
02:45
because, he sayssako, it's too inhumanenežmoniška
44
153203
2435
nes, jo teigimu, buvo
pernelyg nežmoniška
02:47
to watch this damagedsugadintas robotrobotas
dragvilkite itselfpats alongkartu the minefieldminų lauką.
45
155662
4516
stebėti, kaip apgadintas robotas
šliaužia per minų lauką.
02:54
Now, what would causepriežastis
a hardenedgrūdintas militarykariuomenė officerpareigūnas
46
162978
3897
Tad kas verčia
labai patyrusį karininką
02:58
and someonekas nors like myselfsave
47
166899
2043
ir tokį žmogų kaip aš
03:00
to have this responseatsakymas to robotsrobotai?
48
168966
1857
šitaip reaguoti į robotus?
03:03
Well, of coursežinoma, we're primedvakcinacija buvo atlikta
by sciencemokslas fictionfikcija and poppopas culturekultūra
49
171537
3310
Esame prisiskaitę mokslo fantastikos
ir paveikti popkultūros,
03:06
to really want to personifyįkūnyti these things,
50
174871
2579
tad, suprantama, kad personifikuojame
šiuos dalykus,
03:09
but it goeseina a little bitšiek tiek deepergiliau than that.
51
177474
2789
bet paaiškinimas čia daug gilesnis.
03:12
It turnspasisuka out that we're biologicallybiologiškai
hardwiredhardwired to projectprojektas intenttikslas and life
52
180287
5309
Pasirodo, kad esame biologiškai
užprogramuoti sieti bet kokį, mūsų manymu,
03:17
ontoį any movementjudėjimas in our physicalfizinis spaceerdvė
that seemsatrodo autonomousautonomiška to us.
53
185620
4766
autonomišką judesį mūsų fizinėje erdvėje
su tikslingumu ir gyvybe.
03:23
So people will treatgydyk all sortsrūšiuoja
of robotsrobotai like they're alivegyvas.
54
191214
3465
Todėl žmonės elgiasi su robotais taip,
tarytum jie būtų gyvi.
03:26
These bomb-disposalbombų šalinimo unitsvienetai get namesvardai.
55
194703
2683
Tie robotai-išminuotojai
yra vadinami vardais.
03:29
They get medalsmedaliai of honorgarbė.
56
197410
1682
Jie apdovanojami aukso medaliais.
03:31
They'veJie jau had funeralslaidotuves for them
with gunginklas salutesknygoje sveikinamas.
57
199116
2325
Jie netgi laidojami
šaudant garbės salvėms.
03:34
And researchtyrimai showsparodos that we do this
even with very simplepaprasta householdnamų ūkis robotsrobotai,
58
202380
3833
Tyrimai rodo, kad taip mes elgiamės
netgi su paprastais buitiniais robotais,
03:38
like the RoombaRoomba vacuumvakuumas cleaneršvaresnis.
59
206237
2135
pavydžiui, su dulkių siurbliu „Roomba“.
03:40
(LaughterJuokas)
60
208396
1291
(Juokas.)
03:41
It's just a discdiskas that roamsroams
around your floorgrindys to cleanšvarus it,
61
209711
3089
Tai tik slankiojantis diskas valantis
jūsų grindis.
03:44
but just the factfaktas it's movingjuda
around on its ownsavo
62
212824
2306
Bet vien dėl to,
kad jis savarankiškai juda,
03:47
will causepriežastis people to namevardas the RoombaRoomba
63
215154
2167
žmonės nori vadinti jį vardu
03:49
and feel badblogai for the RoombaRoomba
when it getsgauna stuckįstrigo underpagal the couchsofa.
64
217345
3182
ir jį užjausti, kai jis
užstringa po sofa.
03:52
(LaughterJuokas)
65
220551
1865
(Juokas.)
03:54
And we can designdizainas robotsrobotai
specificallykonkrečiai to evokeiškviesti this responseatsakymas,
66
222440
3340
Galime sukurti tokius robotus,
kurie tikslingai sukels tokią reakciją,
03:57
usingnaudojant eyesakys and facesveidus or movementsjudesiai
67
225804
3461
nes jų akių ir veidų judesius
04:01
that people automaticallyautomatiškai,
subconsciouslynesąmoningai associateasocijuotos įmonės
68
229289
3259
žmonės pasąmonėje
automatiškai sieja
04:04
with statesteigia of mindprotas.
69
232572
2020
su konkrečiomis sąmonės būsenomis.
04:06
And there's an entirevisa bodykūnas of researchtyrimai
calledvadinamas human-robotžmogaus-robotas interactionsąveika
70
234616
3293
Atlikta daug tyrimų žmonių ir robotų
sąveikos srityje,
04:09
that really showsparodos how well this worksdarbai.
71
237933
1826
kurie gerai parodo, kaip išties
viskas veikia.
04:11
So for examplepavyzdys, researchersmokslininkai
at StanfordStanfordo UniversityUniversitetas foundrasta out
72
239783
3126
Pavyzdžiui, Stanfordo universiteto
mokslininkai atrado,
04:14
that it makesdaro people really uncomfortablenepatogus
73
242933
2001
kad žmonės jaučiasi nejaukiai
04:16
when you askpaklausk them to touchpaliesti
a robot'sRoboto privateprivatus partsdalys.
74
244958
2472
paprašyti paliesti
robotų intymias dalis.
04:19
(LaughterJuokas)
75
247454
2120
(Juokas.)
04:21
So from this, but from manydaug other studiesstudijos,
76
249598
2023
Tad iš šio ir daugybės kitų tyrimų
04:23
we know, we know that people
respondatsakyti to the cuesužuominas givenpateiktas to them
77
251645
4223
žinome, kad žmonės
reaguoja į signalus
04:27
by these lifelikerealiame gyvenime machinesmašinos,
78
255892
2022
skleidžiamus į žmones panašių prietaisų
04:29
even if they know that they're not realrealus.
79
257938
2017
netgi suvokdami,
kad prietaisai negyvi.
04:33
Now, we're headedvadovavo towardslink a worldpasaulis
where robotsrobotai are everywherevisur.
80
261654
4056
Ateities pasaulyje robotų bus visur.
04:37
RoboticRobotų technologytechnologija is movingjuda out
from behindatsilieka factorygamykla wallssienos.
81
265734
3065
Robotikos technologijos išėjo
iš už gamyklų sienų.
04:40
It's enteringįeiti workplacessaugių darbo vietų, householdsnamų ūkiai.
82
268823
3013
Jos smelkiasi į darbo vietas, buitį.
04:43
And as these machinesmašinos that can senseprasme
and make autonomousautonomiška decisionssprendimai and learnmokytis
83
271860
6209
Šie jutiklius turintys aparatai,
galintys savarankiškai spręsti, mokytis,
04:50
enterįveskite into these sharedbendrai naudojamas spaceserdvės,
84
278093
2552
smelkiasi į bendrąsias erdves.
04:52
I think that maybe the bestgeriausia
analogyanalogija we have for this
85
280669
2496
Todėl manau, kad, galbūt,
geriausia analogija būtų
04:55
is our relationshipsantykiai with animalsgyvūnai.
86
283189
1935
mūsų ryšys su gyvūnais.
04:57
ThousandsTūkstančiai of yearsmetai agoprieš,
we startedprasidėjo to domesticateprijaukinti animalsgyvūnai,
87
285523
3888
Prieš tūkstančius metų
pradėjome jaukintis gyvūnus.
05:01
and we trainedtreniruotas them for work
and weaponryginkluotė and companionshipdraugė.
88
289435
4045
Mokėme juos dirbti,
padėti kovoti ir būti mūsų draugais.
05:05
And throughoutvisoje historyistorija, we'vemes turime treatedgydomas
some animalsgyvūnai like toolsįrankiai or like productsproduktai,
89
293504
4985
Per visą istoriją į kai kuriuos gyvūnus
žiūrėjome kaip į įrankius ar produktus,
05:10
and other animalsgyvūnai,
we'vemes turime treatedgydomas with kindnessė
90
298513
2174
o kitiems gyvūnams rodėme gerumą
05:12
and we'vemes turime givenpateiktas a placevieta in societyvisuomenė
as our companionskompanionai.
91
300711
3078
ir suteikėme jiems visuomeninę
mūsų palydovų funkciją.
05:15
I think it's plausiblepatikimas we mightgali startpradėti
to integrateintegruoti robotsrobotai in similarpanašus waysbūdai.
92
303813
3849
Man atrodo visai tikėtina,
kad robotus irgi panašiai integruosime.
05:21
And sure, animalsgyvūnai are alivegyvas.
93
309484
3096
Aišku, gyvūnai yra gyvi.
05:24
RobotsRobotai are not.
94
312604
1150
Robotai – ne.
05:27
And I can tell you,
from workingdirba with roboticistsroboticists,
95
315626
2580
Kadangi dirbu su robotikos
specialistais, galiu teigti,
05:30
that we're prettygana fartoli away from developingplėtojant
robotsrobotai that can feel anything.
96
318230
3522
kad mums dar beveik neįmanoma
sukurti jaučiančius robotus.
05:35
But we feel for them,
97
323072
1460
Bet mes jiems kažką jaučiame.
05:37
and that mattersklausimai,
98
325835
1207
Ir tai svarbu,
05:39
because if we're tryingbandau to integrateintegruoti
robotsrobotai into these sharedbendrai naudojamas spaceserdvės,
99
327066
3627
nes jeigu siekiame integruoti robotus
į mūsų bendrąsias erdves,
05:42
we need to understandsuprasti that people will
treatgydyk them differentlyskirtingai than other devicesprietaisai,
100
330717
4628
turime suvokti, kad žmonės elgiasi su jais
kitaip nei su kitais įrenginiais.
05:47
and that in some casesatvejai,
101
335369
1844
Ir kad kartais,
05:49
for examplepavyzdys, the caseatvejis of a soldierkareivis
who becomestampa emotionallyemociškai attachedpridedamas
102
337237
3172
pavyzdžiui, kareivio, kuris
emociškai prisiriša
05:52
to the robotrobotas that they work with,
103
340433
2047
prie roboto, su kuriuo dirba,
05:54
that can be anything
from inefficientneefektyvus to dangerouspavojingas.
104
342504
2504
tai gali būti ir neproduktyvu, ir
netgi pavojinga.
05:58
But in other casesatvejai,
it can actuallyiš tikrųjų be usefulnaudinga
105
346551
2138
Tačiau kitais atvejais
gali būti naudinga
06:00
to fosterskatinti this emotionalemocinis
connectionryšys to robotsrobotai.
106
348713
2623
puoselėti šį emocinį ryšį su robotu.
06:04
We're alreadyjau seeingpamatyti some great use casesatvejai,
107
352184
2134
Jau turime puikių robotų
naudojimo pavyzdžių,
06:06
for examplepavyzdys, robotsrobotai workingdirba
with autisticautizmo childrenvaikai
108
354342
2604
pavyzdžiui, kai robotai dirba
su vaikais autistais.
06:08
to engageužsiimti them in waysbūdai
that we haven'tne seenmatė previouslyanksčiau,
109
356970
3634
Nieko panašaus nesame matę praeityje.
06:12
or robotsrobotai workingdirba with teachersmokytojai to engageužsiimti
kidsvaikai in learningmokymasis with newnaujas resultsrezultatai.
110
360628
4000
Arba kai robotus pasitelkia mokytojai
siekdami geresnių mokymosi rezultatų.
06:17
And it's not just for kidsvaikai.
111
365433
1381
Ir tai ne tik su vaikais.
06:19
EarlyAnksti studiesstudijos showRodyti that robotsrobotai
can help doctorsgydytojai and patientspacientai
112
367750
3223
Jau yra tyrimų apie robotų gebėjimą
padėt gydytojams ir pacientams
06:22
in healthsveikata carepriežiūra settingsparametrai.
113
370997
1427
sveikatos priežiūros srityje.
06:25
This is the PAROPARO babykūdikis sealantspaudas robotrobotas.
114
373535
1810
Tai – PARO, ruoniukas robotas.
06:27
It's used in nursingslaugos homesnamus
and with dementiademencija patientspacientai.
115
375369
3285
Jis naudojamas slaugos namuose
prižiūrint demencijos pacientus.
06:30
It's been around for a while.
116
378678
1570
Ir tai jau nėra naujiena.
06:32
And I rememberPrisiminti, yearsmetai agoprieš,
beingesamas at a partyvakarėlis
117
380272
3325
Pamenu, kaip prieš nemažai metų
vieno vakarėlio metu
06:35
and tellingsakydamas someonekas nors about this robotrobotas,
118
383621
2571
vienai moteriai papasakojau apie šį robotą
06:38
and her responseatsakymas was,
119
386216
2126
Ji atsakė:
06:40
"Oh my goshDieve.
120
388366
1262
„Oi.
06:42
That's horriblesiaubingas.
121
390508
1188
Kaip baisu.
06:45
I can't believe we're givingduoti people
robotsrobotai insteadvietoj to of humanžmogus carepriežiūra."
122
393056
3397
Neįtikėta, dabar ne žmonės, o robotai
paliekami rūpintis kitais žmonėmis.“
06:50
And this is a really commonbendras responseatsakymas,
123
398540
1875
Tokia reakcija gana įprasta
06:52
and I think it's absolutelyvisiškai correctteisingai,
124
400439
2499
ir, mano manymu, visai teisinga,
06:54
because that would be terriblebaisi.
125
402962
2040
nes tai būtų išties baisu.
06:57
But in this caseatvejis,
it's not what this robotrobotas replacespakeičia.
126
405795
2484
Bet šiuo atveju kalbame
ne apie ką pakeičia robotas.
07:00
What this robotrobotas replacespakeičia is animalgyvūnas therapyterapija
127
408858
3120
Šis robotas naudojamas vietoj
gyvūnų terapijos
07:04
in contextskontekstuose where
we can't use realrealus animalsgyvūnai
128
412002
3198
tokioje situacijoje,
kur neįmanoma pasitelkti tikrus gyvūnus,
07:07
but we can use robotsrobotai,
129
415224
1168
bet robotus – taip,
07:08
because people will consistentlynuosekliai treatgydyk
them more like an animalgyvūnas than a deviceprietaisas.
130
416416
5230
nes žmonės linkę elgtis su jais tarytum
su gyvūnais, bet ne prietaisais.
07:15
AcknowledgingPripažįstant this emotionalemocinis
connectionryšys to robotsrobotai
131
423502
2380
Suvokimas apie šį emocinį ryšį su robotais
07:17
can alsotaip pat help us anticipatetikėtis challengesiššūkiai
132
425906
1969
gali padėti ir numatant problemas,
07:19
as these devicesprietaisai movejudėti into more intimateintymus
areassrityse of people'sžmonių livesgyvena.
133
427899
3451
kai šie įrenginiai panaudojami
intymesnėse gyvenimo srityse.
07:24
For examplepavyzdys, is it OK
if your child'svaiko teddymeškiukas bearturėti robotrobotas
134
432111
3404
Pavyzdžiui, ar gerai, jeigu
jūsų vaiko meškiukas robotas
07:27
recordsįrašai privateprivatus conversationspokalbiai?
135
435539
2237
įrašo privačius pokalbius?
07:29
Is it OK if your sexseksas robotrobotas
has compellingįtikinamų in-appprogramėlėje purchasespirkimai?
136
437800
4063
Ar gerai, jeigu sekso robotas
siūlo patrauklius mokamus priedus?
07:33
(LaughterJuokas)
137
441887
1396
(Juokas.)
07:35
Because robotsrobotai plusplius capitalismkapitalizmas
138
443307
2501
Nes robotai plius kapitalizmas
07:37
equalslygus questionsklausimai around
consumervartotojas protectionapsauga and privacyPrivatumas.
139
445832
3705
susiję su klausimais apie
vartotojų apsaugą ir privatumą.
07:42
And those aren'tnėra the only reasonsmotyvai
140
450549
1612
Ir tai nėra vienintelės priežastys,
07:44
that our behaviorelgesys around
these machinesmašinos could matterklausimas.
141
452185
2570
dėl kurių mūsų elgesys
su šiais įrenginiais svarbus.
07:48
A fewnedaug yearsmetai after that first
initialpradinis experiencepatirtis I had
142
456747
3270
Praėjus keleriems metams
po mano pirmojo patyrimo
07:52
with this babykūdikis dinosaurdinozauras robotrobotas,
143
460041
2311
su tuo dinozauriuku robotu
07:54
I did a workshopseminaras
with my frienddraugas HannesHannes GassertGassert.
144
462376
2501
vedžiau seminarą su savo draugu
Hannes Gassert.
07:56
And we tookpaėmė fivepenki
of these babykūdikis dinosaurdinozauras robotsrobotai
145
464901
2897
Penkis tokius
dinozauriukus robotus
07:59
and we gavedavė them to fivepenki teamskomandos of people.
146
467822
2453
davėme penkioms grupėms žmonių.
08:02
And we had them namevardas them
147
470299
1697
Paprašėme duoti jiems vardus,
08:04
and playGroti with them and interactbendrauti with them
for about an hourvalandą.
148
472020
3809
su jais pažaisti ir pabūti apie valandą.
08:08
And then we unveiledpristatytas
a hammerplaktukas and a hatchetkirvis
149
476707
2206
Po to parodėme plaktuką ir kirvuką
08:10
and we told them to torturekankinimas
and killnužudyti the robotsrobotai.
150
478937
2278
ir liepėme kankinti ir sunaikinti robotus.
08:13
(LaughterJuokas)
151
481239
3007
(Juokas.)
08:16
And this turnedPaaiškėjo out to be
a little more dramaticdramatiškas
152
484857
2294
Rezultatas buvo dramatiškesnis
08:19
than we expectedtikimasi it to be,
153
487175
1278
nei tikėjomės,
08:20
because nonenė vienas of the participantsdalyviai
would even so much as strikestreikas
154
488477
3072
nes nė vienas iš tyrimo dalyvių
nesutiko net suduoti
08:23
these babykūdikis dinosaurdinozauras robotsrobotai,
155
491573
1307
dinozauriukams robotams.
08:24
so we had to improviseimprovizuoti a little,
and at some pointtaškas, we said,
156
492904
5150
Mums teko improvizuoti
ir kažkuriuo momentu pasakėme:
08:30
"OK, you can savesutaupyti your team'skomandos robotrobotas
if you destroysunaikinti anotherkitas team'skomandos robotrobotas."
157
498078
4437
„Galėsite pasilikti savo robotą,
jeigu sunaikinsite kitos grupės robotą."
08:34
(LaughterJuokas)
158
502539
1855
(Juokas.)
08:36
And even that didn't work.
They couldn'tnegalėjo do it.
159
504839
2195
Ir netgi su tuo jie nesutiko.
Negalėjo.
08:39
So finallypagaliau, we said,
160
507058
1151
Tada mes pasakėme:
08:40
"We're going to destroysunaikinti all of the robotsrobotai
161
508233
2032
„Sunaikinsime visus robotus
08:42
unlessnebent someonekas nors takes
a hatchetkirvis to one of them."
162
510289
2285
jeigu nesukaposite bent vieno iš jų.“
08:45
And this guy stoodstovėjo up,
and he tookpaėmė the hatchetkirvis,
163
513586
3579
Vienas vyrukas atsistojo
ir paėmė kirvuką.
08:49
and the wholevisa roomkambarys wincedwinced
as he broughtatnešė the hatchetkirvis down
164
517189
2706
Jam nuleidus kirvuką
ant roboto kaklo
08:51
on the robot'sRoboto neckkaklas,
165
519919
1780
visi susigūžė
08:53
and there was this half-jokingpusiau juokauja,
half-seriouspusiau rimtai momentmomentas of silencetyla in the roomkambarys
166
521723
6338
ir patalpoje stojo tyla,
pusiau juoko, pusiau rimties momentas,
09:00
for this fallennukrito robotrobotas.
167
528085
1698
kuomet roboto neliko.
09:01
(LaughterJuokas)
168
529807
1406
(Juokas.)
09:03
So that was a really
interestingįdomus experiencepatirtis.
169
531237
3694
Tas patyrimas buvo labai įdomus.
09:06
Now, it wasn'tnebuvo a controlledkontroliuojama
studystudijuoti, obviouslyakivaizdu,
170
534955
2459
Ir nors tai nebuvo tikras ekperimentas,
akivaizdu,
09:09
but it did leadvadovauti to some
latervėliau researchtyrimai that I did at MITMIT
171
537438
2850
bet jis davė pradžią vėlesniam tyrimui,
kurį atlikau Masačiusetso technologijos institute
09:12
with PalashJurgita NandyStanislovas and CynthiaCynthia BreazealBreazeal,
172
540312
2228
drauge su Palash Nandy
ir Cynthia Breazeal.
09:14
where we had people come into the lablaboratorija
and smashsutriuškinti these HEXBUGsHEXBUGs
173
542564
3627
Tuome pakvietėme žmones į laboratoriją,
kad jie sutraiškytų „HEXBUG“ robotus,
09:18
that movejudėti around in a really
lifelikerealiame gyvenime way, like insectsvabzdžiai.
174
546215
3087
kurie juda labai tikroviškai,
kaip tikri vabzdžiai.
09:21
So insteadvietoj to of choosingrenkantis something cutemielas
that people are drawntraukiamas to,
175
549326
3134
Šiuo atveju rinkomės ne kažką mielo,
kas traukia žmones,
09:24
we chosepasirinkote something more basicpagrindinis,
176
552484
2093
bet paprastą dalyką.
09:26
and what we foundrasta
was that high-empathyaukštas-empatija people
177
554601
3480
Supratome, kad žmonės, gebantys
giliai užjausti kitus,
09:30
would hesitatedvejoti more to hitnukentėti the HEXBUGSHEXBUGS.
178
558105
2143
lūkuriuoja ilgiau prieš trankydami
prietaisus.
09:33
Now this is just a little studystudijuoti,
179
561575
1564
Tai tik mažas tyrimas,
09:35
but it's partdalis of a largerdidesnis bodykūnas of researchtyrimai
180
563163
2389
bet jis yra dalis didesnio tyrimų bloko,
09:37
that is startingpradedant to indicatenurodykite
that there mayGegužė be a connectionryšys
181
565576
2944
leidžiančio manyti, kad
gali egzistuoti ryšys
09:40
betweentarp people'sžmonių tendenciestendencijos for empathyempatija
182
568544
2373
tarp žmonių polinkio užjausti kitus
09:42
and their behaviorelgesys around robotsrobotai.
183
570941
1976
ir jų elgesio su robotais.
09:45
But my questionklausimas for the comingartėja eraera
of human-robotžmogaus-robotas interactionsąveika
184
573721
3627
Tačiau artėjant
žmonių ir robotų sąveikos erai
09:49
is not: "Do we empathizeįsijausti with robotsrobotai?"
185
577372
3055
klausiu ne „Ar užjaučiame robotus?“,
09:53
It's: "Can robotsrobotai changekeisti
people'sžmonių empathyempatija?"
186
581211
2920
bet „Ar robotai gali pakeisti žmonių
gebėjimą užjausti kitą?“
09:57
Is there reasonpriežastis to, for examplepavyzdys,
187
585489
2287
Ar turėtume neleisti
09:59
preventužkirsti kelią your childvaikas
from kickingspardymas a roboticrobotas dogšuo,
188
587800
2333
vaikui įspirti šuniui robotui,
10:03
not just out of respectpagarba for propertynuosavybė,
189
591228
2914
ne todėl, kad daiktus reikia tausoti
10:06
but because the childvaikas mightgali be
more likelytikėtina to kicksmūgis a realrealus dogšuo?
190
594166
2953
bet todėl, kad kitaip jis
greičiausiai įspirs ir gyvam šuniui?
10:10
And again, it's not just kidsvaikai.
191
598507
1883
Vėlgi, tai tinka ne tik vaikams.
10:13
This is the violentsmurtinis videovideo gamesžaidimai questionklausimas,
but it's on a completelyvisiškai newnaujas levellygis
192
601564
4056
Tai gali padėti atsakyti į klausimus apie
smurtinius video žaidimus,
10:17
because of this visceralvidaus organų physicalityfizinė prigimtis
that we respondatsakyti more intenselyintensyviai to
193
605644
4760
nes į tokį intuityvų fiziškumą
reaguojame daug intensyviau
10:22
than to imagesvaizdai on a screenekranas.
194
610428
1547
nei į vaizdus ekrane.
10:25
When we behaveelgtis violentlyžiauriai towardslink robotsrobotai,
195
613674
2578
Ar smurtaudami prieš robotus,
10:28
specificallykonkrečiai robotsrobotai
that are designedsuprojektuotas to mimicimituoti life,
196
616276
3120
ypač prieš tokius, kurie sukurti
gyvybei imituoti,
10:31
is that a healthysveikas outletlizdas
for violentsmurtinis behaviorelgesys
197
619420
3892
sveiku būdu išliejame agresiją,
10:35
or is that trainingmokymas our crueltyžiaurumas musclesraumenys?
198
623336
2544
ar treniruojame žiaurumo raumenis?
10:39
We don't know ...
199
627511
1150
Atsakymo nežinome...
10:42
But the answeratsakyti to this questionklausimas has
the potentialpotencialus to impactpoveikis humanžmogus behaviorelgesys,
200
630622
3945
Bet atsakyme į šį klausimą slypi
potencialas paveikti žmonių elgesį,
10:46
it has the potentialpotencialus
to impactpoveikis socialsocialinis normsnormos,
201
634591
2768
paveikti socialines normas,
10:49
it has the potentialpotencialus to inspireįkvėpti rulestaisyklės
around what we can and can't do
202
637383
3849
padėti kuriant taisykles,
ką galime ir ko negalime daryti
10:53
with certaintam tikras robotsrobotai,
203
641256
1151
su tam tikrais robotais,
10:54
similarpanašus to our animalgyvūnas crueltyžiaurumas lawsįstatymai.
204
642431
1848
panašias į draudimą skriausti gyvūnus.
10:57
Because even if robotsrobotai can't feel,
205
645228
2864
Nes net jeigu robotai ir neturi jausmų,
11:00
our behaviorelgesys towardslink them
mightgali matterklausimas for us.
206
648116
3080
kaip mes su jais elgiamės yra svarbu.
11:04
And regardlessnepriklausomai of whetherar
we endgalas up changingkeičiasi our rulestaisyklės,
207
652889
2855
Ir nesvarbu, kokios galų gale bus
mūsų taisyklės,
11:08
robotsrobotai mightgali be ablegalingas to help us
come to a newnaujas understandingsuprasti of ourselvesmes patys.
208
656926
3556
robotai gali padėti mums
geriau suprasti pačius save.
11:14
MostDauguma of what I've learnedišmoko
over the pastpraeitis 10 yearsmetai
209
662276
2316
Per pastaruosius 10 metų
daugiausiai išmokau
11:16
has not been about technologytechnologija at all.
210
664616
2238
visai ne apie technologijas,
11:18
It's been about humanžmogus psychologypsichologija
211
666878
2503
o apie žmonių psichologiją,
11:21
and empathyempatija and how we relatesusiję to otherskiti.
212
669405
2603
užuojautos jausmą ir tarpusavio santykius.
11:25
Because when a childvaikas is kindmalonus to a RoombaRoomba,
213
673524
2365
Kai vaikas yra geras „Roombai“,
11:29
when a soldierkareivis triesbando to savesutaupyti
a robotrobotas on the battlefieldmūšio lauke,
214
677262
4015
kai kareivis stengiasi išgelbėti robotą
minų lauke,
11:33
or when a groupgrupė of people refusesatsisako
to harmžala a roboticrobotas babykūdikis dinosaurdinozauras,
215
681301
3638
ar kai žmonių grupė atsisako
žaloti dinozauriuką robotą,
11:38
those robotsrobotai aren'tnėra just motorsvarikliai
and gearsįrankiai and algorithmsalgoritmai.
216
686248
3191
visi tie robotai nėra vien tik varikliai,
mechanizmai ar algoritmai.
11:42
They're reflectionsAtspindžiai of our ownsavo humanityžmonija.
217
690501
1905
Jie – mūsų žmoniškumo atspindys.
11:45
Thank you.
218
693523
1151
Ačiū.
11:46
(ApplausePlojimai)
219
694698
3397
(Plojimai.)

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee