ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

Kejt Darling (Kate Darling): Zašto osećamo emocionalnu vezu sa robotima

Filmed:
2,403,010 views

Daleko smo od razvijanja robota koji osećaju, ali mi već imamo osećanja prema njima, kaže etičarka za robotiku Kejt Darling, a takav instinkt može imati posledice. Naučite više o tome kako smo biološki predodređeni da projektujemo smisao i život na mašine, i kako nam to može pomoći da bolje razumemo sebe.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

00:13
There was a day, about 10 yearsгодине agoпре,
0
1047
2508
Jednog dana, pre oko 10 godina,
00:15
when I askedпитао a friendпријатељ to holdдржати
a babyбеба dinosaurdinosaurus robotробот upsideгоре down.
1
3579
3944
zamolila sam prijatelja da drži
robota bebu dinosaurusa naopačke.
00:21
It was this toyиграчка calledпозвани a PleoPleo
that I had orderedнаручио,
2
9889
3446
Bila je to igračka po imenu Plio
koju sam naručila,
00:25
and I was really excitedузбуђени about it
because I've always lovedвољен robotsроботи.
3
13359
4401
i zbog nje sam bila jako uzbuđena
jer sam oduvek volela robote.
00:29
And this one has really coolхладан
technicalтехнички featuresКарактеристике.
4
17784
2279
A ovaj ima stvarno kul tehnička svojstva.
00:32
It had motorsмотори and touchдодирни sensorsсензори
5
20087
2119
Imao je motor, senzore dodira
00:34
and it had an infraredинфрацрвени cameraКамера.
6
22230
2244
i infracrvenu kameru.
00:36
And one of the things it had
was a tiltнагиб sensorсензор,
7
24498
2763
Još jedna od stvari koju je imao
bio je senzor naginjanja,
00:39
so it knewзнала what directionправац it was facingокренути.
8
27285
2318
pa je znao u kom smeru je okrenut.
00:42
And when you heldОдржан it upsideгоре down,
9
30095
2134
Ako biste ga držali naopačke,
00:44
it would startпочетак to cryплач.
10
32253
1572
počeo bi da plače.
00:46
And I thought this was superСупер coolхладан,
so I was showingпоказивање it off to my friendпријатељ,
11
34527
3496
Mislila sam da je ovo jako zabavno,
pa sam ga pokazala prijatelju,
00:50
and I said, "Oh, holdдржати it up by the tailРеп.
See what it does."
12
38047
2805
i rekla sam: „Drži ga za rep.
Videćeš šta radi.“
00:55
So we're watchingгледа
the theatricsteatralnost of this robotробот
13
43268
3625
I tako smo gledali performans ovog robota
00:58
struggleборба and cryплач out.
14
46917
2199
koji se borio i plakao.
01:02
And after a fewнеколико secondsсекунде,
15
50767
2047
Nakon nekoliko sekundi,
01:04
it startsпочиње to bothersmeta me a little,
16
52838
1972
počelo je malo da mi smeta,
01:07
and I said, "OK, that's enoughдовољно now.
17
55744
3424
pa sam rekla: „Okej, sad je dosta.
01:11
Let's put him back down."
18
59930
2305
Hajde da ga spustimo dole.“
01:14
And then I petКућни љубимац the robotробот
to make it stop cryingplakanje.
19
62259
2555
Zatim sam mazila robota
da bi prestao da plače.
01:18
And that was kindкинд of
a weirdчудан experienceискуство for me.
20
66973
2452
I to mi je bilo prilično čudno iskustvo.
01:22
For one thing, I wasn'tније the mostнајвише
maternalmaterinski personособа at the time.
21
70084
4569
Prvo, tada baš i nisam imala
majčinski instinkt.
01:26
AlthoughIako sinceОд then I've becomeпостати
a motherмајка, nineдевет monthsмесеци agoпре,
22
74677
2731
Iako sam od tada postala majka,
pre devet meseci,
01:29
and I've learnedнаучио that babiesбебе alsoтакође squirmpokretljivi
when you holdдржати them upsideгоре down.
23
77432
3433
i shvatila da se i bebe vrpolje
kada ih držite naopačke.
01:32
(LaughterSmeh)
24
80889
1563
(Smeh)
01:35
But my responseодговор to this robotробот
was alsoтакође interestingзанимљиво
25
83023
2358
Moja reakcija na ovog robota
je bila zanimljiva
01:37
because I knewзнала exactlyбаш тако
how this machineмашина workedрадио је,
26
85405
4101
i zato što sam tačno znala
kako ova mašina radi,
01:41
and yetјош увек I still feltосетио
compelledприсиљено to be kindкинд to it.
27
89530
3262
a ipak sam se osećala primorano
da budem dobra prema njoj.
01:46
And that observationпосматрање sparkedизазвао a curiosityрадозналост
28
94450
2707
To opažanje je izazvalo radoznalost
01:49
that I've spentпотрошено the pastпрошлост decadeдекада pursuingследи.
29
97181
2832
koju sam sledila proteklih deset godina.
01:52
Why did I comfortудобност this robotробот?
30
100911
1793
Zašto sam tešila ovog robota?
01:56
And one of the things I discoveredоткривени
was that my treatmentтретман of this machineмашина
31
104228
3579
Jedna od stvari koju sam otkrila
je da je moje ponašanje prema ovoj mašini
01:59
was more than just an awkwardneugodno momentтренутак
in my livingживи roomсоба,
32
107831
3701
bilo više od neprijatnog trenutka
u mojoj dnevnoj sobi,
02:03
that in a worldсвет where we're increasinglyсве више
integratingинтегрирање robotsроботи into our livesживи,
33
111556
5420
da u svetu u kome robote
sve više uključujemo u svoje živote
02:09
an instinctинстинкт like that
mightМожда actuallyзаправо have consequencesпоследице,
34
117000
3126
takav instinkt u stvari
može imati posledice,
02:13
because the first thing that I discoveredоткривени
is that it's not just me.
35
121452
3749
jer sam prvo otkrila
da nisam samo ja u pitanju.
02:19
In 2007, the WashingtonWashington PostPost
reportedпријавили that the UnitedUjedinjeni StatesDržava militaryвојска
36
127249
4802
List „Vašington post“ je 2007. godine
izvestio da je vojska SAD-a
02:24
was testingтестирање this robotробот
that defusedдефусед landземљиште minesмине.
37
132075
3230
testirala nekog robota
koji je uklanjao mine.
02:27
And the way it workedрадио је
was it was shapedобликован like a stickштап insectинсект
38
135329
2912
Radio je tako što je imao oblik
izduženog insekta
02:30
and it would walkходати
around a minefieldminsko polje on its legsноге,
39
138265
2651
koji bi šetao po minskom polju
na svojim nogama,
02:32
and everyсваки time it steppedзауставио се on a mineмој,
one of the legsноге would blowудари up,
40
140940
3206
a svaki put kad bi stao na minu,
jedna noga bi mu eksplodirala,
02:36
and it would continueНастави on the other legsноге
to blowудари up more minesмине.
41
144170
3057
i nastavio bi na ostalim nogama
da razminira još mina.
02:39
And the colonelPukovnik who was in chargeпуњење
of this testingтестирање exerciseвежбање
42
147251
3786
Pukovnik koji je bio zadužen za ovu vežbu
02:43
endsКрајеви up callingзове it off,
43
151061
2118
ju je na kraju otkazao,
02:45
because, he saysкаже, it's too inhumanenehumano
44
153203
2435
jer, kako kaže, previše je nehumano
02:47
to watch this damagedоштећено robotробот
dragпревуците itselfсам alongзаједно the minefieldminsko polje.
45
155662
4516
gledati oštećenog robota
kako se vuče minskim poljem.
02:54
Now, what would causeузрок
a hardenedојачан militaryвојска officerофицир
46
162978
3897
E sad, šta bi nateralo očeličenog vojnika
02:58
and someoneнеко like myselfЈа сам
47
166899
2043
i nekog kao što sam ja
03:00
to have this responseодговор to robotsроботи?
48
168966
1857
na ovakvu reakciju na robote?
03:03
Well, of courseкурс, we're primedpripremljen
by scienceНаука fictionфикција and popПоп cultureкултура
49
171537
3310
Pa, naravno, naveli su nas
naučna fantastika i masovna kultura
03:06
to really want to personifypersonifikujemo these things,
50
174871
2579
da zaista želimo
da personifikujemo ove stvari,
03:09
but it goesиде a little bitмало deeperдубље than that.
51
177474
2789
ali istina ide malo dublje od toga.
03:12
It turnsокреће се out that we're biologicallyбиолошки
hardwiredkoji je spojen to projectпројекат intentнамера and life
52
180287
5309
Ispostavlja se da nam je biološki urođeno
da projektujemo smisao i život
03:17
ontoна any movementпокрет in our physicalфизички spaceпростор
that seemsИзгледа autonomousаутономно to us.
53
185620
4766
na bilo šta što se kreće u fizičkom svetu
što nam se čini samostalno.
03:23
So people will treatлијечити all sortsсортс
of robotsроботи like they're aliveжив.
54
191214
3465
Tako da će ljudi tretirati
sve vrste robota kao da su živi.
03:26
These bomb-disposalodred za bombe unitsјединице get namesимена.
55
194703
2683
Ovi koji uklanjaju bombe dobijaju imena.
03:29
They get medalsmedalje of honorчаст.
56
197410
1682
Dobijaju medalje časti.
03:31
They'veOni su had funeralssahrane for them
with gunпиштољ salutestituliranja.
57
199116
2325
Organizovane su im sahrane
uz počasnu paljbu.
03:34
And researchистраживање showsпоказује that we do this
even with very simpleједноставно householdдомаћинство robotsроботи,
58
202380
3833
Istraživanje pokazuje da radimo isto to
čak i sa prostim kućnim robotima,
03:38
like the Roomba"Rumbom" vacuumвакум cleanerчистач.
59
206237
2135
kao što je usisivač Rumba.
03:40
(LaughterSmeh)
60
208396
1291
(Smeh)
03:41
It's just a discdisk that roamsluta
around your floorпод to cleanчист it,
61
209711
3089
To je samo disk koji tumara
vašim podom i čisti ga,
03:44
but just the factчињеница it's movingкретање
around on its ownвластити
62
212824
2306
ali sama činjenica da se sam kreće okolo
03:47
will causeузрок people to nameиме the Roomba"Rumbom"
63
215154
2167
navešće ljude da mu daju ime
03:49
and feel badлоше for the Roomba"Rumbom"
when it getsдобива stuckзаглавити underиспод the couchкауч.
64
217345
3182
i da ga sažaljevaju
kad se zaglavi ispod kauča.
03:52
(LaughterSmeh)
65
220551
1865
(Smeh)
03:54
And we can designдизајн robotsроботи
specificallyпосебно to evokeевоке this responseодговор,
66
222440
3340
Možemo posebno dizajnirati robote
da izazovu ovu reakciju,
03:57
usingКористећи eyesочи and facesлица or movementsпокрета
67
225804
3461
koristeći oči, lice ili pokrete
04:01
that people automaticallyаутоматски,
subconsciouslypodsvesno associatesaradnik
68
229289
3259
koje ljudi automatski, podsvesno povezuju
04:04
with statesдржаве of mindум.
69
232572
2020
sa stanjem svesti.
Postoji čitava oblast istraživanja
zvana interakcija čoveka i robota
04:06
And there's an entireцео bodyтело of researchистраживање
calledпозвани human-robotljudsko-robota interactionинтеракција
70
234616
3293
koja pokazuje kako ovo funkcioniše.
04:09
that really showsпоказује how well this worksИзвођење радова.
71
237933
1826
04:11
So for exampleпример, researchersистраживачи
at StanfordStanford UniversityUniverzitet foundнашао out
72
239783
3126
Na primer, istraživači
sa Stenforda su otkrili
04:14
that it makesчини people really uncomfortableнеудобан
73
242933
2001
da je ljudima jako neprijatno
ako im tražite da dotaknu
intimne delove robota.
04:16
when you askпитати them to touchдодирни
a robot'sRobot je privateприватни partsделови.
74
244958
2472
04:19
(LaughterSmeh)
75
247454
2120
(Smeh)
04:21
So from this, but from manyмноги other studiesстудије,
76
249598
2023
Iz ovog, ali i mnogih drugih istraživanja,
04:23
we know, we know that people
respondодговори to the cuessignale givenдато to them
77
251645
4223
znamo da ljudi reaguju na date signale
ovih čovekolikih mašina,
04:27
by these lifelikeћiv machinesмашине,
78
255892
2022
04:29
even if they know that they're not realправи.
79
257938
2017
iako znaju da nisu prave.
04:33
Now, we're headedна челу towardsка a worldсвет
where robotsроботи are everywhereсвуда.
80
261654
4056
Uskoro ćemo živeti u svetu
u kome su roboti svuda.
04:37
RoboticRobotski technologyтехнологија is movingкретање out
from behindиза factoryфабрика wallsзидови.
81
265734
3065
Robotska tehnologija se širi
van fabričkih zidova.
04:40
It's enteringулазак workplacesradna mesta, householdsдомаћинства.
82
268823
3013
Ulazi u poslovni svet, domaćinstva.
04:43
And as these machinesмашине that can senseсмисао
and make autonomousаутономно decisionsОдлуке and learnучи
83
271860
6209
Pošto ove mašine koje mogu da osećaju,
samostalno donose odluke i uče
04:50
enterунесите into these sharedдељени spacesпросторе,
84
278093
2552
stupaju u zajednički prostor,
04:52
I think that maybe the bestнајбоље
analogyаналогија we have for this
85
280669
2496
mislim da je najbolja analogija za ovo
04:55
is our relationshipоднос with animalsЖивотиње.
86
283189
1935
naša veza sa životinjama.
04:57
ThousandsNa hiljade of yearsгодине agoпре,
we startedпочела to domesticatepripitomi animalsЖивотиње,
87
285523
3888
Pre više hiljada godina,
počeli smo da pripitomljavamo životinje,
05:01
and we trainedобучени them for work
and weaponrynaoružanje and companionshipdruženje.
88
289435
4045
da ih dresiramo za rad,
oružje i drugarstvo.
05:05
And throughoutтоком historyисторија, we'veми смо treatedтретирани
some animalsЖивотиње like toolsалати or like productsпроизводи,
89
293504
4985
Kroz istoriju, neke životinje
smo tretirali kao alate ili proizvode,
05:10
and other animalsЖивотиње,
we'veми смо treatedтретирани with kindnessljubaznost
90
298513
2174
a druge sa ljubaznošću
05:12
and we'veми смо givenдато a placeместо in societyдруштво
as our companionskompanjoni.
91
300711
3078
i pružili im mesto u društvu
kao našim drugarima.
05:15
I think it's plausibleverodostojno we mightМожда startпочетак
to integrateинтегрирати robotsроботи in similarслично waysначини.
92
303813
3849
Moguće je da ćemo verovatno početi
da integrišemo robote na sličan način.
05:21
And sure, animalsЖивотиње are aliveжив.
93
309484
3096
Naravno, životinje su žive.
05:24
RobotsRoboti are not.
94
312604
1150
Roboti nisu.
05:27
And I can tell you,
from workingрад with roboticistsrobotiиara,
95
315626
2580
Mogu vam reći, pošto sam
radila sa robotičarima,
05:30
that we're prettyприлично farдалеко away from developingразвој
robotsроботи that can feel anything.
96
318230
3522
da smo prilično daleko od stvaranja
robota koji mogu bilo šta da osete.
05:35
But we feel for them,
97
323072
1460
Ali mi saosećamo sa njima,
05:37
and that mattersпитања,
98
325835
1207
i to je važno,
05:39
because if we're tryingпокушавајући to integrateинтегрирати
robotsроботи into these sharedдељени spacesпросторе,
99
327066
3627
jer ako pokušavamo da integrišemo
robote u ove zajedničke prostore,
05:42
we need to understandРазумем that people will
treatлијечити them differentlyдругачије than other devicesуређаји,
100
330717
4628
moramo razumeti da će ih ljudi
tretirati drugačije od ostalih uređaja,
05:47
and that in some casesслучајева,
101
335369
1844
a to u nekim slučajevima,
05:49
for exampleпример, the caseслучај of a soldierвојник
who becomesпостаје emotionallyемоционално attachedу прилогу
102
337237
3172
na primer, u slučaju vojnika
koji se emocionalno veže
05:52
to the robotробот that they work with,
103
340433
2047
za robota sa kojim radi,
05:54
that can be anything
from inefficientнеефикасан to dangerousопасно.
104
342504
2504
samo može da bude neefikasno i opasno.
05:58
But in other casesслучајева,
it can actuallyзаправо be usefulкорисно
105
346551
2138
U drugim slučajevima,
može čak biti i korisno
06:00
to fosterFoster this emotionalемоционално
connectionвеза to robotsроботи.
106
348713
2623
negovanje ove emotivne veze sa robotima.
06:04
We're alreadyвећ seeingвиди some great use casesслучајева,
107
352184
2134
Već imamo sjajne načine korišćenja robota,
06:06
for exampleпример, robotsроботи workingрад
with autisticаутизам childrenдеца
108
354342
2604
na primer, roboti koji rade
sa autističnom decom
06:08
to engageангажовати them in waysначини
that we haven'tније seenвиђено previouslyраније,
109
356970
3634
kako bi ih aktivirali na nove načine,
06:12
or robotsроботи workingрад with teachersнаставници to engageангажовати
kidsклинци in learningучење with newново resultsрезултате.
110
360628
4000
ili oni koji pomažu nastavnicima
da uključe decu u proces učenja
sa novim rezultatima.
06:17
And it's not just for kidsклинци.
111
365433
1381
I to nije samo za decu.
06:19
EarlyRano studiesстудије showсхов that robotsроботи
can help doctorsдоктори and patientsпацијенти
112
367750
3223
Rane studije pokazuju da roboti
mogu pomoći doktorima i pacijentima
06:22
in healthздравље careнега settingspostavke.
113
370997
1427
u zdravstvenoj zaštiti.
06:25
This is the PAROPARO babyбеба sealпечат robotробот.
114
373535
1810
Ovo je robotska beba foke PARO.
06:27
It's used in nursingstarački homesдомови
and with dementiaDemencija patientsпацијенти.
115
375369
3285
Koristi se u staračkim domovima
i sa dementnim pacijentima.
06:30
It's been around for a while.
116
378678
1570
Koristi se već neko vreme.
06:32
And I rememberзапамтити, yearsгодине agoпре,
beingбиће at a partyжурка
117
380272
3325
Sećam se da sam, pre dosta godina,
bila na nekoj žurci
06:35
and tellingговорећи someoneнеко about this robotробот,
118
383621
2571
i pričala nekome o ovom robotu,
06:38
and her responseодговор was,
119
386216
2126
a njen odgovor je bio:
06:40
"Oh my goshБоже.
120
388366
1262
„Zaboga.
06:42
That's horribleужасно.
121
390508
1188
To je strašno,
06:45
I can't believe we're givingдавање people
robotsроботи insteadуместо тога of humanљудско careнега."
122
393056
3397
Ne mogu da verujem da ljudima
umesto ljudske nege dajemo robote.“
06:50
And this is a really commonзаједнички responseодговор,
123
398540
1875
Ovo je veoma česta reakcija,
06:52
and I think it's absolutelyапсолутно correctтачно,
124
400439
2499
i mislim da je potpuno ispravna,
06:54
because that would be terribleстрашно.
125
402962
2040
jer bi to bilo strašno.
06:57
But in this caseслучај,
it's not what this robotробот replaceszamenjuje.
126
405795
2484
Ali u ovom slučaju,
nije do toga šta robot zamenjuje.
07:00
What this robotробот replaceszamenjuje is animalживотиња therapyтерапија
127
408858
3120
Robot zamenjuje terapiju životinja
07:04
in contextskonteksta where
we can't use realправи animalsЖивотиње
128
412002
3198
u kontekstima u kojima ne možemo
koristiti prave životinje
07:07
but we can use robotsроботи,
129
415224
1168
ali možemo robote,
07:08
because people will consistentlykonstantno treatлијечити
them more like an animalживотиња than a deviceуређај.
130
416416
5230
jer će ih ljudi dosledno tretirati
više kao životinju nego kao uređaj.
07:15
AcknowledgingPriznajući this emotionalемоционално
connectionвеза to robotsроботи
131
423502
2380
Prepozavanje ove emotivne veze sa robotima
07:17
can alsoтакође help us anticipateочекивати challengesизазове
132
425906
1969
može nam pomoći i da predvidimo izazove
07:19
as these devicesуређаји moveпотез into more intimateintimni
areasобласти of people'sљуди livesживи.
133
427899
3451
kako ovi uređaji ulaze
u intimnije sfere ljudskih života.
07:24
For exampleпример, is it OK
if your child'sdete je teddyTedi bearмедвед robotробот
134
432111
3404
Na primer, je li u redu
ako robot meda vašeg deteta
07:27
recordsзаписи privateприватни conversationsразговоре?
135
435539
2237
snima privatne razgovore?
Je li u redu ako vaš robot za seks ima
07:29
Is it OK if your sexсек robotробот
has compellingubedljivo in-appaplikaciju purchasesкуповине?
136
437800
4063
primamljive ponude za kupovinu
u sastavu aplikacije?
07:33
(LaughterSmeh)
137
441887
1396
(Smeh)
07:35
Because robotsроботи plusплус capitalismкапитализам
138
443307
2501
Jer roboti plus kapitalizam
07:37
equalsједнако questionsпитања around
consumerпотрошач protectionзаштита and privacyprivatnost.
139
445832
3705
daju pitanja vezana
za zaštitu potrošača i privatnost.
07:42
And those aren'tнису the only reasonsразлоге
140
450549
1612
I to nisu jedini razlozi
07:44
that our behaviorпонашање around
these machinesмашине could matterматерија.
141
452185
2570
zbog kojih je naše ponašanje
sa ovim mašinama važno.
07:48
A fewнеколико yearsгодине after that first
initialиницијално experienceискуство I had
142
456747
3270
Par godina nakon svog prvog iskustva
07:52
with this babyбеба dinosaurdinosaurus robotробот,
143
460041
2311
sa robotom bebe dinosaurusa,
07:54
I did a workshopрадионица
with my friendпријатељ HannesHanes GassertGassert.
144
462376
2501
imala sam radionicu
sa prijateljem Hanesom Gasertom.
07:56
And we tookузела fiveпет
of these babyбеба dinosaurdinosaurus robotsроботи
145
464901
2897
Uzeli smo pet ovih robotskih
beba dinosaurusa
07:59
and we gaveдала them to fiveпет teamsтимови of people.
146
467822
2453
i podelili ih ljudima u pet timova.
08:02
And we had them nameиме them
147
470299
1697
Tražili smo da im daju imena,
08:04
and playигра with them and interactИнтерактивно with them
for about an hourсат.
148
472020
3809
da se igraju i druže s njima
oko sat vremena.
08:08
And then we unveiledоткривено
a hammerчекић and a hatchetratne sekire
149
476707
2206
Onda smo im dali čekić i sekiru
08:10
and we told them to tortureмучење
and killубиј the robotsроботи.
150
478937
2278
i rekli im da muče i ubiju robote.
08:13
(LaughterSmeh)
151
481239
3007
(Smeh)
08:16
And this turnedокренуо се out to be
a little more dramaticдраматично
152
484857
2294
Ovo se ispostavilo malo dramatičnijim
nego što smo očekivali,
08:19
than we expectedочекиван it to be,
153
487175
1278
08:20
because noneниједан of the participantsучесника
would even so much as strikeštrajk
154
488477
3072
jer niko od učesnika
nije hteo čak ni da udari
08:23
these babyбеба dinosaurdinosaurus robotsроботи,
155
491573
1307
robote beba dinosaurusa,
08:24
so we had to improviseимпровизовати a little,
and at some pointтачка, we said,
156
492904
5150
pa smo morali malo da improvizujemo,
i u jednom momentu smo rekli:
08:30
"OK, you can saveсачувати your team'stim je robotробот
if you destroyуништити anotherдруги team'stim je robotробот."
157
498078
4437
„Okej, možete spasiti robota svog tima
ako uništite robota drugog tima.“
08:34
(LaughterSmeh)
158
502539
1855
(Smeh)
08:36
And even that didn't work.
They couldn'tније могао do it.
159
504839
2195
Čak ni to nije uspelo. Nisu mogli.
Na kraju smo rekli:
08:39
So finallyконачно, we said,
160
507058
1151
08:40
"We're going to destroyуништити all of the robotsроботи
161
508233
2032
„Mi ćemo uništiti sve robote
ukoliko neko ne podigne sekiru na jednog.“
08:42
unlessосим ако не someoneнеко takes
a hatchetratne sekire to one of them."
162
510289
2285
08:45
And this guy stoodстајао up,
and he tookузела the hatchetratne sekire,
163
513586
3579
Jedan tip je ustao i podigao sekiru,
08:49
and the wholeцела roomсоба wincedposustao
as he broughtдоведен the hatchetratne sekire down
164
517189
2706
i cela prostorija je drhtala
dok je spuštao sekiru
08:51
on the robot'sRobot je neckврат,
165
519919
1780
na robotov vrat,
08:53
and there was this half-jokingполу-шала,
half-seriouspolu-ozbiljan momentтренутак of silenceтишина in the roomсоба
166
521723
6338
i onda se javio polusmešan,
poluozbiljan momenat tišine u prostoriji
09:00
for this fallenпао robotробот.
167
528085
1698
za palog robota.
09:01
(LaughterSmeh)
168
529807
1406
(Smeh)
09:03
So that was a really
interestingзанимљиво experienceискуство.
169
531237
3694
To je bilo baš zanimljivo iskustvo.
09:06
Now, it wasn'tније a controlledконтролисано
studyстудија, obviouslyочигледно,
170
534955
2459
To očigledno nije bila
kontrolisana studija,
09:09
but it did leadолово to some
laterкасније researchистраживање that I did at MITMIT-A
171
537438
2850
ali je kasnije dovela do mog istraživanja
09:12
with PalashPalash NandyNandi and CynthiaCynthia BreazealBreazeal,
172
540312
2228
na MIT-u sa Palašem Nandijem
i Sintijom Brezil,
09:14
where we had people come into the labлаб
and smashhit these HEXBUGsHEXBUGs
173
542564
3627
kada su ljudi dolazili u laboratoriju
i uništavali robote HEXBUG
09:18
that moveпотез around in a really
lifelikeћiv way, like insectsинсекти.
174
546215
3087
koje se kreću kao da su živi, kao insekti.
09:21
So insteadуместо тога of choosingBiranje something cutesladak
that people are drawnнацртан to,
175
549326
3134
Umesto da izaberemo nešto slatko
što privlači ljude,
09:24
we choseизабрао something more basicосновно,
176
552484
2093
izabrali smo nešto prostije,
09:26
and what we foundнашао
was that high-empathyvisoko-empatija people
177
554601
3480
i saznali smo da ljudi
sa razvijenom empatijom
09:30
would hesitateоклевајте more to hitхит the HEXBUGSHEXBUGS.
178
558105
2143
više oklevaju da udare robote HEXBUG.
09:33
Now this is just a little studyстудија,
179
561575
1564
To je samo mala studija,
09:35
but it's partдео of a largerвеће bodyтело of researchистраживање
180
563163
2389
ali je deo većeg istraživanja
09:37
that is startingпочевши to indicateиндицирајте
that there mayможе be a connectionвеза
181
565576
2944
koje počinje da pokazuje
da može postojati veza
09:40
betweenизмеђу people'sљуди tendenciesтенденције for empathyемпатија
182
568544
2373
između sklonosti ljudi ka empatiji
09:42
and theirњихова behaviorпонашање around robotsроботи.
183
570941
1976
i njihovog ponašanja prema robotima.
09:45
But my questionпитање for the comingдолазе eraера
of human-robotljudsko-robota interactionинтеракција
184
573721
3627
Ali moje pitanje za buduću eru
interakcije između čoveka i robota
09:49
is not: "Do we empathizesuosjećaju with robotsроботи?"
185
577372
3055
nije: „Da li saosećamo sa robotima?“
09:53
It's: "Can robotsроботи changeпромена
people'sљуди empathyемпатија?"
186
581211
2920
Nego: „Da li roboti mogu promeniti
ljudsku empatiju?“
09:57
Is there reasonразлог to, for exampleпример,
187
585489
2287
Da li postoji razlog da, na primer,
09:59
preventспречити your childдете
from kickingRita a roboticроботски dogпас,
188
587800
2333
branimo detetu da šutne psa robota,
10:03
not just out of respectпоштовање for propertyимовина,
189
591228
2914
ne samo iz poštovanja prema vlasništvu,
10:06
but because the childдете mightМожда be
more likelyвероватно to kickударац a realправи dogпас?
190
594166
2953
već zato što je veća šansa
da će šutnuti pravog psa?
10:10
And again, it's not just kidsклинци.
191
598507
1883
I opet, nisu u pitanju samo deca.
10:13
This is the violentнасилан videoвидео gamesигре questionпитање,
but it's on a completelyу потпуности newново levelниво
192
601564
4056
Ovo je pitanje nasilnih video igrica,
ali na potpuno novom nivou
10:17
because of this visceralVisceralno physicalityфизичко стање
that we respondодговори more intenselyintenzivno to
193
605644
4760
zbog te primarne fizikalnosti
na koju intenzivnije reagujemo
10:22
than to imagesслике on a screenекран.
194
610428
1547
nego na slike na ekranu.
10:25
When we behaveпонашати се violentlynasilno towardsка robotsроботи,
195
613674
2578
Kada se ponašamo nasilno prema robotima,
10:28
specificallyпосебно robotsроботи
that are designedдизајниран to mimicмимик life,
196
616276
3120
posebno onima dizajniranim
da imitiraju živa bića,
10:31
is that a healthyздрав outletоутлет
for violentнасилан behaviorпонашање
197
619420
3892
da li je to zdrav izduvni ventil
za nasilno ponašanje
10:35
or is that trainingобука our crueltyокрутност musclesмишићи?
198
623336
2544
ili tako treniramo mišiće za okrutnost?
10:39
We don't know ...
199
627511
1150
Ne znamo...
10:42
But the answerодговор to this questionпитање has
the potentialпотенцијал to impactутицај humanљудско behaviorпонашање,
200
630622
3945
Odgovor na ovo pitanje
može uticati na ljudsko ponašanje,
10:46
it has the potentialпотенцијал
to impactутицај socialсоцијално normsнорме,
201
634591
2768
kao i na društvene norme,
10:49
it has the potentialпотенцијал to inspireинспирисати rulesправила
around what we can and can't do
202
637383
3849
može uticati na pravila
o tome šta možemo a šta ne
10:53
with certainизвестан robotsроботи,
203
641256
1151
sa određenim robotima,
10:54
similarслично to our animalживотиња crueltyокрутност lawsЗакони.
204
642431
1848
kao u zakonima o zlostavljanju životinja.
10:57
Because even if robotsроботи can't feel,
205
645228
2864
Jer iako roboti ne mogu da osećaju,
11:00
our behaviorпонашање towardsка them
mightМожда matterматерија for us.
206
648116
3080
naše ponašanje prema njima
može biti važno za nas.
11:04
And regardlessбез обзира of whetherда ли је
we endкрај up changingпромена our rulesправила,
207
652889
2855
Bez obzira na to da li ćemo na kraju
promeniti pravila,
11:08
robotsроботи mightМожда be ableу могуцности to help us
come to a newново understandingразумевање of ourselvesсами.
208
656926
3556
roboti mogu da nam pomognu
da bolje razumemo sami sebe.
11:14
MostVećina of what I've learnedнаучио
over the pastпрошлост 10 yearsгодине
209
662276
2316
Većina onoga što sam naučila
u poslednjih 10 godina
11:16
has not been about technologyтехнологија at all.
210
664616
2238
uopšte nema veze sa tehnologijom.
11:18
It's been about humanљудско psychologypsihologija
211
666878
2503
Nego o ljudskoj psihologiji, o empatiji
11:21
and empathyемпатија and how we relateодносе to othersдруги.
212
669405
2603
i o tome kako se odnosimo prema drugima.
11:25
Because when a childдете is kindкинд to a Roomba"Rumbom",
213
673524
2365
Jer kada je dete ljubazno prema Rumbi,
11:29
when a soldierвојник triesпокушава to saveсачувати
a robotробот on the battlefieldbojno polje,
214
677262
4015
kada vojnik pokuša da spase
robota na bojnom polju,
11:33
or when a groupгрупа of people refusesodbija
to harmштета a roboticроботски babyбеба dinosaurdinosaurus,
215
681301
3638
ili kada grupa ljudi odbije da povredi
robotsku bebu dinosaurusa,
11:38
those robotsроботи aren'tнису just motorsмотори
and gearsбрзине and algorithmsалгоритми.
216
686248
3191
ti roboti nisu samo motori,
zupčanici i algoritmi.
11:42
They're reflectionsrefleksije of our ownвластити humanityчовечанство.
217
690501
1905
Oni su odraz naše ljudskosti.
11:45
Thank you.
218
693523
1151
Hvala vam.
11:46
(ApplauseAplauz)
219
694698
3397
(Aplauz)
Translated by Dragana Savanovic
Reviewed by Ivana Krivokuća

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee