ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

Kate Darling: Kenapa kita punya hubungan emosional dengan robot

Filmed:
2,403,010 views

Kita masih belum mampu mengembangkan robot yang bisa merasakan emosi, namun kita sudah menaruh perasaan pada mereka, ujar ahli etika robot, Kate Darling, dan naluri semacam itu memiliki konsekuensi. Pelajari lebih lanjut tentang bagaimana secara biologis kita tertanam untuk memproyeksikan niat dan kehidupan ke mesin -- dan bagaimana hal tersebut bisa membantu kita lebih memahami diri kita sendiri.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

Suatu hari,
sekitar 10 tahun yang lalu,
00:13
There was a day, about 10 yearstahun agolalu,
0
1047
2508
00:15
when I askedtanya a friendteman to holdmemegang
a babybayi dinosaurdinosaurus robotrobot upsideterbalik down.
1
3579
3944
saya meminta teman untuk memegang
robot bayi dinosaurus secara terbalik.
00:21
It was this toymainan calledbernama a PleoPleo
that I had ordereddipesan,
2
9889
3446
Robot ini namanya Pleo.
Saya yang memesannya.
00:25
and I was really excitedgembira about it
because I've always loveddicintai robotsrobot.
3
13359
4401
Saya begitu senang karena
saya suka robot.
00:29
And this one has really coolkeren
technicalteknis featuresfitur.
4
17784
2279
Dan robot ini punya
fitur teknis keren.
00:32
It had motorsmotor and touchmenyentuh sensorssensor
5
20087
2119
Robot ini punya sensor gerak dan sentuh
00:34
and it had an infraredinframerah camerakamera.
6
22230
2244
juga kamera infra merah.
00:36
And one of the things it had
was a tiltmemiringkan sensorsensor,
7
24498
2763
Dan salah satu fitur adalah
sensor miring,
00:39
so it knewtahu what directionarah it was facingmenghadapi.
8
27285
2318
jadi dia tahu ke mana dia menghadap.
00:42
And when you helddiadakan it upsideterbalik down,
9
30095
2134
Dan kalau dipegang terbalik,
00:44
it would startmulai to crymenangis.
10
32253
1572
dia akan menangis.
00:46
And I thought this was supersuper coolkeren,
so I was showingmenunjukkan it off to my friendteman,
11
34527
3496
Saya rasa itu sangat keren,
jadi saya tunjukkan ke teman saya,
00:50
and I said, "Oh, holdmemegang it up by the tailekor.
See what it does."
12
38047
2805
saya bilang, "pegang ekornya.
Lihat apa yang dia lakukan."
00:55
So we're watchingmenonton
the theatricsDrama of this robotrobot
13
43268
3625
Lalu kita memerhatikan
aksi dramatis robot ini
00:58
struggleperjuangan and crymenangis out.
14
46917
2199
meronta dan menangis.
01:02
And after a fewbeberapa secondsdetik,
15
50767
2047
Setelah beberapa detik,
01:04
it startsdimulai to botherrepot-repot me a little,
16
52838
1972
saya mulai terganggu,
01:07
and I said, "OK, that's enoughcukup now.
17
55744
3424
lalu saya bilang, "Oke, sudah cukup.
01:11
Let's put him back down."
18
59930
2305
Mari letakkan dia kembali."
01:14
And then I petmembelai the robotrobot
to make it stop cryingmenangis.
19
62259
2555
Lalu saya membelai robotnya
agar berhenti menangis.
01:18
And that was kindjenis of
a weirdaneh experiencepengalaman for me.
20
66973
2452
Itu pengalaman aneh bagi saya.
01:22
For one thing, I wasn'ttidak the mostpaling
maternalIbu personorang at the time.
21
70084
4569
Karena satu hal, saat itu
saya bukan orang yang keibuan.
01:26
AlthoughMeskipun sincesejak then I've becomemenjadi
a motheribu, ninesembilan monthsbulan agolalu,
22
74677
2731
Walau kemudian saya jadi ibu,
9 bulan lalu,
01:29
and I've learnedterpelajar that babiesbayi alsojuga squirmmenggeliat
when you holdmemegang them upsideterbalik down.
23
77432
3433
saya akhirnya tahu bayi pun meronta
kalau dipegang terbalik.
01:32
(LaughterTawa)
24
80889
1563
(Suara tawa)
01:35
But my responsetanggapan to this robotrobot
was alsojuga interestingmenarik
25
83023
2358
Tapi respons saya ke robot ini
juga menarik
01:37
because I knewtahu exactlypersis
how this machinemesin workedbekerja,
26
85405
4101
sebab saya tahu pasti
cara kerja mesin ini,
01:41
and yetnamun I still feltmerasa
compelledterdorong to be kindjenis to it.
27
89530
3262
tapi saya merasa harus
tetap bersikap baik padanya.
01:46
And that observationpengamatan sparkeddipicu a curiosityrasa ingin tahu
28
94450
2707
Pengamatan itu mencetuskan rasa penasaran.
01:49
that I've spentmenghabiskan the pastlalu decadedasawarsa pursuingmengejar.
29
97181
2832
Saya menghabiskan 10 tahun terakhir
mencari jawabannya.
01:52
Why did I comfortkenyamanan this robotrobot?
30
100911
1793
Kenapa saya menenangkan robot ini?
01:56
And one of the things I discoveredditemukan
was that my treatmentpengobatan of this machinemesin
31
104228
3579
Salah satu hal yang saya dapati adalah
perlakuan saya pada mesin ini
01:59
was more than just an awkwardcanggung momentsaat
in my livinghidup roomkamar,
32
107831
3701
lebih dari sekadar momen aneh
di ruang tamu saya,
02:03
that in a worlddunia where we're increasinglymakin
integratingmengintegrasikan robotsrobot into our liveshidup,
33
111556
5420
di dunia di mana kita semakin
mengintegrasikan robot dalam kehidupan,
02:09
an instinctnaluri like that
mightmungkin actuallysebenarnya have consequenceskonsekuensi,
34
117000
3126
naluri semacam itu
mungkin saja punya konsekuensi,
02:13
because the first thing that I discoveredditemukan
is that it's not just me.
35
121452
3749
sebab hal pertama yang saya dapati adalah
bukan hanya saya
02:19
In 2007, the WashingtonWashington PostPosting
reporteddilaporkan that the UnitedInggris StatesSerikat militarymiliter
36
127249
4802
Di tahun 2007, Washington Post melaporkan
bahwa militer Amerika Serikat
02:24
was testingpengujian this robotrobot
that defuseddijinakkan landtanah minestambang.
37
132075
3230
menguji robot penjinak ranjau darat.
02:27
And the way it workedbekerja
was it was shapedberbentuk like a sticktongkat insectserangga
38
135329
2912
Robot ini bekerja dengan cara
membentuk serangga tongkat
02:30
and it would walkberjalan
around a minefieldranjau on its legskaki,
39
138265
2651
dan akan berjalan kaki
mengelilingi ladang ranjau,
02:32
and everysetiap time it steppedmelangkah on a mineranjau,
one of the legskaki would blowpukulan up,
40
140940
3206
dan setiap menginjak ranjau,
kakinya akan meledak,
02:36
and it would continueterus on the other legskaki
to blowpukulan up more minestambang.
41
144170
3057
dia menggunakan kaki lain untuk
meledakkan lebih banyak ranjau.
02:39
And the colonelKolonel who was in chargebiaya
of this testingpengujian exerciseolahraga
42
147251
3786
Kolonel yang bertanggung jawab pada
latihan percobaan ini
02:43
endsberakhir up callingpanggilan it off,
43
151061
2118
akhirnya menghentikannya,
02:45
because, he saysmengatakan, it's too inhumanetidak manusiawi
44
153203
2435
sebab sangat tidak manusiawi
02:47
to watch this damagedrusak robotrobot
dragmenyeret itselfdiri alongsepanjang the minefieldranjau.
45
155662
4516
melihat robot rusak ini menyeret dirinya
di sepanjang ladang ranjau.
02:54
Now, what would causesebab
a hardenedmengeras militarymiliter officerpetugas
46
162978
3897
Sekarang, apa yang menyebabkan
seorang perwira militer tangguh
02:58
and someonesome one like myselfdiri
47
166899
2043
dan orang seperti saya
03:00
to have this responsetanggapan to robotsrobot?
48
168966
1857
punya rasa seperti itu pada robot?
03:03
Well, of courseTentu saja, we're primedPrima
by scienceilmu fictionfiksi and poppop culturebudaya
49
171537
3310
Tentu saja, kita dibekali
fiksi ilmiah dan budaya pop
03:06
to really want to personifymerupakan personifikasi these things,
50
174871
2579
untuk mempersonifikasi hal seperti itu,
03:09
but it goespergi a little bitsedikit deeperlebih dalam than that.
51
177474
2789
tapi ini sedikit lebih dalam.
03:12
It turnsberubah out that we're biologicallysecara biologis
hardwiredtertanam to projectproyek intentmaksud and life
52
180287
5309
Ternyata secara biologis kita terdorong
untuk menyoroti hasrat dan kehidupan
03:17
ontoke any movementgerakan in our physicalfisik spaceruang
that seemsSepertinya autonomousotonom to us.
53
185620
4766
ke tiap gerakan di ruang fisik
yang tampak otonom bagi kita.
03:23
So people will treatmemperlakukan all sortsmacam
of robotsrobot like they're alivehidup.
54
191214
3465
Jadi orang akan memperlakukan
segala macam robot seakan mereka hidup.
03:26
These bomb-disposalbom pembuangan unitsunit get namesnama.
55
194703
2683
Unit-unit pembasmi bom ini punya nama
03:29
They get medalsmedali of honormenghormati.
56
197410
1682
dan mendapatkan medali kehormatan,
03:31
They'veMereka telah had funeralspemakaman for them
with gunsenjata saluteshormat.
57
199116
2325
juga dimakamkan dengan hormat senjata.
03:34
And researchpenelitian showsmenunjukkan that we do this
even with very simplesederhana householdrumah tangga robotsrobot,
58
202380
3833
Penelitian menunjukkan, bahkan
robot sederhana di rumah pun bisa,
03:38
like the RoombaRoomba vacuumkekosongan cleanerpembersih.
59
206237
2135
contohnya: penyedot debu Roomba.
03:40
(LaughterTawa)
60
208396
1291
(Suara tawa)
03:41
It's just a discDisc that roamsakan berkeliaran
around your floorlantai to cleanbersih it,
61
209711
3089
Itu cuma cakram yang
menelusuri lantai untuk bersih-bersih,
03:44
but just the factfakta it's movingbergerak
around on its ownsendiri
62
212824
2306
tapi karena dia bergerak sendiri,
03:47
will causesebab people to namenama the RoombaRoomba
63
215154
2167
orang memanggilnya Roomba
03:49
and feel badburuk for the RoombaRoomba
when it getsmendapat stuckterjebak underdibawah the couchsofa.
64
217345
3182
dan kasihan ketika Roomba
tersangkut di bawah sofa.
03:52
(LaughterTawa)
65
220551
1865
(Suara tawa)
03:54
And we can designDesain robotsrobot
specificallysecara khusus to evokemembangkitkan this responsetanggapan,
66
222440
3340
Kita bisa mendesain robot
khusus untuk membangkitkan respons ini,
03:57
usingmenggunakan eyesmata and faceswajah or movementsgerakan
67
225804
3461
menggunakan mata dan wajah,
ataupun gerakan
04:01
that people automaticallysecara otomatis,
subconsciouslysadar associateAssociate
68
229289
3259
yang secara otomatis, orang akan
menyatukannya
04:04
with statesnegara bagian of mindpikiran.
69
232572
2020
dengan kondisi pikirannya.
04:06
And there's an entireseluruh bodytubuh of researchpenelitian
calledbernama human-robotmanusia-robot interactioninteraksi
70
234616
3293
Sebuah badan penelitian terpadu
bernama interaksi manusia-robot
04:09
that really showsmenunjukkan how well this worksbekerja.
71
237933
1826
menunjukkan hebatnya cara kerja ini.
04:11
So for examplecontoh, researcherspeneliti
at StanfordStanford UniversityUniversitas foundditemukan out
72
239783
3126
Contohnya, peneliti
di Standford University menemukan,
04:14
that it makesmembuat people really uncomfortabletidak nyaman
73
242933
2001
orang-orang merasa
sangat tidak nyaman
04:16
when you askmeminta them to touchmenyentuh
a robot'srobot privatepribadi partsbagian.
74
244958
2472
saat diminta untuk menyentuh
bagian pribadi robot
04:19
(LaughterTawa)
75
247454
2120
(Suara tawa)
04:21
So from this, but from manybanyak other studiesstudi,
76
249598
2023
Dari sini dan penelitian lainnya,
04:23
we know, we know that people
respondmenanggapi to the cuesisyarat givendiberikan to them
77
251645
4223
kita tahu bahwa orang merespons isyarat
yang diberikan
04:27
by these lifelikemanusia hidup machinesmesin,
78
255892
2022
oleh mesin yang tampak hidup ini,
04:29
even if they know that they're not realnyata.
79
257938
2017
meski mereka tahu mesinnya tidak hidup.
04:33
Now, we're headedmenuju towardsmenuju a worlddunia
where robotsrobot are everywheredimana mana.
80
261654
4056
Sekarang kita menuju dunia di mana
robot ada di mana-mana.
04:37
RoboticRobot technologyteknologi is movingbergerak out
from behinddibelakang factorypabrik wallsdinding.
81
265734
3065
Teknologi robotik keluar dari
balik dinding pabrik,
04:40
It's enteringmemasuki workplacestempat kerja, householdsrumah tangga.
82
268823
3013
memasuki tempat kerja dan rumah.
04:43
And as these machinesmesin that can sensemerasakan
and make autonomousotonom decisionskeputusan and learnbelajar
83
271860
6209
Mesin-mesin ini mampu merasakan,
membuat keputusan sendiri, dan belajar,
04:50
entermemasukkan into these sharedbersama spacesruang,
84
278093
2552
masuk ke ruang bersama ini,
04:52
I think that maybe the bestterbaik
analogyanalogi we have for this
85
280669
2496
Saya pikir kita bisa menganalogikan itu
04:55
is our relationshiphubungan with animalshewan.
86
283189
1935
seperti hubungan kita dengan hewan.
04:57
ThousandsRibuan of yearstahun agolalu,
we starteddimulai to domesticatemenjinakkan animalshewan,
87
285523
3888
Ribuan tahun lalu,
kita mulai menjinakkan hewan,
05:01
and we trainedterlatih them for work
and weaponrypersenjataan and companionshippersahabatan.
88
289435
4045
melatihnya untuk jadi pekerja, senjata,
dan persahabatan.
05:05
And throughoutsepanjang historysejarah, we'vekita sudah treateddiobati
some animalshewan like toolsalat or like productsproduk,
89
293504
4985
Sepanjang sejarah, kita memperlakukan
sebagian hewan seperti alat atau produk,
05:10
and other animalshewan,
we'vekita sudah treateddiobati with kindnesskebaikan
90
298513
2174
kita sayangi sebagian hewan lainnya.
05:12
and we'vekita sudah givendiberikan a placetempat in societymasyarakat
as our companionssahabat.
91
300711
3078
Kita menganggapnya teman
dalam bermasyarakat.
05:15
I think it's plausiblemasuk akal we mightmungkin startmulai
to integratemengintegrasikan robotsrobot in similarserupa wayscara.
92
303813
3849
Saya pikir masuk akal bila kita mulai
memperlakukan robot dengan cara yang sama.
05:21
And sure, animalshewan are alivehidup.
93
309484
3096
Tentu saja, hewan adalah makhluk hidup.
05:24
RobotsRobot are not.
94
312604
1150
Tapi robot tidak.
05:27
And I can tell you,
from workingkerja with roboticistsAli robot,
95
315626
2580
Dari pengalaman kerja dengan ahli robot,
saya beri tahu
05:30
that we're prettycantik farjauh away from developingmengembangkan
robotsrobot that can feel anything.
96
318230
3522
kita masih sangat jauh dari pengembangan
robot yang bisa merasa.
05:35
But we feel for them,
97
323072
1460
Tapi kita ada rasa pada robot,
05:37
and that matterspenting,
98
325835
1207
dan itulah yang penting,
05:39
because if we're tryingmencoba to integratemengintegrasikan
robotsrobot into these sharedbersama spacesruang,
99
327066
3627
sebab kita berusaha mengintegrasikan
robot ke ruang bersama ini,
05:42
we need to understandmemahami that people will
treatmemperlakukan them differentlyberbeda than other devicesperangkat,
100
330717
4628
kita harus paham bahwa mereka akan
diperlakukan berbeda dari alat lainnya,
05:47
and that in some caseskasus,
101
335369
1844
dan dalam beberapa kasus,
05:49
for examplecontoh, the casekasus of a soldiertentara
who becomesmenjadi emotionallyemosional attachedterlampir
102
337237
3172
contohnya, kasus tentara yang
jadi terikat secara emosional
05:52
to the robotrobot that they work with,
103
340433
2047
dengan robot yang bekerja sama dengan dia,
05:54
that can be anything
from inefficienttidak efisien to dangerousberbahaya.
104
342504
2504
dan itu tidak efisien, bahkan berbahaya.
05:58
But in other caseskasus,
it can actuallysebenarnya be usefulberguna
105
346551
2138
Tapi pada kasus lain, sangat berguna
06:00
to fostermendorong this emotionalemosional
connectionkoneksi to robotsrobot.
106
348713
2623
jika kita memelihara keterkaitan emosi
dengan robot.
06:04
We're alreadysudah seeingmelihat some great use caseskasus,
107
352184
2134
Kita sudah tahu beberapa
contoh manfaatnya,
06:06
for examplecontoh, robotsrobot workingkerja
with autisticautistik childrenanak-anak
108
354342
2604
misalnya, robot bekerja
dengan anak autis
06:08
to engagemengikutsertakan them in wayscara
that we haven'ttidak seenterlihat previouslysebelumnya,
109
356970
3634
untuk mengajak mereka dengan cara
yang belum pernah kita tahu sebelumnya,
06:12
or robotsrobot workingkerja with teachersguru to engagemengikutsertakan
kidsanak-anak in learningbelajar with newbaru resultshasil.
110
360628
4000
atau robot bersama guru melibatkan
anak dalam belajar dengan hasil baru
06:17
And it's not just for kidsanak-anak.
111
365433
1381
Robot tidak hanya untuk anak.
06:19
EarlyAwal studiesstudi showmenunjukkan that robotsrobot
can help doctorsdokter and patientspasien
112
367750
3223
Studi awal menunjukkan bahwa robot
bisa membantu dokter dan pasien
06:22
in healthkesehatan carepeduli settingspengaturan.
113
370997
1427
dalam mengatur kesehatan.
06:25
This is the PAROPARO babybayi sealsegel robotrobot.
114
373535
1810
Inilah PARO, robot bayi anjing laut.
06:27
It's used in nursingKeperawatan homesrumah
and with dementiademensia patientspasien.
115
375369
3285
Dia digunakan di panti jompo
dan untuk pasien demensia.
06:30
It's been around for a while.
116
378678
1570
Dia sudah lama digunakan.
06:32
And I rememberingat, yearstahun agolalu,
beingmakhluk at a partypesta
117
380272
3325
Saya ingat, beberapa tahun lalu,
saat di sebuah pesta,
06:35
and tellingpemberitaan someonesome one about this robotrobot,
118
383621
2571
saya memberi tahu seseorang
tentang robot ini,
06:38
and her responsetanggapan was,
119
386216
2126
dan respons dia,
06:40
"Oh my goshAstaga.
120
388366
1262
"Ya ampun.
06:42
That's horriblemengerikan.
121
390508
1188
Mengerikan.
06:45
I can't believe we're givingmemberi people
robotsrobot insteadsebagai gantinya of humanmanusia carepeduli."
122
393056
3397
Sulit dipercaya, kita memberi mereka robot
bukan perawatan manusia."
06:50
And this is a really commonumum responsetanggapan,
123
398540
1875
Dan ini respons yang amat umum,
06:52
and I think it's absolutelybenar correctbenar,
124
400439
2499
dan saya pikir itu sangat tepat,
06:54
because that would be terribleburuk.
125
402962
2040
karena itu bisa jadi mengerikan.
06:57
But in this casekasus,
it's not what this robotrobot replacesmenggantikan.
126
405795
2484
Tapi kasus ini
bukan soal apa yang robot gantikan.
07:00
What this robotrobot replacesmenggantikan is animalhewan therapyterapi
127
408858
3120
Yang digantikan oleh robot ini
adalah terapi hewan
07:04
in contextskonteks where
we can't use realnyata animalshewan
128
412002
3198
yang mana kita tidak bisa
menggunakan hewan sungguhan,
07:07
but we can use robotsrobot,
129
415224
1168
tapi bisa dengan robot,
07:08
because people will consistentlysecara konsisten treatmemperlakukan
them more like an animalhewan than a devicealat.
130
416416
5230
sebab orang akan terus memperlakukan
mereka seperti hewan bukannya alat.
07:15
AcknowledgingMengakui this emotionalemosional
connectionkoneksi to robotsrobot
131
423502
2380
Mengakui keterikatan emosional
pada robot ini
07:17
can alsojuga help us anticipatemengantisipasi challengestantangan
132
425906
1969
membantu kita
mengantisipasi tantangan
07:19
as these devicesperangkat movepindah into more intimateintim
areasdaerah of people'sorang-orang liveshidup.
133
427899
3451
saat semua alat ini masuk lebih dalam
ke area intim kehidupan manusia.
07:24
For examplecontoh, is it OK
if your child'sanak teddyTeddy bearberuang robotrobot
134
432111
3404
Contohnya, apakah boleh
jika robot beruang teddy anak Anda
07:27
recordscatatan privatepribadi conversationspercakapan?
135
435539
2237
merekam percakapan pribadi?
07:29
Is it OK if your sexseks robotrobot
has compellingmenarik in-appdi-app purchasespembelian?
136
437800
4063
Apakah boleh jika robot seks Anda
menarik pembelian dalam aplikasi?
07:33
(LaughterTawa)
137
441887
1396
(Suara tawa)
07:35
Because robotsrobot plusplus capitalismkapitalisme
138
443307
2501
Sebab robot plus kapitalisme
07:37
equalssama dengan questionspertanyaan around
consumerkonsumen protectionperlindungan and privacyPrivasi.
139
445832
3705
sama dengan pertanyaan soal
perlindungan konsumen dan privasi.
07:42
And those aren'ttidak the only reasonsalasan
140
450549
1612
Dan itu bukan satu-satunya alasan
07:44
that our behaviortingkah laku around
these machinesmesin could mattermasalah.
141
452185
2570
bahwa tingkah laku kita pada
mesin ini memiliki arti.
07:48
A fewbeberapa yearstahun after that first
initialawal experiencepengalaman I had
142
456747
3270
Beberapa tahun setelah
pengalaman pertama saya
07:52
with this babybayi dinosaurdinosaurus robotrobot,
143
460041
2311
dengan robot bayi dinosaurus ini,
07:54
I did a workshopbengkel
with my friendteman HannesHannes GassertGassert.
144
462376
2501
saya dan rekan, Hannes Gassert
menggelar lokakarya.
07:56
And we tookmengambil fivelima
of these babybayi dinosaurdinosaurus robotsrobot
145
464901
2897
Kami mengambil lima robot bayi dinosaurus
07:59
and we gavememberi them to fivelima teamstim of people.
146
467822
2453
dan memberikannya ke lima tim.
08:02
And we had them namenama them
147
470299
1697
Dan kami menamai robot-robot itu
08:04
and playbermain with them and interactberinteraksi with them
for about an hourjam.
148
472020
3809
lalu bermain dan berinteraksi
dengan mereka selama sekitar satu jam.
08:08
And then we unveileddiresmikan
a hammerPalu and a hatchetkapak
149
476707
2206
Lalu kami mengeluarkan palu dan kapak,
08:10
and we told them to torturepenyiksaan
and killmembunuh the robotsrobot.
150
478937
2278
meminta mereka
menyiksa dan membunuh robot itu.
08:13
(LaughterTawa)
151
481239
3007
(Suara tawa)
08:16
And this turnedberbalik out to be
a little more dramaticdramatis
152
484857
2294
Hal ini ternyata jadi agak lebih dramatis
08:19
than we expecteddiharapkan it to be,
153
487175
1278
dari yang kami kira,
08:20
because nonetidak ada of the participantspeserta
would even so much as strikemogok
154
488477
3072
karena tidak satu pun peserta yang
mau memukul
08:23
these babybayi dinosaurdinosaurus robotsrobot,
155
491573
1307
robot bayi dinosaurus ini,
08:24
so we had to improviseberimprovisasi a little,
and at some pointtitik, we said,
156
492904
5150
jadi kami harus sedikit mengubahnya,
dan kami berkata,
08:30
"OK, you can savemenyimpan your team'sTim robotrobot
if you destroymenghancurkan anotherlain team'sTim robotrobot."
157
498078
4437
"Baik, robot tim Anda bisa selamat
asal Anda hancurkan robot tim lain"
08:34
(LaughterTawa)
158
502539
1855
(Suara tawa)
08:36
And even that didn't work.
They couldn'ttidak bisa do it.
159
504839
2195
Tidak berhasil juga.
Mereka tidak sanggup.
08:39
So finallyakhirnya, we said,
160
507058
1151
Akhirnya kami bilang,
08:40
"We're going to destroymenghancurkan all of the robotsrobot
161
508233
2032
"Kami akan hancurkan semua robot
08:42
unlesskecuali kalau someonesome one takes
a hatchetkapak to one of them."
162
510289
2285
kecuali ada orang memukul salah satunya."
08:45
And this guy stoodberdiri up,
and he tookmengambil the hatchetkapak,
163
513586
3579
Dan pria ini berdiri lalu mengambil kapak,
08:49
and the wholeseluruh roomkamar wincedmeringis
as he broughtdibawa the hatchetkapak down
164
517189
2706
dan seluruh ruangan meringis saat dia
mengayunkan kapak
08:51
on the robot'srobot neckleher,
165
519919
1780
ke leher robot itu,
08:53
and there was this half-jokingsetengah bercanda,
half-serioussetengah serius momentsaat of silenceDiam in the roomkamar
166
521723
6338
lalu setengah bercanda, setengah serius
mereka mengheningkan cipta
09:00
for this fallenjatuh robotrobot.
167
528085
1698
untuk robot yang gugur ini.
09:01
(LaughterTawa)
168
529807
1406
(Suara tawa)
09:03
So that was a really
interestingmenarik experiencepengalaman.
169
531237
3694
Itu sungguh pengalaman yang menarik.
09:06
Now, it wasn'ttidak a controlleddikendalikan
studybelajar, obviouslyjelas,
170
534955
2459
Itu jelas bukan penelitian terkontrol,
09:09
but it did leadmemimpin to some
laterkemudian researchpenelitian that I did at MITMIT
171
537438
2850
namun mengarah ke penelitian yang nanti
saya lakukan di MIT
09:12
with PalashPalash NandyNandy and CynthiaCynthia BreazealBreazeal,
172
540312
2228
bersama Palash Nandy dan Cynthia Breazeal,
09:14
where we had people come into the lablaboratorium
and smashSmash these HEXBUGsHEXBUGs
173
542564
3627
di mana kami meminta orang-orang
ke laboratorium dan menghantam HEXBUG
09:18
that movepindah around in a really
lifelikemanusia hidup way, like insectsserangga.
174
546215
3087
yang bergerak sungguh nyata,
seperti serangga.
09:21
So insteadsebagai gantinya of choosingmemilih something cuteManis
that people are drawnditarik to,
175
549326
3134
Jadi dari pada memilih sesuatu yang imut
sehingga orang tertarik,
09:24
we chosememilih something more basicdasar,
176
552484
2093
kami memilih sesuatu yang lebih dasar,
09:26
and what we foundditemukan
was that high-empathytinggi-empati people
177
554601
3480
dan yang kami temukan bahwa
orang yang tinggi rasa empatinya
09:30
would hesitateragu more to hitmemukul the HEXBUGSHEXBUGS.
178
558105
2143
akan lebih ragu untuk memukul HEXBUG.
09:33
Now this is just a little studybelajar,
179
561575
1564
Nah, ini cuma penelitian kecil,
09:35
but it's partbagian of a largerlebih besar bodytubuh of researchpenelitian
180
563163
2389
tapi bagian dari
penelitian yang lebih besar
09:37
that is startingmulai to indicatemenunjukkan
that there maymungkin be a connectionkoneksi
181
565576
2944
yang mulai mengindikasikan bahwa
mungkin ada hubungan
09:40
betweenantara people'sorang-orang tendencieskecenderungan for empathyempati
182
568544
2373
antara tendensi rasa empati seseorang
09:42
and theirmereka behaviortingkah laku around robotsrobot.
183
570941
1976
dan perilaku mereka terhadap robot.
09:45
But my questionpertanyaan for the comingkedatangan eraera
of human-robotmanusia-robot interactioninteraksi
184
573721
3627
Tapi pertanyaan saya untuk
era interaksi robot-manusia nanti
09:49
is not: "Do we empathizeberempati with robotsrobot?"
185
577372
3055
bukan: "Apakah kita berempati pada robot?"
09:53
It's: "Can robotsrobot changeperubahan
people'sorang-orang empathyempati?"
186
581211
2920
Tapi: "Dapatkah robot mengubah
rasa empati manusia?"
09:57
Is there reasonalasan to, for examplecontoh,
187
585489
2287
Misal, Apakah ada alasan untuk
09:59
preventmencegah your childanak
from kickingmenendang a roboticrobot doganjing,
188
587800
2333
melarang anak Anda menendang robot anjing,
10:03
not just out of respectmenghormati for propertymilik,
189
591228
2914
bukan karena menghargai barang,
10:06
but because the childanak mightmungkin be
more likelymungkin to kicktendangan a realnyata doganjing?
190
594166
2953
tapi karena si anak seperti
menendang anjing sungguhan?
10:10
And again, it's not just kidsanak-anak.
191
598507
1883
Dan lagi, bukan hanya anak-anak.
10:13
This is the violenthebat videovideo gamespertandingan questionpertanyaan,
but it's on a completelysama sekali newbaru leveltingkat
192
601564
4056
Ini soal video game kekerasan,
tapi di tingkat yang berbeda
10:17
because of this visceralmendalam physicalityfisikitas
that we respondmenanggapi more intenselyintens to
193
605644
4760
sebab karena nafsu mendalam ini
kita lebih merespons
10:22
than to imagesgambar on a screenlayar.
194
610428
1547
pada gambar di layar.
10:25
When we behavebertingkah violentlykeras towardsmenuju robotsrobot,
195
613674
2578
Saat kita berperilaku kasar pada robot,
10:28
specificallysecara khusus robotsrobot
that are designeddirancang to mimicmeniru life,
196
616276
3120
khususnya robot yang
didesain meniru kehidupan,
10:31
is that a healthysehat outlettoko
for violenthebat behaviortingkah laku
197
619420
3892
apakah itu pelampiasan
perilaku kasar yang sehat
10:35
or is that traininglatihan our crueltykekejaman musclesotot?
198
623336
2544
atau malah melatih otot-otot kejam kita?
10:39
We don't know ...
199
627511
1150
Kita tidak tahu...
10:42
But the answermenjawab to this questionpertanyaan has
the potentialpotensi to impactdampak humanmanusia behaviortingkah laku,
200
630622
3945
Tapi jawaban pertanyaan ini punya potensi
yang berdampak pada perilaku manusia,
10:46
it has the potentialpotensi
to impactdampak socialsosial normsnorma,
201
634591
2768
punya potensi yang berdampak
pada norma sosial,
10:49
it has the potentialpotensi to inspiremengilhami rulesaturan
around what we can and can't do
202
637383
3849
punya potensi mengilhami peraturan tentang
apa yang bisa dan tak bisa kita lakukan
10:53
with certaintertentu robotsrobot,
203
641256
1151
pada robot tertentu,
10:54
similarserupa to our animalhewan crueltykekejaman lawshukum.
204
642431
1848
seperti undang-undang tentang hewan.
10:57
Because even if robotsrobot can't feel,
205
645228
2864
Sebab meski robot tidak bisa merasa,
11:00
our behaviortingkah laku towardsmenuju them
mightmungkin mattermasalah for us.
206
648116
3080
perilaku kita pada mereka
itu yang penting bagi kita.
11:04
And regardlesstidak peduli of whetherapakah
we endakhir up changingberubah our rulesaturan,
207
652889
2855
terlepas dari kita mengubah
peraturannya atau tidak,
11:08
robotsrobot mightmungkin be ablesanggup to help us
come to a newbaru understandingpengertian of ourselvesdiri.
208
656926
3556
robot mungkin bisa membantu kita
mendapatkan pemahaman baru atas diri kita.
11:14
MostSebagian of what I've learnedterpelajar
over the pastlalu 10 yearstahun
209
662276
2316
Yang saya pelajari
lebih dari 10 tahun
11:16
has not been about technologyteknologi at all.
210
664616
2238
sebagian besar bukan soal teknologi.
11:18
It's been about humanmanusia psychologyPsikologi
211
666878
2503
Namun soal psikologi manusia
11:21
and empathyempati and how we relateberhubungan to otherslainnya.
212
669405
2603
empati, dan bagaimana
berhubungan dengan orang lain.
11:25
Because when a childanak is kindjenis to a RoombaRoomba,
213
673524
2365
Sebab saat seorang anak
bersikap baik pada Roomba,
11:29
when a soldiertentara triesmencoba to savemenyimpan
a robotrobot on the battlefieldmedan perang,
214
677262
4015
saat seorang tentara berusaha
menyelamatkan robot di medan perang,
11:33
or when a groupkelompok of people refusesmenolak
to harmmembahayakan a roboticrobot babybayi dinosaurdinosaurus,
215
681301
3638
atau saat sekelompok orang menolak
melukai robot bayi dinosaurus,
11:38
those robotsrobot aren'ttidak just motorsmotor
and gearsgigi and algorithmsalgoritma.
216
686248
3191
robot-robot itu bukan sekadar motor,
mesin, dan algoritma.
11:42
They're reflectionsrefleksi of our ownsendiri humanitykemanusiaan.
217
690501
1905
Merekalah
cerminan dari kemanusiaan kita.
11:45
Thank you.
218
693523
1151
Terima kasih.
11:46
(ApplauseTepuk tangan)
219
694698
3397
(Suara tepuk tangan)
Translated by Andi Wahyuni
Reviewed by Azfa Adid

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee