ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

Kate Darling: Neden robotlara karşı duygusal bir bağımız var

Filmed:
2,403,010 views

Ahlâk bilimci Kate Darling, duygu hisseden robotlar geliştirmekten çok uzak olduğumuzu fakat bizim onlara karşı hislerimiz olduğunu ve bu tür bir içgüdünün de sonuçları olabileceğini söylüyor. Niyetimizi ve hayatımızı makinelere yansıtmanın nasıl biyolojik olarak içimize işlendiğine ve onların da bizim kendimizi daha iyi anlamamıza nasıl yardım edebileceklerini daha fazla öğrenin.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

00:13
There was a day, about 10 yearsyıl agoönce,
0
1047
2508
Neredeyse on yıl önce, bir gün
00:15
when I askeddiye sordu a friendarkadaş to holdambar
a babybebek dinosaurdinozor robotrobot upsideüst taraf down.
1
3579
3944
bir arkadaşımdan yavru dinazor
robotu baş aşağı tutmasını istedim.
00:21
It was this toyoyuncak calleddenilen a PleoPleo
that I had ordereddüzenli,
2
9889
3446
Sipariş ettiğim adı Pleo
olan bu oyuncak hakkında
00:25
and I was really excitedheyecanlı about it
because I've always lovedsevilen robotsrobotlar.
3
13359
4401
gerçekten heyecanlıydım çünkü
robotları her zaman sevmişimdir.
00:29
And this one has really coolgüzel
technicalteknik featuresÖzellikler.
4
17784
2279
Bununsa sahiden
havalı teknik özellikleri var.
00:32
It had motorsmotorlar and touchdokunma sensorssensörler
5
20087
2119
Motorları, dokunma sensörleri
00:34
and it had an infraredkızılötesi camerakamera.
6
22230
2244
ve kızılötesi kamerası vardı.
00:36
And one of the things it had
was a tilteğim sensoralgılayıcı,
7
24498
2763
Bir diğer özelliği ise eğilim sensörüydü,
00:39
so it knewbiliyordum what directionyön it was facingkarşı.
8
27285
2318
yani hangi yöne yöneldiğini biliyordu.
00:42
And when you heldbekletilen it upsideüst taraf down,
9
30095
2134
Baş aşağı tuttuğunda
00:44
it would startbaşlama to cryağlamak.
10
32253
1572
ağlamaya başlardı.
00:46
And I thought this was superSüper coolgüzel,
so I was showinggösterme it off to my friendarkadaş,
11
34527
3496
Bunun çok havalı olduğunu düşündüm,
arkadaşıma da hava atmak istedim,
00:50
and I said, "Oh, holdambar it up by the tailkuyruk.
See what it does."
12
38047
2805
"Kuyruğundan tut
ve ne yaptığını gör" dedim.
00:55
So we're watchingseyretme
the theatricsgösteri of this robotrobot
13
43268
3625
Robotun hareketlerini, mücadelesini
00:58
strugglemücadele and cryağlamak out.
14
46917
2199
ve haykırışını izliyorduk.
01:02
And after a fewaz secondssaniye,
15
50767
2047
Bir süre sonra
01:04
it startsbaşlar to botherrahatsız me a little,
16
52838
1972
beni biraz rahatsız etmeye başladı
01:07
and I said, "OK, that's enoughyeterli now.
17
55744
3424
ve ben de "Tamam, yeter.
01:11
Let's put him back down."
18
59930
2305
Yerine geri koyalım" dedim.
01:14
And then I petEvcil Hayvan the robotrobot
to make it stop cryingağlıyor.
19
62259
2555
Sonra da ağlamasın diye
robotun başını okşadım.
01:18
And that was kindtür of
a weirdtuhaf experiencedeneyim for me.
20
66973
2452
Benim için çok garip bir deneyimdi.
01:22
For one thing, I wasn'tdeğildi the mostçoğu
maternalAnne personkişi at the time.
21
70084
4569
Başta, o zamanlarda
en anaç kişi ben değildim.
01:26
AlthoughHer ne kadar sincedan beri then I've becomeolmak
a motheranne, ninedokuz monthsay agoönce,
22
74677
2731
Gerçi o zamandan bu yana,
yaklaşık dokuz ay önce anne oldum
01:29
and I've learnedbilgili that babiesbebekler alsoAyrıca squirmkıvrılma
when you holdambar them upsideüst taraf down.
23
77432
3433
ve bebeklerin de baş aşağı
tutulduğunda kıvrandıklarını öğrendim.
01:32
(LaughterKahkaha)
24
80889
1563
(Kahkaha)
01:35
But my responsetepki to this robotrobot
was alsoAyrıca interestingilginç
25
83023
2358
Ama bu robota karşı
tepkim de çok ilginçti
01:37
because I knewbiliyordum exactlykesinlikle
how this machinemakine workedişlenmiş,
26
85405
4101
çünkü bu makinenin nasıl çalıştığını
tam anlamıyla biliyordum
01:41
and yethenüz I still feltkeçe
compelledmecbur to be kindtür to it.
27
89530
3262
fakat yine de ona karşı nazik
olma zorunluluğu hissettim.
01:46
And that observationgözlem sparkedyol açtı a curiositymerak
28
94450
2707
Bu gözlem geçen on yılda
peşinden koştuğum
01:49
that I've spentharcanmış the pastgeçmiş decadeonyıl pursuingpeşinde.
29
97181
2832
bir merakı tetikledi.
01:52
Why did I comfortkonfor this robotrobot?
30
100911
1793
Neden bu robotu rahatlattım?
01:56
And one of the things I discoveredkeşfedilen
was that my treatmenttedavi of this machinemakine
31
104228
3579
Keşfettiğim şeylerden biri de
bu makineye davranışım
01:59
was more than just an awkwardgarip momentan
in my livingyaşam roomoda,
32
107831
3701
odamdaki garip
bir andan daha fazlasıydı.
02:03
that in a worldDünya where we're increasinglygiderek
integratingentegre robotsrobotlar into our liveshayatları,
33
111556
5420
Robotların hayatımıza giderek daha
fazla entegre olduğu bir dünyada
02:09
an instinctiçgüdü like that
mightbelki actuallyaslında have consequencessonuçları,
34
117000
3126
o tür bir içgüdünün sonuçları olabilir
02:13
because the first thing that I discoveredkeşfedilen
is that it's not just me.
35
121452
3749
çünkü keşfettiğim ilk şey
yalnız olmadığımdı.
02:19
In 2007, the WashingtonWashington PostYayınla
reportedrapor that the UnitedAmerika StatesBirleşik militaryaskeri
36
127249
4802
Washington Post 2007'de
Birleşik Devletler ordusunun
02:24
was testingtest yapmak this robotrobot
that defusedetkisiz hale landarazi minesmayınlar.
37
132075
3230
kara mayınlarını etkisiz hâle getiren
robotu test ettiğini yazdı.
02:27
And the way it workedişlenmiş
was it was shapedbiçimli like a stickÇubuk insectböcek
38
135329
2912
Robotun çalışma şekli ise şöyle,
bir çubuk böcek şeklindeydi
02:30
and it would walkyürümek
around a minefieldMayın Tarlası on its legsbacaklar,
39
138265
2651
bir mayın tarlasında bacakları
üstünde yürüyor
02:32
and everyher time it steppedbasamaklı on a mineMayın,
one of the legsbacaklar would blowdarbe up,
40
140940
3206
ve her mayına bastığında
bacaklardan biri havaya uçuyor
02:36
and it would continuedevam et on the other legsbacaklar
to blowdarbe up more minesmayınlar.
41
144170
3057
ve daha çok mayının imhası için
bacakları üzerinde ilerliyordu.
02:39
And the colonelAlbay who was in chargeşarj etmek
of this testingtest yapmak exerciseegzersiz
42
147251
3786
Tatbikatın başında olan albay ise
02:43
endsuçları up callingçağrı it off,
43
151061
2118
tatbikatın iptalini isteyivermiş
02:45
because, he saysdiyor, it's too inhumaneinsanlık dışı
44
153203
2435
çünkü zarar görmüş robotun
mayın tarlasında
02:47
to watch this damagedhasarlı robotrobot
dragsürüklemek itselfkendisi alonguzun bir the minefieldMayın Tarlası.
45
155662
4516
kendini çekiştirmesini izlemenin çok
insanlık dışı olduğunu söylemiş.
02:54
Now, what would causesebeb olmak
a hardenedkatılaşmış militaryaskeri officersubay
46
162978
3897
Katılaşmış bir askeri memurun
02:58
and someonebirisi like myselfkendim
47
166899
2043
ve benim gibi birisinin robotlara karşı
03:00
to have this responsetepki to robotsrobotlar?
48
168966
1857
böyle bir tepki vermesine
sebep olan şey nedir?
03:03
Well, of coursekurs, we're primedkullanıma hazır
by scienceBilim fictionkurgu and poppop culturekültür
49
171537
3310
Bilim kurgu ve pop kültürü
tarafından bu tür eşyaları
03:06
to really want to personifytemsilcileriyiz these things,
50
174871
2579
kişiselleştirmek istemek
için hazırlanıyoruz
03:09
but it goesgider a little bitbit deeperDaha derine than that.
51
177474
2789
fakat olay bundan biraz daha derin.
03:12
It turnsdönüşler out that we're biologicallybiyolojik olarak
hardwiredKablolu to projectproje intentniyet and life
52
180287
5309
Biyolojik olarak niyet ve hayatımızı
fiziksel alanımızda bize özerk olarak
03:17
ontoüstüne any movementhareket in our physicalfiziksel spaceuzay
that seemsgörünüyor autonomousözerk to us.
53
185620
4766
gelen herhangi bir harekete yansıtmanın
içimize işlendiği ortaya çıkıyor.
03:23
So people will treattedavi etmek all sortssıralar
of robotsrobotlar like they're alivecanlı.
54
191214
3465
Yani insanlar her çeşit robota
sanki canlılarmış gibi davranacaklar.
03:26
These bomb-disposalbomba imha unitsbirimler get namesisimler.
55
194703
2683
Bu bomba imha üniteleri isim alıyorlar.
03:29
They get medalsMadalyalar of honorOnur.
56
197410
1682
Onur madalyası alıyorlar.
03:31
They'veOnlar ettik had funeralsCenaze for them
with guntabanca salutesSelamlar.
57
199116
2325
Silah selâmıyla cenazeleri oluyor.
03:34
And researchAraştırma showsgösterileri that we do this
even with very simplebasit householdev halkı robotsrobotlar,
58
202380
3833
Araştırma bunu Roomba elektrikli
süpürgesi gibi en basit ev aletiyle dahi
03:38
like the RoombaRoomba vacuumvakum cleanertemizleyici.
59
206237
2135
yaptığımızı gösteriyor.
03:40
(LaughterKahkaha)
60
208396
1291
(Kahkaha)
03:41
It's just a discdisk that roamsndaki...
around your floorzemin to cleantemiz it,
61
209711
3089
Yeri temizlemek için
etrafta dolanan bir disk.
03:44
but just the factgerçek it's movinghareketli
around on its ownkendi
62
212824
2306
Kendi kendine etrafta
dolanmasından dolayı da
03:47
will causesebeb olmak people to nameisim the RoombaRoomba
63
215154
2167
insanların ona Roomba
demesine yol açıyor,
03:49
and feel badkötü for the RoombaRoomba
when it getsalır stucksıkışmış underaltında the couchkanepe.
64
217345
3182
bu yüzden Roomba koltuğun altına
sıkıştığında kötü hissediyorlar.
03:52
(LaughterKahkaha)
65
220551
1865
(Kahkaha)
03:54
And we can designdizayn robotsrobotlar
specificallyözellikle to evokeuyandırmak this responsetepki,
66
222440
3340
İnsanların bilinç altında
ruh hâli ile otomatik olarak
03:57
usingkullanma eyesgözleri and facesyüzleri or movementshareketler
67
225804
3461
bağdaştırdığı gözleri, yüzleri
ve hareketleri kullanarak
04:01
that people automaticallyotomatik olarak,
subconsciouslybilinç altında associateilişkilendirme
68
229289
3259
özellike bu tepkiyi uyandırmak için
04:04
with statesdevletler of mindus.
69
232572
2020
robotlar tasarlayabiliriz.
04:06
And there's an entiretüm bodyvücut of researchAraştırma
calleddenilen human-robotinsan-robot interactionetkileşim
70
234616
3293
İnsan-robot etkileşimi adında
bunun ne kadar iyi çalıştığını gösteren
04:09
that really showsgösterileri how well this worksEserleri.
71
237933
1826
birtakım araştırmalar var.
04:11
So for exampleörnek, researchersaraştırmacılar
at StanfordStanford UniversityÜniversitesi foundbulunan out
72
239783
3126
Stanford Üniversitesi'ndeki
araştırmacılar insanlara robotların
04:14
that it makesmarkaları people really uncomfortablerahatsız
73
242933
2001
mahrem yerlerine
dokunmalarını istendiğinde
04:16
when you asksormak them to touchdokunma
a robot'srobotun privateözel partsparçalar.
74
244958
2472
insanların rahatsız
olduklarını keşfettiler.
04:19
(LaughterKahkaha)
75
247454
2120
(Kahkaha)
04:21
So from this, but from manyçok other studiesçalışmalar,
76
249598
2023
Bundan ve birçok çalışmadan,
04:23
we know, we know that people
respondyanıtlamak to the cuesİpuçları givenverilmiş to them
77
251645
4223
gerçek olmadıklarını bildikleri hâlde
insanların canlıymış gibi olan
04:27
by these lifelikecanlı gibi machinesmakineler,
78
255892
2022
makinelerden gelen işaretlere
04:29
even if they know that they're not realgerçek.
79
257938
2017
tepki verdiklerini biliyoruz.
04:33
Now, we're headedbaşlı towardskarşı a worldDünya
where robotsrobotlar are everywhereher yerde.
80
261654
4056
Artık robotların her yerde oldukları
bir dünyaya doğru gidiyoruz.
04:37
RoboticRobot technologyteknoloji is movinghareketli out
from behindarkasında factoryfabrika wallsduvarlar.
81
265734
3065
Robot teknolojisi fabrika
duvarlarından dışarı çıkıyor.
04:40
It's enteringgirme workplacesişyerleri, householdshane.
82
268823
3013
İş yerlerine ve evlere giriyor.
04:43
And as these machinesmakineler that can senseduyu
and make autonomousözerk decisionskararlar and learnöğrenmek
83
271860
6209
Özerkçe hisseden, kararlar veren
ve ortak yaşam alanlarına
04:50
entergirmek into these sharedpaylaşılan spacesalanlarda,
84
278093
2552
girmeyi öğrenen makineler ile
04:52
I think that maybe the besten iyi
analogyanaloji we have for this
85
280669
2496
en iyi karşılaştırmayı bizim hayvanlarla
04:55
is our relationshipilişki with animalshayvanlar.
86
283189
1935
olan ilişkimizle yapabiliriz.
04:57
ThousandsBinlerce of yearsyıl agoönce,
we startedbaşladı to domesticateevcilleştirmeye animalshayvanlar,
87
285523
3888
Binlerce yıl öncesinde,
hayvanları evcilleştirmeye başladık.
05:01
and we trainedeğitilmiş them for work
and weaponrySilahlar and companionshipArkadaşlık.
88
289435
4045
Onları iş, mühimmat ve yoldaşlık
etmeleri için eğittik.
05:05
And throughoutboyunca historytarih, we'vebiz ettik treatedişlenmiş
some animalshayvanlar like toolsaraçlar or like productsÜrünler,
89
293504
4985
Tarih boyunca da, bazı hayvanlara
araç veya mal gibi davranırken
05:10
and other animalshayvanlar,
we'vebiz ettik treatedişlenmiş with kindnessnezaket
90
298513
2174
bazılarınaysa nazikçe davranıp
05:12
and we'vebiz ettik givenverilmiş a placeyer in societytoplum
as our companionsarkadaşları.
91
300711
3078
toplum içerisinde
arkadaşlarımız olarak yer verdik.
05:15
I think it's plausiblemakul we mightbelki startbaşlama
to integratebirleştirmek robotsrobotlar in similarbenzer waysyolları.
92
303813
3849
Bence robotlarla da benzer şekillerde
entegre olmak gayet akla yatkın.
05:21
And sure, animalshayvanlar are alivecanlı.
93
309484
3096
Tabii ki hayvanlar canlı.
05:24
RobotsRobotlar are not.
94
312604
1150
Robotlarsa değil.
05:27
And I can tell you,
from workingçalışma with roboticistsroboticists,
95
315626
2580
Robotlarla çalıştığımdan
ötürü herhangi bir şeyi
05:30
that we're prettygüzel faruzak away from developinggelişen
robotsrobotlar that can feel anything.
96
318230
3522
hissedebileceklerini geliştirmekten
çok uzak olduğumuzu söyleyebilirim.
05:35
But we feel for them,
97
323072
1460
Ama onlar yerine hissediyoruz,
05:37
and that mattershususlar,
98
325835
1207
önemli olan bu.
05:39
because if we're tryingçalışıyor to integratebirleştirmek
robotsrobotlar into these sharedpaylaşılan spacesalanlarda,
99
327066
3627
Çünkü eğer robotları bu ortak alanlara
entegre etmeye çalışırsak
05:42
we need to understandanlama that people will
treattedavi etmek them differentlyfarklı olarak than other devicescihazlar,
100
330717
4628
insanların onlara diğer cihazlardan daha
farklı davranacaklarını anlamamız gerek
05:47
and that in some casesvakalar,
101
335369
1844
ve hatta bazı durumlarda
05:49
for exampleörnek, the casedurum of a soldierasker
who becomesolur emotionallyduygusal yönden attachedekli
102
337237
3172
mesela, çalıştığı robotlara
duygusal olarak bağlı hisseden
05:52
to the robotrobot that they work with,
103
340433
2047
bir askerin vakasında olduğu gibi.
05:54
that can be anything
from inefficientyetersiz to dangeroustehlikeli.
104
342504
2504
Bu verimsizlikten tehlikeye
kadar her şey olabilir.
05:58
But in other casesvakalar,
it can actuallyaslında be usefulişe yarar
105
346551
2138
Ama diğer durumlarda robotlara olan
06:00
to fosterbeslemek this emotionalduygusal
connectionbağ to robotsrobotlar.
106
348713
2623
bu duygusal bağı teşvik etmek
yararlı olabilir.
06:04
We're alreadyzaten seeinggörme some great use casesvakalar,
107
352184
2134
Zaten harika kullanılan
vakaları görüyoruz.
06:06
for exampleörnek, robotsrobotlar workingçalışma
with autisticotistik childrençocuklar
108
354342
2604
Mesela, robotların daha önce
görmediğimiz şekilde
06:08
to engagetutmak them in waysyolları
that we haven'tyok seengörüldü previouslyÖnceden,
109
356970
3634
otistik çocuklarla ilgilendiğini
veya öğretmenlerle çalışan robotların
06:12
or robotsrobotlar workingçalışma with teachersöğretmenler to engagetutmak
kidsçocuklar in learningöğrenme with newyeni resultsSonuçlar.
110
360628
4000
çocuklarla uğraşırken
yeni sonuçlar aldığını görüyoruz.
06:17
And it's not just for kidsçocuklar.
111
365433
1381
Sadece çocuklar da değil.
06:19
EarlyErken studiesçalışmalar showgöstermek that robotsrobotlar
can help doctorsdoktorlar and patientshastalar
112
367750
3223
Önceki çalışmalar, robotların
sağlık alanında doktor ve hastalara
06:22
in healthsağlık carebakım settingsAyarlar.
113
370997
1427
yardımlarını gösteriyor.
06:25
This is the PAROPARO babybebek sealfok balığı robotrobot.
114
373535
1810
Bu PARO yavru fok robotu.
06:27
It's used in nursingHemşirelik homesevler
and with dementiademans patientshastalar.
115
375369
3285
Bunama geçiren yaşlı hastaların
bakımında kullanılıyor.
06:30
It's been around for a while.
116
378678
1570
Bir süredir kullanılıyor.
06:32
And I rememberhatırlamak, yearsyıl agoönce,
beingolmak at a partyParti
117
380272
3325
Hatırlarım, yıllar önce
bir partideyken birine
06:35
and tellingsöylüyorum someonebirisi about this robotrobot,
118
383621
2571
bu robot hakkında bir şeyler anlatırken
06:38
and her responsetepki was,
119
386216
2126
onun cevabı şu olmuştu:
06:40
"Oh my goshAllah Allah.
120
388366
1262
"Aman Tanrım.
06:42
That's horriblekorkunç.
121
390508
1188
Bu korkunç bir şey.
06:45
I can't believe we're givingvererek people
robotsrobotlar insteadyerine of humaninsan carebakım."
122
393056
3397
Hastalara, insan yerine robot
bakımı sağladığımıza inanamıyorum.
06:50
And this is a really commonortak responsetepki,
123
398540
1875
Bu oldukça yaygın bir cevap
06:52
and I think it's absolutelykesinlikle correctdoğru,
124
400439
2499
bence tamamen doğru
06:54
because that would be terriblekorkunç.
125
402962
2040
çünkü korkunç bir şey olurdu.
06:57
But in this casedurum,
it's not what this robotrobot replacesyerini alır.
126
405795
2484
Ama olay robotun
neyin yerini aldığı değil.
07:00
What this robotrobot replacesyerini alır is animalhayvan therapyterapi
127
408858
3120
Bu robotun yerini alan şey gerçek
hayvanları kullanamayacağımız
07:04
in contextsbağlamları where
we can't use realgerçek animalshayvanlar
128
412002
3198
onun yerine robotları kullanabileceğimiz
07:07
but we can use robotsrobotlar,
129
415224
1168
hayvan terapileridir.
07:08
because people will consistentlysürekli olarak treattedavi etmek
them more like an animalhayvan than a devicecihaz.
130
416416
5230
Zira, insanlar sürekli onlara bir cihazdan
öte bir hayvan gibi muamele edecekler.
07:15
AcknowledgingKabul this emotionalduygusal
connectionbağ to robotsrobotlar
131
423502
2380
Robotlara olan bu duygusal
bağı kabul etmek
07:17
can alsoAyrıca help us anticipatetahmin etmek challengeszorluklar
132
425906
1969
zorlukları tahmin
etmemize de yardım eder
07:19
as these devicescihazlar movehareket into more intimatesamimi
areasalanlar of people'sinsanların liveshayatları.
133
427899
3451
çünkü bu cihazlar insan hayatının
daha özel alanlarına da giriyorlar.
07:24
For exampleörnek, is it OK
if your child'sçocuğun teddyTeddy bearayı robotrobot
134
432111
3404
Örneğin, çocuğunuzun oyuncak ayısının
07:27
recordskayıtlar privateözel conversationskonuşmaları?
135
435539
2237
özel konuşmaları kaydetmesine
ne derdiniz?
07:29
Is it OK if your sexseks robotrobot
has compellingzorlayıcı in-appın-uygulama purchasesalımları?
136
437800
4063
Peki ya seks robotunuzun ilgi çekici
uygulama içi satın alma yapması?
07:33
(LaughterKahkaha)
137
441887
1396
(Kahkaha)
07:35
Because robotsrobotlar plusartı capitalismkapitalizm
138
443307
2501
Çünkü robotlar artı kapitalizm
07:37
equalseşittir questionssorular around
consumertüketici protectionkoruma and privacyGizlilik.
139
445832
3705
tüketici koruması ve özeli
ile ilgili sorulara eşittir.
07:42
And those aren'tdeğil the only reasonsnedenleri
140
450549
1612
Bunlar, makineler etraftayken
07:44
that our behaviordavranış around
these machinesmakineler could mattermadde.
141
452185
2570
davranışlarımıza dikkat
etmemiz için tek sebep değil.
07:48
A fewaz yearsyıl after that first
initialilk experiencedeneyim I had
142
456747
3270
Bu yavru dinazor robotla
edindiğim ilk deneyiminden
07:52
with this babybebek dinosaurdinozor robotrobot,
143
460041
2311
birkaç yıl sonra
07:54
I did a workshopatölye
with my friendarkadaş HannesHannes GassertGassert.
144
462376
2501
arkadaşım Hannes Gassert ile
bir workshop yaptık.
07:56
And we tookaldı fivebeş
of these babybebek dinosaurdinozor robotsrobotlar
145
464901
2897
Bu beş bebek dinazoru aldık
07:59
and we gaveverdi them to fivebeş teamstakımlar of people.
146
467822
2453
ve beş takıma ayrılan insanlara verdik.
08:02
And we had them nameisim them
147
470299
1697
İsimlendirmelerini daha sonrasında
08:04
and playoyun with them and interactetkileşim with them
for about an hoursaat.
148
472020
3809
oynamalarını ve bir saat kadar
etkileşimde olmalarını istedik.
08:08
And then we unveiledaçıkladı
a hammerçekiç and a hatchetbalta
149
476707
2206
Üstelik, bir çekiç ve balta çıkardık
08:10
and we told them to tortureişkence
and killöldürmek the robotsrobotlar.
150
478937
2278
robotlara işkence edip
öldürmelerini istedik.
08:13
(LaughterKahkaha)
151
481239
3007
(Kahkaha)
08:16
And this turneddönük out to be
a little more dramaticdramatik
152
484857
2294
Beklediğimizden biraz daha
dramatik olduğunu gördük
08:19
than we expectedbeklenen it to be,
153
487175
1278
08:20
because noneYok of the participantskatılımcılar
would even so much as strikegrev
154
488477
3072
çünkü katılımcılardan
hiçbiri yavru dinazorlara
08:23
these babybebek dinosaurdinozor robotsrobotlar,
155
491573
1307
biraz olsa bile saldırmadı
08:24
so we had to improviseuydurmak a little,
and at some pointpuan, we said,
156
492904
5150
bu yüzden de biraz doğaçlama yapmak
zorunda kaldık ve şöyle dedik
08:30
"OK, you can savekayıt etmek your team'stakımın robotrobot
if you destroyyıkmak anotherbir diğeri team'stakımın robotrobot."
157
498078
4437
"Başka takımın robotunu yok
ederek kendinizinkini kurtarabilirsiniz."
08:34
(LaughterKahkaha)
158
502539
1855
(Kahkaha)
08:36
And even that didn't work.
They couldn'tcould do it.
159
504839
2195
Bu bile işe yaramadı.
Yapamadılar.
08:39
So finallyen sonunda, we said,
160
507058
1151
Son olarak da
08:40
"We're going to destroyyıkmak all of the robotsrobotlar
161
508233
2032
"Biri baltayı vurmazsa
08:42
unlessolmadıkça someonebirisi takes
a hatchetbalta to one of them."
162
510289
2285
tüm robotları yok edeceğiz." dedik.
08:45
And this guy stooddurdu up,
and he tookaldı the hatchetbalta,
163
513586
3579
Biri ayağa kalktı, baltayı aldı.
08:49
and the wholebütün roomoda wincedürktüm
as he broughtgetirdi the hatchetbalta down
164
517189
2706
Baltayı aşağı, robotun ensesine
indirince de
08:51
on the robot'srobotun neckboyun,
165
519919
1780
tüm oda ürktü.
08:53
and there was this half-jokingyarı şaka,
half-seriousyarı ciddi momentan of silenceSessizlik in the roomoda
166
521723
6338
Bu günahkâr robot için
odada yarı şaka yarı ciddi
09:00
for this fallendüşmüş robotrobot.
167
528085
1698
bir sessizlik oluştu.
09:01
(LaughterKahkaha)
168
529807
1406
(Kahkaha)
09:03
So that was a really
interestingilginç experiencedeneyim.
169
531237
3694
Çok ilginç bir deneyimdi.
09:06
Now, it wasn'tdeğildi a controlledkontrollü
studyders çalışma, obviouslybelli ki,
170
534955
2459
Tabii ki kontrollü bir çalışma değildi
09:09
but it did leadöncülük etmek to some
latersonra researchAraştırma that I did at MITMIT
171
537438
2850
fakat daha sonrasında MIT'de
Palash Nandy Cynthia Breazeal
ile yaptığım araştırmaya ön ayak oldu.
09:12
with PalashPalash NandyNandy and CynthiaCynthia BreazealBreazeal,
172
540312
2228
09:14
where we had people come into the lablaboratuvar
and smashSmash these HEXBUGsHEXBUGs
173
542564
3627
Laboratuvara canlı böcekmiş gibi
hareket eden
09:18
that movehareket around in a really
lifelikecanlı gibi way, like insectshaşarat.
174
546215
3087
bu robot böcekleri ezmek için
gelen insanlar vardı.
09:21
So insteadyerine of choosingSeçme something cuteşirin
that people are drawnçekilmiş to,
175
549326
3134
İnsanların ilgisini çekecek
sevimli şeyler seçmek yerine
09:24
we choseseçti something more basictemel,
176
552484
2093
daha basit bir şey seçtik.
09:26
and what we foundbulunan
was that high-empathyyüksek-empati people
177
554601
3480
Keşfettiğim şey ise
empati yapabilen insanların
09:30
would hesitatetereddüt more to hitvurmak the HEXBUGSHEXBUGS.
178
558105
2143
robot böceklere vurmaktan
çekindikleri oldu.
09:33
Now this is just a little studyders çalışma,
179
561575
1564
Bu sadece ufak bir çalışma
09:35
but it's partBölüm of a largerdaha büyük bodyvücut of researchAraştırma
180
563163
2389
fakat insanların empati
eğilimleri ve robotalara
09:37
that is startingbaşlangıç to indicatebelirtmek
that there mayMayıs ayı be a connectionbağ
181
565576
2944
karşı davranışları arasında
09:40
betweenarasında people'sinsanların tendencieseğilimler for empathyempati
182
568544
2373
bir bağın olduğunu gösteren
09:42
and theironların behaviordavranış around robotsrobotlar.
183
570941
1976
daha büyük bir araştırmanın bir parçası.
09:45
But my questionsoru for the cominggelecek eraçağ
of human-robotinsan-robot interactionetkileşim
184
573721
3627
İnsan-robot etkileşimi
çağının gelişiyle ilgili sorum
09:49
is not: "Do we empathizeempati with robotsrobotlar?"
185
577372
3055
"Robotlarla empati yapıyor muyuz?" değil
09:53
It's: "Can robotsrobotlar changedeğişiklik
people'sinsanların empathyempati?"
186
581211
2920
"Robotlar insanların empatisini
değiştirebilir mi?" idi.
09:57
Is there reasonneden to, for exampleörnek,
187
585489
2287
Mesela, çocuğunuzun
bir robot köpeği tekmelemesini
09:59
preventönlemek your childçocuk
from kickingtekme a roboticrobotik dogköpek,
188
587800
2333
köpeğin bir eşya olduğu için mi
10:03
not just out of respectsaygı for propertyözellik,
189
591228
2914
yoksa çocuğun gerçek bir
köpeği de tekmeleme olasılığı
10:06
but because the childçocuk mightbelki be
more likelymuhtemelen to kicktekme a realgerçek dogköpek?
190
594166
2953
olabileceğini engellemek
için mi durdursunuz?
10:10
And again, it's not just kidsçocuklar.
191
598507
1883
Aslında, konu sadece çocuklar değil.
10:13
This is the violentşiddetli videovideo gamesoyunlar questionsoru,
but it's on a completelytamamen newyeni levelseviye
192
601564
4056
Bu şiddetli video oyunları meselesi
ama tamamen yeni bir seviyede
10:17
because of this visceralvisseral physicalityfiziksellik
that we respondyanıtlamak more intenselyyoğun bir şekilde to
193
605644
4760
çünkü bu içgüdüsel hareketlere
bir ekrandaki görüntülere göre
çok daha fazla tepki veriyoruz.
10:22
than to imagesGörüntüler on a screenekran.
194
610428
1547
10:25
When we behaveDavranmak violentlyşiddetle towardskarşı robotsrobotlar,
195
613674
2578
Özellikle hayatımızı taklit
etmek için tasarlanmış
10:28
specificallyözellikle robotsrobotlar
that are designedtasarlanmış to mimicmimik life,
196
616276
3120
robotlara karşı şiddetle davrandığımızda
10:31
is that a healthysağlıklı outletçıkış
for violentşiddetli behaviordavranış
197
619420
3892
şiddetli davranış açısından
sağlıklı bir dışavurum mu
10:35
or is that trainingEğitim our crueltyacımasızlık muscleskaslar?
198
623336
2544
yoksa sadece kabalık
kaslarımız için bir idman mı?
10:39
We don't know ...
199
627511
1150
Bilmiyoruz.
10:42
But the answerCevap to this questionsoru has
the potentialpotansiyel to impactdarbe humaninsan behaviordavranış,
200
630622
3945
Ama bu soruya cevabın insan
davranışlarını, sosyal normları
10:46
it has the potentialpotansiyel
to impactdarbe socialsosyal normsnormlar,
201
634591
2768
etkileme potansiyeli var.
10:49
it has the potentialpotansiyel to inspireilham vermek ruleskurallar
around what we can and can't do
202
637383
3849
Hayvani gaddarlık kurallarına benzer
şekilde belli robotlarla ne yapıp
10:53
with certainbelli robotsrobotlar,
203
641256
1151
yapamayacağımıza dair
10:54
similarbenzer to our animalhayvan crueltyacımasızlık lawsyasalar.
204
642431
1848
kuralları etkileme potansiyeli var.
10:57
Because even if robotsrobotlar can't feel,
205
645228
2864
Çünkü robotlar hissedemeseler dahi
11:00
our behaviordavranış towardskarşı them
mightbelki mattermadde for us.
206
648116
3080
onlara karşı davranışlarımız
bizim için önemlidir.
11:04
And regardlessne olursa olsun of whetherolup olmadığını
we endson up changingdeğiştirme our ruleskurallar,
207
652889
2855
Kurallarımızı değiştirip
değiştirmememize bakmaksızın
11:08
robotsrobotlar mightbelki be ableyapabilmek to help us
come to a newyeni understandinganlayış of ourselveskendimizi.
208
656926
3556
robotlar kendimiz hakkında yeni bir
anlayışa varmamıza yardım edebilirler.
11:14
MostÇoğu of what I've learnedbilgili
over the pastgeçmiş 10 yearsyıl
209
662276
2316
Geçen on yılda öğrendiklerimin çoğunun
11:16
has not been about technologyteknoloji at all.
210
664616
2238
teknoloji ile hiç alakası yoktu.
11:18
It's been about humaninsan psychologyPsikoloji
211
666878
2503
Çoğu, insan psikolojisi,
empati ve diğerlerine
11:21
and empathyempati and how we relateilgili to othersdiğerleri.
212
669405
2603
nasıl bağlıyız ile ilgiliydi.
11:25
Because when a childçocuk is kindtür to a RoombaRoomba,
213
673524
2365
Çünkü bir çocuk Roomba'ya
karşı nazik olduğunda,
11:29
when a soldierasker triesçalışır to savekayıt etmek
a robotrobot on the battlefieldsavaş,
214
677262
4015
bir asker harp meydanındaki bir
robotun hayatını kurtarmaya çalıştığında
11:33
or when a groupgrup of people refusesreddediyor
to harmzarar a roboticrobotik babybebek dinosaurdinozor,
215
681301
3638
veya bir grup insan bir yavru robot
dinazora zarar vermeyi reddettiğinde
11:38
those robotsrobotlar aren'tdeğil just motorsmotorlar
and gearsdişliler and algorithmsalgoritmalar.
216
686248
3191
robotların yalnızca motor, eşya
veya algoritma olmadığını görürüz.
11:42
They're reflectionsYansımalar of our ownkendi humanityinsanlık.
217
690501
1905
Onlar insanlığımızın yansımalarıdır.
11:45
Thank you.
218
693523
1151
Teşekkür ederim.
11:46
(ApplauseAlkış)
219
694698
3397
(Alkış)
Translated by Tolga Uslu
Reviewed by Figen Ergürbüz

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee