ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

Kate Darling(케이트 달링): 로봇에게 감정을 갖는 이유

Filmed:
2,403,010 views

감정을 느끼는 로봇을 만들기엔 아직 멀었지만, 우리들은 이미 그들을 느끼고, 결과를 가질 수 있는 천성과도 같다고 로봇 윤리학자인 케이트는 말합니다. 어떻게 우리가 기계에 대해 의도와 삶을 보여주는 생물학적 하드웨어인지, 그리고 어떻게 로봇이 우리들 스스로가 더 나은 이해를 하도록 돕는지에 대해 더 많이 배울수 있습니다.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

00:13
There was a day, about 10 years연령 ago...전에,
0
1047
2508
10년 전 어느날,
00:15
when I asked물었다 a friend친구 to hold보류
a baby아가 dinosaur공룡 robot기계 인간 upside down.
1
3579
3944
친구에게 아기 공룡 로봇을
거꾸로 들어봐라고 했어요.
00:21
It was this toy장난감 called전화 한 a PleoPleo
that I had ordered주문한,
2
9889
3446
제가 주문했던 것은
플레오(Pleo)라는 장난감이었고
00:25
and I was really excited흥분한 about it
because I've always loved사랑하는 robots로봇.
3
13359
4401
모든 로봇을 좋아했기에
정말로 기대하고 있었습니다.
00:29
And this one has really cool시원한
technical전문인 features풍모.
4
17784
2279
그리고 이 로봇은 정말
멋진 기술적 특징이 있었어요.
00:32
It had motors모터 and touch접촉 sensors센서
5
20087
2119
모터와 터치 센서가 있었고
00:34
and it had an infrared적외선 camera카메라.
6
22230
2244
적외선 카메라가 있었어요.
00:36
And one of the things it had
was a tilt경사 sensor감지기,
7
24498
2763
이 로봇이 가진 특징 중 하나는
수평 센서였는데
00:39
so it knew알고 있었다 what direction방향 it was facing면함.
8
27285
2318
이 센서로 Pleo가
바라보는 방향을 알 수 있죠.
00:42
And when you held개최 된 it upside down,
9
30095
2134
이것을 거꾸로 들면
00:44
it would start스타트 to cry울음 소리.
10
32253
1572
Pleo는 울기 시작합니다.
00:46
And I thought this was super감독자 cool시원한,
so I was showing전시 it off to my friend친구,
11
34527
3496
이 점이 정말 멋지다고 생각해서
친구에게도 보여줬죠.
00:50
and I said, "Oh, hold보류 it up by the tail꼬리.
See what it does."
12
38047
2805
"와, 이거 꼬리 좀 잡고 들어봐.
이게 뭐하는지 좀 봐"라고 말했어요.
00:55
So we're watching보고있다
the theatrics연극 of this robot기계 인간
13
43268
3625
우린 이 로봇이 기계적으로
버둥거리며 울부짖는 것을
00:58
struggle노력 and cry울음 소리 out.
14
46917
2199
보고있었습니다.
01:02
And after a few조금 seconds,
15
50767
2047
그리고 몇 초 후
01:04
it starts시작하다 to bother귀찮음 me a little,
16
52838
1972
이게 조금 불편해지기 시작했어요.
01:07
and I said, "OK, that's enough충분히 now.
17
55744
3424
"아, 충분해 이제.
01:11
Let's put him back down."
18
59930
2305
다시 똑바로 세워 두자."
라고 말했습니다.
01:14
And then I pet착한 애 the robot기계 인간
to make it stop crying외치는.
19
62259
2555
그리곤 전 Pleo가 더 이상
울지 않도록 쓰다듬었어요.
01:18
And that was kind종류 of
a weird기묘한 experience경험 for me.
20
66973
2452
이런것 은 저에게
기묘한 경험 중 하나입니다.
01:22
For one thing, I wasn't아니었다. the most가장
maternal산모 person사람 at the time.
21
70084
4569
사실, 그 당시 저는 그다지
모성애적인 사람은 아니었죠.
01:26
Although이기는 하지만 since이후 then I've become지다
a mother어머니, nine아홉 months개월 ago...전에,
22
74677
2731
비록 9개월 전에 엄마가 된 이후에
01:29
and I've learned배운 that babies아기들 also또한 squirm질주하다
when you hold보류 them upside down.
23
77432
3433
아기들 또한 거꾸로 뒤집히면
몸부림친다는 것을 알았지만요.
01:32
(Laughter웃음)
24
80889
1563
(웃음)
01:35
But my response응답 to this robot기계 인간
was also또한 interesting재미있는
25
83023
2358
하지만 이 로봇에 대한
저의 반응은 흥미로웠는데
01:37
because I knew알고 있었다 exactly정확하게
how this machine기계 worked일한,
26
85405
4101
이 로봇이 어떻게 움직이는지
정확하게 알고 있었음에도 불구하고
01:41
and yet아직 I still felt펠트
compelled강요당한 to be kind종류 to it.
27
89530
3262
여전히 로봇에게 잘 해줘야
한다고 느꼈어요.
01:46
And that observation관측 sparked촉발 된 a curiosity호기심
28
94450
2707
이 관찰은 지난 십여년의 연구를 하도록
01:49
that I've spent지출하다 the past과거 decade로사리오 염주 pursuing추구하다.
29
97181
2832
호기심에 불을 붙였습니다.
01:52
Why did I comfort위로 this robot기계 인간?
30
100911
1793
왜 이 로봇을 위로해줬을까요?
01:56
And one of the things I discovered발견 된
was that my treatment치료 of this machine기계
31
104228
3579
제가 발견한 것들 중 하나는
이 로봇에 대한 저의 대우가
01:59
was more than just an awkward어색한 moment순간
in my living생활 room,
32
107831
3701
거실에서 단순히 어색한 순간
그 이상이라는 것을 발견한 것입니다.
02:03
that in a world세계 where we're increasingly더욱 더
integrating통합 robots로봇 into our lives,
33
111556
5420
그곳은 로봇이 점점 더
우리 삶으로 들어오는 곳이고
02:09
an instinct본능 like that
might actually사실은 have consequences결과,
34
117000
3126
그런 본능은 실제로 어떤 결과를 낳는데
02:13
because the first thing that I discovered발견 된
is that it's not just me.
35
121452
3749
제가 처음 발견한 게
저만 그런 게 아니라는 겁니다.
02:19
In 2007, the Washington워싱턴 Post게시하다
reported보고 된 that the United유나이티드 States military
36
127249
4802
2007년, Washington Post는
미군이 지뢰를 제거하는
02:24
was testing시험 this robot기계 인간
that defused해고 된 land mines광산.
37
132075
3230
로봇을 테스트했다고 보고했었습니다.
02:27
And the way it worked일한
was it was shaped모양의 like a stick스틱 insect곤충
38
135329
2912
이것이 작동하는 방식은
마치 막대 벌레처럼 생겼고
02:30
and it would walk산책
around a minefield지뢰밭 on its legs다리,
39
138265
2651
다리로 지뢰밭을 걸어다니다가
02:32
and every...마다 time it stepped계단을 밟은 on a mine광산,
one of the legs다리 would blow타격 up,
40
140940
3206
지뢰를 밟을 때마다
밟은 다리가 터질 겁니다.
02:36
and it would continue잇다 on the other legs다리
to blow타격 up more mines광산.
41
144170
3057
그리곤 계속 남은 다른 다리로
더 많은 지뢰를 터뜨리겠죠.
02:39
And the colonel대령 who was in charge요금
of this testing시험 exercise운동
42
147251
3786
이 실험의 책임자였던 대령은
02:43
ends끝이다 up calling부름 it off,
43
151061
2118
이 실험을 끝냈습니다.
02:45
because, he says말한다, it's too inhumane비인간적 인
44
153203
2435
왜냐면 그가 말하길
부서진 로봇이 지뢰밭에서 질질 끌고 가는
모습을 보는 게 너무 비인간적이어서 랍니다.
02:47
to watch this damaged손상된 robot기계 인간
drag견인 itself그 자체 along...을 따라서 the minefield지뢰밭.
45
155662
4516
02:54
Now, what would cause원인
a hardened경화 된 military officer장교
46
162978
3897
단련된 군장교나 저 같은 사람이
02:58
and someone어떤 사람 like myself자기
47
166899
2043
로봇들에게 이런 반응을 갖도록
만든 것은 무엇일까요?
03:00
to have this response응답 to robots로봇?
48
168966
1857
03:03
Well, of course코스, we're primed뇌관을 낀
by science과학 fiction소설 and pop culture문화
49
171537
3310
물론 저희는 공상소설이나
대중 문화에 영향을 받았죠.
03:06
to really want to personify의인화하다 these things,
50
174871
2579
이런 로봇들을 의인화하고 싶어하죠.
03:09
but it goes간다 a little bit비트 deeper더 깊은 than that.
51
177474
2789
하지만 이런 것보다 좀 더 심오합니다.
03:12
It turns회전 out that we're biologically생물학적으로
hardwired하드 와이어드 to project계획 intent의지 and life
52
180287
5309
우린 생물학적으로 의도와 생명력을
투영시키도록 되어 있는데
03:17
onto~에 any movement운동 in our physical물리적 인 space공간
that seems~ 같다 autonomous자발적인 to us.
53
185620
4766
실제 공간에서 자율적으로 보이는 움직임에
그런 반응을 갖는다고 합니다.
03:23
So people will treat all sorts종류
of robots로봇 like they're alive살아 있는.
54
191214
3465
그렇기에 사람들은 모든 로봇을
마치 생물처럼 대합니다.
03:26
These bomb-disposal폭탄 폐기 units단위 get names이름.
55
194703
2683
이 폭탄제거 로봇은 이름을 얻게되죠.
03:29
They get medals메달 of honor명예.
56
197410
1682
훈장도 받죠.
03:31
They've그들은 had funerals장례식 for them
with gun salutes경례.
57
199116
2325
그들은 예포를 받으며
장례도 치렀습니다.
03:34
And research연구 shows that we do this
even with very simple단순한 household가정 robots로봇,
58
202380
3833
조사자료들은 가전기기에도
이런한 일들을 한다고 보여줍니다.
03:38
like the Roomba룸바 vacuum진공 cleaner청소기.
59
206237
2135
진공청소기 같은 것들에도요.
03:40
(Laughter웃음)
60
208396
1291
(웃음)
03:41
It's just a disc디스크 that roams배회하다
around your floor바닥 to clean깨끗한 it,
61
209711
3089
이 청소기는 바닥을 청소하기 위해
움직이는 원반일 뿐이죠.
03:44
but just the fact it's moving움직이는
around on its own개인적인
62
212824
2306
하지만 이 로봇은 자기 반경만 움직여서
03:47
will cause원인 people to name이름 the Roomba룸바
63
215154
2167
룸바라고 불리게 될테고
03:49
and feel bad나쁜 for the Roomba룸바
when it gets도착 stuck붙어있는 under아래에 the couch침상.
64
217345
3182
소파 밑에 막혀버릴 때면
룸바가 안타깝죠.
03:52
(Laughter웃음)
65
220551
1865
(웃음)
03:54
And we can design디자인 robots로봇
specifically구체적으로 to evoke일깨우다 this response응답,
66
222440
3340
이런 반응을 일으키도록
로봇을 설계할 수 있는데
03:57
using~을 사용하여 eyes and faces얼굴들 or movements동정
67
225804
3461
눈, 얼굴이나 움직을 이용해서
04:01
that people automatically자동으로,
subconsciously무의식적으로 associate동무
68
229289
3259
사람들이 무의식적으로
마음 상태와 연결짓게 하는 거죠.
04:04
with states of mind마음.
69
232572
2020
04:06
And there's an entire완전한 body신체 of research연구
called전화 한 human-robot인간 - 로봇 interaction상호 작용
70
234616
3293
이것이 얼마나 잘 작동하는지
보여주는 인간-로봇 상호작용이라는
04:09
that really shows how well this works공장.
71
237933
1826
연구 단체가 있습니다.
04:11
So for example, researchers연구원
at Stanford스탠포드 University대학 found녹이다 out
72
239783
3126
예를 들면, 스탠포드 대학
연구진들이 발견했는데
04:14
that it makes~을 만든다 people really uncomfortable앉기 불편한
73
242933
2001
사람들이 정말 불편해한다는 겁니다.
04:16
when you ask청하다 them to touch접촉
a robot's로봇 private은밀한 parts부분품.
74
244958
2472
로봇의 사적인 부분을 만지라고 하면요.
04:19
(Laughter웃음)
75
247454
2120
(웃음)
04:21
So from this, but from many많은 other studies연구,
76
249598
2023
이 연구와 다른 연구들로부터
04:23
we know, we know that people
respond응창 성가 to the cues단서 given주어진 to them
77
251645
4223
사람들은 주어진 자극에
반응함을 압니다.
04:27
by these lifelike살아 있는 것 같은 machines기계들,
78
255892
2022
진짜가 아님을 아는데도
살아있는 것 같은 기계에 반응합니다.
04:29
even if they know that they're not real레알.
79
257938
2017
04:33
Now, we're headed향하고있는 towards...쪽으로 a world세계
where robots로봇 are everywhere어디에나.
80
261654
4056
이제, 어디에나 로봇이 있는
세상으로 향해가고 있습니다.
04:37
Robotic로봇 technology과학 기술 is moving움직이는 out
from behind뒤에 factory공장 walls.
81
265734
3065
로봇 기술은 공장을 벗어나고 있습니다.
04:40
It's entering들어가는 workplaces직장, households가정.
82
268823
3013
직장과 가정으로 들어가고 있죠.
04:43
And as these machines기계들 that can sense감각
and make autonomous자발적인 decisions결정들 and learn배우다
83
271860
6209
이렇게 이해하고
스스로 결정하고 배우는 기계들이
04:50
enter들어가다 into these shared공유 된 spaces공백,
84
278093
2552
공용 공간에 들어가기에
04:52
I think that maybe the best베스트
analogy유추 we have for this
85
280669
2496
이것을 적절하게 비유해보면
04:55
is our relationship관계 with animals동물.
86
283189
1935
동물과의 관계일 겁니다.
04:57
Thousands수천 of years연령 ago...전에,
we started시작한 to domesticate가축화하다 animals동물,
87
285523
3888
수 천년 전, 우린 동물들을
길들이기 시작했고,
05:01
and we trained훈련 된 them for work
and weaponry무기류 and companionship식자공 동료.
88
289435
4045
노동, 무기, 반려용으로 길렀습니다.
05:05
And throughout전역 history역사, we've우리는 treated치료 된
some animals동물 like tools도구들 or like products제작품,
89
293504
4985
역사를 통틀어 동물들을
도구나 물건으로 대했고
05:10
and other animals동물,
we've우리는 treated치료 된 with kindness친절
90
298513
2174
어떤 동물들은 친절하게 대하고
05:12
and we've우리는 given주어진 a place장소 in society사회
as our companions동행자.
91
300711
3078
반려 동물로 사회적 위치를 뒀습니다.
05:15
I think it's plausible그럴듯한 we might start스타트
to integrate통합하다 robots로봇 in similar비슷한 ways.
92
303813
3849
로봇을 비슷한 경우로
통합하기 시작한다고 생각합니다.
05:21
And sure, animals동물 are alive살아 있는.
93
309484
3096
물론, 동물들은 살아있죠.
05:24
Robots로봇 are not.
94
312604
1150
로봇은 아니고요.
05:27
And I can tell you,
from working with roboticists로봇 학자,
95
315626
2580
로봇 산업에서 일하는 사람으로
말씀드릴 수 있는 건
05:30
that we're pretty예쁜 far멀리 away from developing개발 중
robots로봇 that can feel anything.
96
318230
3522
감정을 느끼는 로봇 개발은
한참 멀었습니다.
05:35
But we feel for them,
97
323072
1460
하지만 우리는 로봇에게 느낍니다.
05:37
and that matters사안,
98
325835
1207
그것이 중요합니다.
05:39
because if we're trying견딜 수 없는 to integrate통합하다
robots로봇 into these shared공유 된 spaces공백,
99
327066
3627
왜냐면 로봇을 공용 공간에
접목시키려 한다면
05:42
we need to understand알다 that people will
treat them differently다르게 than other devices장치들,
100
330717
4628
사람들이 다른 기계와는 다르게
대한다는 걸 이해해야 하니까요.
05:47
and that in some cases사례,
101
335369
1844
어떤 경우에는
05:49
for example, the case케이스 of a soldier병사
who becomes된다 emotionally감정적으로 attached붙여진
102
337237
3172
예를 들어 함께 일하는
로봇과 애착이 생긴 군인의 경우
05:52
to the robot기계 인간 that they work with,
103
340433
2047
05:54
that can be anything
from inefficient무능한 to dangerous위험한.
104
342504
2504
비효율적인 일부터
위험한 일이 될 수도 있어요.
05:58
But in other cases사례,
it can actually사실은 be useful유능한
105
346551
2138
하지만 다른 경우에는
로봇과 감정적인 소통을
06:00
to foster기르다 this emotional정서적 인
connection연결 to robots로봇.
106
348713
2623
촉진하는 것은 사실
아주 유용할 수 있습니다.
06:04
We're already이미 seeing some great use cases사례,
107
352184
2134
이미 휼륭한 사용처를 보고있습니다.
06:06
for example, robots로봇 working
with autistic자폐증의 children어린이
108
354342
2604
예를 들어, 자폐아동을 돌보는 로봇은
06:08
to engage끌다 them in ways
that we haven't~하지 않았다. seen previously이전에,
109
356970
3634
이전엔 보지 못한 방식으로
아이들을 돌보거나
06:12
or robots로봇 working with teachers교사 to engage끌다
kids아이들 in learning배우기 with new새로운 results결과들.
110
360628
4000
학생들의 새로운 학습결과를 내는
교사와 함께 작업하는 로봇이죠.
06:17
And it's not just for kids아이들.
111
365433
1381
아이들에게만 해당하진 않습니다.
06:19
Early이른 studies연구 show보여 주다 that robots로봇
can help doctors의사들 and patients환자
112
367750
3223
초기 연구들은 로봇들이
의사와 환자들의
06:22
in health건강 care케어 settings설정.
113
370997
1427
건강 유지에 도움을 준다고 합니다.
06:25
This is the PAROParo baby아가 seal봉인 robot기계 인간.
114
373535
1810
PARO라는 아기 바다표범 로봇입니다.
06:27
It's used in nursing육아 homes주택
and with dementia백치 patients환자.
115
375369
3285
양로원과 치매 환자들을
돌보기위해 사용되죠.
06:30
It's been around for a while.
116
378678
1570
얼마동안 있었습니다.
06:32
And I remember생각해 내다, years연령 ago...전에,
being존재 at a party파티
117
380272
3325
제 기억엔, 몇 년 전
한 파티에 있을 때
06:35
and telling말함 someone어떤 사람 about this robot기계 인간,
118
383621
2571
누군가에게 이 로봇을 말했어요.
06:38
and her response응답 was,
119
386216
2126
그러자 그녀의 반응은
06:40
"Oh my gosh어리석은.
120
388366
1262
"세상에
06:42
That's horrible끔찍한.
121
390508
1188
끔찍하네요.
06:45
I can't believe we're giving주는 people
robots로봇 instead대신에 of human인간의 care케어."
122
393056
3397
사람이 돌봐주지 않고
로봇을 주다니 믿을수 없네요." 였습니다.
06:50
And this is a really common공유지 response응답,
123
398540
1875
이건 아주 일반적인 반응이에요.
06:52
and I think it's absolutely전혀 correct옳은,
124
400439
2499
그게 정말 맞다고 생각하는데
06:54
because that would be terrible무서운.
125
402962
2040
그게 끔찍할테니까요.
06:57
But in this case케이스,
it's not what this robot기계 인간 replaces대체하다.
126
405795
2484
하지만 이 경우 로봇이
대체한 걸 말하는 게 아니에요.
07:00
What this robot기계 인간 replaces대체하다 is animal동물 therapy요법
127
408858
3120
로봇이 대체한 것은 동물치료입니다.
07:04
in contexts문맥 where
we can't use real레알 animals동물
128
412002
3198
우리가 실제 동물을
쓸 수 없는 상황에선
07:07
but we can use robots로봇,
129
415224
1168
로봇을 쓸 수 있죠.
07:08
because people will consistently일관되게 treat
them more like an animal동물 than a device장치.
130
416416
5230
사람들은 계속해서 기계라기보단 동물처럼
PARO를 대할 것이니까요.
07:15
Acknowledging수신 확인 this emotional정서적 인
connection연결 to robots로봇
131
423502
2380
로봇과 이런 감성적인 연결을
인지하는 것은
07:17
can also또한 help us anticipate앞질러 하다 challenges도전
132
425906
1969
어려움을 예상하도록 도와줄 수 있어요.
07:19
as these devices장치들 move움직임 into more intimate친밀한
areas지역 of people's사람들의 lives.
133
427899
3451
이런 기기들이 삶의 보다
친밀한 영역으로 들어오니까요.
07:24
For example, is it OK
if your child's아이의 teddy테디 bear robot기계 인간
134
432111
3404
이를테면, 여러분 자녀의 곰인형 로봇이
07:27
records기록들 private은밀한 conversations대화?
135
435539
2237
사적인 대화를 녹음해도 괜찮겠습니까?
07:29
Is it OK if your sex섹스 robot기계 인간
has compelling강요하는 in-app인 앱 purchases구매?
136
437800
4063
여러분의 섹스로봇이
강제로 앱구매를 해도 괜찮나요?
07:33
(Laughter웃음)
137
441887
1396
(웃음)
07:35
Because robots로봇 plus...을 더한 capitalism자본주의
138
443307
2501
로봇과 자본주의의 결합은
07:37
equals같음 questions질문들 around
consumer소비자 protection보호 and privacy은둔.
139
445832
3705
소비자 보호와 사생활의
문제와 같으니까요.
07:42
And those aren't있지 않다. the only reasons원인
140
450549
1612
그런 이유만으로
07:44
that our behavior행동 around
these machines기계들 could matter문제.
141
452185
2570
기계와 함께 있는 우리 행동이
중요한 건 아닙니다.
07:48
A few조금 years연령 after that first
initial머리 글자 experience경험 I had
142
456747
3270
그 아기 공룡 로봇(Pleo)를 통한
경험이 있은 후 몇년 후에
07:52
with this baby아가 dinosaur공룡 robot기계 인간,
143
460041
2311
07:54
I did a workshop작업장
with my friend친구 HannesHannes Gassert가스 서.
144
462376
2501
하네스 가서트란 친구와
워크샵을 가졌습니다.
07:56
And we took~했다 five다섯
of these baby아가 dinosaur공룡 robots로봇
145
464901
2897
우린 다섯 개의 Pleo를 가져와서
07:59
and we gave them to five다섯 teams of people.
146
467822
2453
다섯 팀에게 나눠주었죠.
08:02
And we had them name이름 them
147
470299
1697
그리곤 그 팀이 Pleo에게
이름을 짓게 하고
08:04
and play놀이 with them and interact상호 작용하다 with them
for about an hour시간.
148
472020
3809
한 시간 동안 같이 놀고
소통하게 했습니다.
08:08
And then we unveiled공개 된
a hammer망치 and a hatchet자귀
149
476707
2206
그리고 저희는 해머와 도끼를 꺼내선
08:10
and we told them to torture고문
and kill죽이다 the robots로봇.
150
478937
2278
그들에게 Pleo를
고문하고 부숴라고 말했죠.
08:13
(Laughter웃음)
151
481239
3007
(웃음)
08:16
And this turned돌린 out to be
a little more dramatic극적인
152
484857
2294
이것은 예상했던 것보다도
좀더 극적이었습니다.
08:19
than we expected예상 한 it to be,
153
487175
1278
08:20
because none없음 of the participants참가자
would even so much as strike스트라이크
154
488477
3072
어떤 참여자도 이 작은
아기 공룡 로봇을
08:23
these baby아가 dinosaur공룡 robots로봇,
155
491573
1307
아주 강하게 내려치지 않았거든요.
08:24
so we had to improvise즉석에서 연주하다 a little,
and at some point포인트, we said,
156
492904
5150
그래서 약간 계획을 수정해야 했고
어느 시점에 말했습니다.
"좋아요, 다른 팀의 로봇을 부수면
여러분 팀의 로봇을 구할 수 있어요."
08:30
"OK, you can save구하다 your team's robot기계 인간
if you destroy멸하다 another다른 team's robot기계 인간."
157
498078
4437
08:34
(Laughter웃음)
158
502539
1855
(웃음)
08:36
And even that didn't work.
They couldn't할 수 없었다 do it.
159
504839
2195
이것도 소용 없었죠.
그들은 하지 않았어요.
08:39
So finally마침내, we said,
160
507058
1151
그래서 결과적으로 저희는 말했죠.
08:40
"We're going to destroy멸하다 all of the robots로봇
161
508233
2032
"우린 모든 로봇을 부술 거예요.
08:42
unless~ 않는 한 someone어떤 사람 takes
a hatchet자귀 to one of them."
162
510289
2285
누군가가 도끼로 이 중 하나를
부수지 않으면요."
08:45
And this guy stood서서 up,
and he took~했다 the hatchet자귀,
163
513586
3579
이랬더니 한 남자가 일어나곤
도끼를 집어들었죠.
08:49
and the whole완전한 room winced감기다
as he brought가져온 the hatchet자귀 down
164
517189
2706
그가 로봇의 목에 도끼를 내려찍을 때
08:51
on the robot's로봇 neck,
165
519919
1780
방의 모든 사람들이 주춤했죠.
08:53
and there was this half-joking반 농담,
half-serious반 심각한 moment순간 of silence침묵 in the room
166
521723
6338
그 방에 반은 장난스럽고
반은 심각한 정적의 순간이 있었죠.
09:00
for this fallen타락한 robot기계 인간.
167
528085
1698
이 쓰러진 로봇에 대해서 말입니다.
09:01
(Laughter웃음)
168
529807
1406
(웃음)
09:03
So that was a really
interesting재미있는 experience경험.
169
531237
3694
이건 엄청 흥미로운 경험이었어요.
09:06
Now, it wasn't아니었다. a controlled통제 된
study연구, obviously명백하게,
170
534955
2459
이건 통제된 연구는 분명히 아니었죠.
09:09
but it did lead리드 to some
later후에 research연구 that I did at MITMIT
171
537438
2850
하지만 이 실험으로 제가 MIT에서
동료인 Palsh와 Cynthia와 함께 한
09:12
with Palash팔 라 쉬 Nandy고궁 and Cynthia BreazealBreazeal,
172
540312
2228
이후의 몇몇 연구를 하게 됐습니다.
09:14
where we had people come into the lab
and smash스매시 these HEXBUGs헥 사 버그
173
542564
3627
MIT에서 우리들은 연구실로
사람들을 불러서 거미로봇을 부수게 했죠.
09:18
that move움직임 around in a really
lifelike살아 있는 것 같은 way, like insects곤충.
174
546215
3087
이 거미로봇은 진짜 산
곤충처럼 걸어다녔죠.
09:21
So instead대신에 of choosing고르는 something cute귀엽다
that people are drawn그어진 to,
175
549326
3134
사람들이 생각하던
귀여운 모양을 선택하는 것 대신에
09:24
we chose선택한 something more basic기본,
176
552484
2093
저희는 더 기본적인 걸 선택했고
09:26
and what we found녹이다
was that high-empathy높은 공감 people
177
554601
3480
저희가 발견한 것은
잘 감정이입하는 사람들이
09:30
would hesitate서슴다 more to hit히트 the HEXBUGS헥 사 버그.
178
558105
2143
거미로봇을 부수기에 주저한다는 겁니다.
09:33
Now this is just a little study연구,
179
561575
1564
이건 단지 간단한 연구일 뿐이지만
09:35
but it's part부품 of a larger더 큰 body신체 of research연구
180
563163
2389
사람들의 감정에 대한 경향과
09:37
that is starting출발 to indicate가리키다
that there may할 수있다 be a connection연결
181
565576
2944
로봇에 대한 그들의 행동 사이의
연결이 있을 것이라는 것을
09:40
between중에서 people's사람들의 tendencies성향 for empathy감정 이입
182
568544
2373
보여주기 시작한 연구의
큰 틀 중 일부라는 것이죠.
09:42
and their그들의 behavior행동 around robots로봇.
183
570941
1976
09:45
But my question문제 for the coming오는 era연대
of human-robot인간 - 로봇 interaction상호 작용
184
573721
3627
하지만 사람-로봇의 상호작용의
다가오는 사대에 대한 제 의문은
09:49
is not: "Do we empathize공감하다 with robots로봇?"
185
577372
3055
"우리가 로봇에게 감정이입을 할까?"
가 아닙니다.
09:53
It's: "Can robots로봇 change변화
people's사람들의 empathy감정 이입?"
186
581211
2920
"로봇이 사람들의
감정에 변화를 줄까?" 입니다.
09:57
Is there reason이유 to, for example,
187
585489
2287
예를 들면, 여러분의 아이들이
09:59
prevent막다 your child어린이
from kicking발길질 a robotic로봇 식의 dog,
188
587800
2333
로봇 강아지를 발로 차는 걸
하지 말라고 할 이유가 있나요?
10:03
not just out of respect존경 for property재산,
189
591228
2914
소유물에 대한 인식 때문이 아니라
10:06
but because the child어린이 might be
more likely아마도 to kick발 차기 a real레알 dog?
190
594166
2953
아이가 진짜 강아지를 차버릴 것이란
걱정 때문에 말입니다.
10:10
And again, it's not just kids아이들.
191
598507
1883
아이에게만 해당되는 게 아닙니다.
10:13
This is the violent격렬한 video비디오 games계략 question문제,
but it's on a completely완전히 new새로운 level수평
192
601564
4056
이건 폭력적인 비디오 게임의 질문이지만,
완전히 새로운 단계에 있죠.
10:17
because of this visceral내장 physicality물질적 성질
that we respond응창 성가 more intensely격렬히 to
193
605644
4760
스크린의 이미지에 비해
더 격렬하게 우리가 반응하는
10:22
than to images이미지들 on a screen화면.
194
610428
1547
감정적인 실체이기 때문이죠.
10:25
When we behave굴다 violently맹렬히 towards...쪽으로 robots로봇,
195
613674
2578
우리가 로봇을 난폭하게 대할 때
10:28
specifically구체적으로 robots로봇
that are designed디자인 된 to mimic모방품 life,
196
616276
3120
특히나 생물을 본딴
로봇을 폭력적으로 대할 때,
10:31
is that a healthy건강한 outlet콘센트
for violent격렬한 behavior행동
197
619420
3892
그것이 폭력적 행동에 대한
정상적인 해소법인가요?
10:35
or is that training훈련 our cruelty잔학 muscles근육?
198
623336
2544
또는 우리의 잔혹한
근육을 단련하는 것입니까?
10:39
We don't know ...
199
627511
1150
우린 모르죠.
10:42
But the answer대답 to this question문제 has
the potential가능성 to impact충격 human인간의 behavior행동,
200
630622
3945
하지만 이 질문에 대한 답은 사람들의 행동에
잠재적인 영향력을 미칩니다.
10:46
it has the potential가능성
to impact충격 social사회적인 norms규범,
201
634591
2768
사회적 규범에 잠재적인 영향을 미치죠.
10:49
it has the potential가능성 to inspire일으키게 하다 rules규칙들
around what we can and can't do
202
637383
3849
우리가 특정 로봇으로
할 수 있는 것과 없는 것에 대한
10:53
with certain어떤 robots로봇,
203
641256
1151
법들을 고무시킬수 있죠.
10:54
similar비슷한 to our animal동물 cruelty잔학 laws법률.
204
642431
1848
이를 테면 돌물학대 방지법과
유사한 법을 말입니다.
10:57
Because even if robots로봇 can't feel,
205
645228
2864
로봇이 아무것도 느끼진 못하더라도
11:00
our behavior행동 towards...쪽으로 them
might matter문제 for us.
206
648116
3080
로봇에 대한 우리 행동이
중요하기 때문입니다.
11:04
And regardless관계없이 of whether인지 어떤지
we end종료 up changing작고 보기 흉한 사람 our rules규칙들,
207
652889
2855
우리 규칙을 바꾸게 되는 것과 상관없이
11:08
robots로봇 might be able할 수 있는 to help us
come to a new새로운 understanding이해 of ourselves우리 스스로.
208
656926
3556
로봇은 아마 우리 스스로를 새롭게
이해하도록 도와줄 겁니다.
11:14
Most가장 of what I've learned배운
over the past과거 10 years연령
209
662276
2316
지난 10여년 간
제가 배운 것 대부분은
11:16
has not been about technology과학 기술 at all.
210
664616
2238
단순히 기술적인 부분만은 아닙니다.
11:18
It's been about human인간의 psychology심리학
211
666878
2503
사람의 심리와 공감,
11:21
and empathy감정 이입 and how we relate말하다 to others다른 사람.
212
669405
2603
우리가 다른 사람과
관련짓는 방법입니다.
11:25
Because when a child어린이 is kind종류 to a Roomba룸바,
213
673524
2365
아이들이 Roomba에게 친절할 때,
11:29
when a soldier병사 tries시도하다 to save구하다
a robot기계 인간 on the battlefield싸움터,
214
677262
4015
한 병사가 전장에서
로봇을 구하려 노력할 때나
11:33
or when a group그룹 of people refuses거절하다
to harm a robotic로봇 식의 baby아가 dinosaur공룡,
215
681301
3638
사람들이 아기 공룡을
다치게 하지 않으려 할 때
11:38
those robots로봇 aren't있지 않다. just motors모터
and gears기어 and algorithms알고리즘.
216
686248
3191
이런 로봇들은 단지 모터,
기어, 알고리즘이 아닙니다.
11:42
They're reflections반사 of our own개인적인 humanity인류.
217
690501
1905
그들은 우리의 인류애가
반영된 것입니다.
11:45
Thank you.
218
693523
1151
감사합니다.
11:46
(Applause박수 갈채)
219
694698
3397
(박수)
Translated by 강 동완
Reviewed by Jihyeon J. Kim

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee