ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com
TED Salon Samsung

Kate Darling: Why we have an emotional connection to robots

Кейт Дарлинг: Почему роботы вызывают у нас эмоции?

Filmed:
2,403,010 views

«Мы далеки от того, чтобы создать роботов, испытывающих чувства, но у нас уже есть чувства к ним, и у этого инстинкта могут быть последствия», — говорит специалист по робоэтике Кейт Дарлинг. Узнайте больше о том, как в нас заложено природой приписывать роботам намерения и видеть в них живые черты и о том, как это может помочь нам лучше понять себя.
- Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future. Full bio

Double-click the English transcript below to play the video.

00:13
There was a day, about 10 yearsлет agoтому назад,
0
1047
2508
В один прекрасный день
около десяти лет назад
00:15
when I askedспросил a friendдруг to holdдержать
a babyдетка dinosaurдинозавр robotробот upsideвверх down.
1
3579
3944
я попросила друга подержать
робота-детёныша динозавра вверх ногами.
00:21
It was this toyигрушка calledназывается a PleoPleo
that I had orderedприказал,
2
9889
3446
Игрушка, которую мне доставили,
называлась Pleo,
00:25
and I was really excitedв восторге about it
because I've always lovedлюбимый robotsроботы.
3
13359
4401
и я была несказанно рада,
ведь я всегда любила роботов.
00:29
And this one has really coolкруто
technicalтехнический featuresфункции.
4
17784
2279
А у этого ещё было
множество классных фишек:
00:32
It had motorsмоторы and touchпотрогать sensorsдатчиков
5
20087
2119
моторы, датчики прикосновений,
00:34
and it had an infraredинфракрасный cameraкамера.
6
22230
2244
даже инфракрасная камера.
00:36
And one of the things it had
was a tiltнаклон sensorдатчик,
7
24498
2763
Ещё у него был датчик уровня наклона,
00:39
so it knewзнал what directionнаправление it was facingоблицовочный.
8
27285
2318
так что он знал,
в какую сторону он направлен.
00:42
And when you heldРучной it upsideвверх down,
9
30095
2134
И когда его держали вверх ногами,
00:44
it would startНачало to cryплакать.
10
32253
1572
он начинал плакать.
00:46
And I thought this was superсупер coolкруто,
so I was showingпоказ it off to my friendдруг,
11
34527
3496
Я думала, что это очень круто,
так что решила похвастаться другу,
00:50
and I said, "Oh, holdдержать it up by the tailхвост.
See what it does."
12
38047
2805
и я сказала ему: «Подержи
за хвост, посмотри, что он делает».
00:55
So we're watchingнаблюдение
the theatricsсценическое искусство of this robotробот
13
43268
3625
И вот мы наблюдаем, как этот робот
00:58
struggleборьба and cryплакать out.
14
46917
2199
барахтается и кричит.
01:02
And after a fewмало secondsсекунд,
15
50767
2047
Но через несколько секунд
01:04
it startsначинается to botherбеспокоить me a little,
16
52838
1972
мне стало немного неуютно,
01:07
and I said, "OK, that's enoughдостаточно now.
17
55744
3424
и я сказала: «Так, хватит,
01:11
Let's put him back down."
18
59930
2305
давай перевернём его обратно».
01:14
And then I petдомашнее животное the robotробот
to make it stop cryingплач.
19
62259
2555
И я начала гладить робота,
чтобы он перестал плакать.
01:18
And that was kindсвоего рода of
a weirdстранный experienceопыт for me.
20
66973
2452
И это было для меня очень странно.
01:22
For one thing, I wasn'tне было the mostбольшинство
maternalматеринский personчеловек at the time.
21
70084
4569
Во-первых, у меня тогда не был
особо развит материнский инстинкт.
01:26
AlthoughНесмотря на то что sinceпоскольку then I've becomeстали
a motherмама, nine9 monthsмесяцы agoтому назад,
22
74677
2731
Хотя я стала матерью девять месяцев назад
01:29
and I've learnedнаучился that babiesдети alsoтакже squirmизвиваться
when you holdдержать them upsideвверх down.
23
77432
3433
и успела узнать, что дети тоже извиваются,
если держать их вверх ногами.
01:32
(LaughterСмех)
24
80889
1563
(Смех)
01:35
But my responseответ to this robotробот
was alsoтакже interestingинтересно
25
83023
2358
Но моя реакция на этого
робота также была интересна,
01:37
because I knewзнал exactlyв точку
how this machineмашина workedработал,
26
85405
4101
поскольку я точно знала,
как эта машина работает,
01:41
and yetвсе же I still feltпочувствовал
compelledвынужденный to be kindсвоего рода to it.
27
89530
3262
но при этом всё равно чувствовала,
что должна быть добра к ней.
01:46
And that observationнаблюдение sparkedзажгло a curiosityлюбопытство
28
94450
2707
Это наблюдение разожгло моё любопытство,
01:49
that I've spentпотраченный the pastмимо decadeдесятилетие pursuingпреследуя.
29
97181
2832
которое я удовлетворяла
последние десять лет.
01:52
Why did I comfortкомфорт this robotробот?
30
100911
1793
Почему я утешала этого робота?
01:56
And one of the things I discoveredобнаруженный
was that my treatmentлечение of this machineмашина
31
104228
3579
И одним из моих открытий стало то,
что моё обращение с этой машиной
01:59
was more than just an awkwardнеловко momentмомент
in my livingживой roomкомната,
32
107831
3701
было чем-то большим чем просто
неловким моментом в моей гостиной,
02:03
that in a worldМир where we're increasinglyвсе больше и больше
integratingинтеграции robotsроботы into our livesжизни,
33
111556
5420
что в мире, где мы всё чаще
интегрируем роботов в нашу жизнь,
02:09
an instinctинстинкт like that
mightмог бы actuallyна самом деле have consequencesпоследствия,
34
117000
3126
у такого инстинкта могут быть последствия.
02:13
because the first thing that I discoveredобнаруженный
is that it's not just me.
35
121452
3749
Ведь, как оказалось, я не одна такая.
02:19
In 2007, the WashingtonВашингтон PostПосле
reportedсообщается that the Unitedобъединенный Statesсостояния militaryвоенные
36
127249
4802
В 2007 году газета The Washington Post
опубликовала статью о том, что армия США
02:24
was testingтестирование this robotробот
that defusedразрядить landземельные участки minesмины.
37
132075
3230
проводила испытания робота,
который обезвреживал наземные мины.
02:27
And the way it workedработал
was it was shapedфасонный like a stickпридерживаться insectнасекомое
38
135329
2912
Работало это так: робот,
похожий на насекомого-палочника,
02:30
and it would walkходить
around a minefieldминное поле on its legsноги,
39
138265
2651
ходил по минному полю.
02:32
and everyкаждый time it steppedступенчатый on a mineмой,
one of the legsноги would blowдуть up,
40
140940
3206
Каждый раз, когда он наступал на мину,
одна из ног взрывалась
02:36
and it would continueПродолжать on the other legsноги
to blowдуть up more minesмины.
41
144170
3057
и робот продолжал идти на оставшихся,
взрывая всё больше мин.
02:39
And the colonelполковник who was in chargeзаряд
of this testingтестирование exerciseупражнение
42
147251
3786
И в конце концов полковник,
ответственный за операцию,
02:43
endsконцы up callingпризвание it off,
43
151061
2118
прекратил её,
02:45
because, he saysговорит, it's too inhumaneнегуманный
44
153203
2435
потому что, по его мнению,
бесчеловечно смотреть,
02:47
to watch this damagedповрежденный robotробот
dragбремя itselfсам alongвдоль the minefieldминное поле.
45
155662
4516
как этот повреждённый робот
тащится по минному полю.
02:54
Now, what would causeпричина
a hardenedзакаленные militaryвоенные officerсотрудник
46
162978
3897
В чём же кроется причина того,
что и закалённый военный офицер,
02:58
and someoneкто то like myselfсебя
47
166899
2043
и обычный человек, как я,
03:00
to have this responseответ to robotsроботы?
48
168966
1857
так реагируют на роботов?
03:03
Well, of courseкурс, we're primedзагрунтованный
by scienceнаука fictionфантастика and popпоп cultureкультура
49
171537
3310
Безусловно, на нас влияют
научная фантастика и поп-культура,
03:06
to really want to personifyолицетворять these things,
50
174871
2579
вызывающие желание очеловечить роботов,
03:09
but it goesидет a little bitнемного deeperГлубже than that.
51
177474
2789
но на самом деле есть
более глубинные причины.
03:12
It turnsвитки out that we're biologicallyбиологически
hardwiredпроводное to projectпроект intentнамерение and life
52
180287
5309
Оказывается, в нас природой
заложено видеть смысл и жизнь
03:17
ontoна any movementдвижение in our physicalфизическое spaceпространство
that seemsкажется autonomousавтономный to us.
53
185620
4766
в любом движении, происходящем в пределах
поля зрения и выглядящем самостоятельным.
03:23
So people will treatрассматривать all sortsвиды
of robotsроботы like they're aliveв живых.
54
191214
3465
Поэтому люди обращаются с самыми
разными роботами как с живыми.
Этим роботам, обезвреживающим
неразорвавшиеся бомбы, дают имена.
03:26
These bomb-disposalобезвреживание бомб unitsединицы get namesимена.
55
194703
2683
03:29
They get medalsмедали of honorчесть.
56
197410
1682
Они получают почётные медали.
03:31
They'veУ них есть had funeralsпохороны for them
with gunпистолет salutesсалюты.
57
199116
2325
На их похоронах салютуют.
03:34
And researchисследование showsшоу that we do this
even with very simpleпросто householdдомашнее хозяйство robotsроботы,
58
202380
3833
Исследования показали, что мы обращаемся
так и с простыми бытовыми роботами,
03:38
like the RoombaRoomba vacuumвакуум cleanerочиститель.
59
206237
2135
такими, как роботы-пылесосы.
03:40
(LaughterСмех)
60
208396
1291
(Смех)
03:41
It's just a discдиск that roamsстранствует
around your floorпол to cleanчистый it,
61
209711
3089
Это просто диск, катающийся
по полу, делая его чище,
03:44
but just the factфакт it's movingперемещение
around on its ownсвоя
62
212824
2306
но простой факт того,
что он двигается самостоятельно,
03:47
will causeпричина people to nameимя the RoombaRoomba
63
215154
2167
даёт повод людям дать ему имя
03:49
and feel badПлохо for the RoombaRoomba
when it getsполучает stuckзастрял underпод the couchдиван.
64
217345
3182
и жалеть беднягу, когда он
застревает под диваном.
03:52
(LaughterСмех)
65
220551
1865
(Смех)
03:54
And we can designдизайн robotsроботы
specificallyконкретно to evokeвызывать this responseответ,
66
222440
3340
И мы умеем конструировать роботов,
созданных вызывать такую реакцию
03:57
usingс помощью eyesглаза and facesлица or movementsдвижения
67
225804
3461
глазами, мимикой и движениями,
04:01
that people automaticallyавтоматически,
subconsciouslyподсознательно associateассоциировать
68
229289
3259
которые люди автоматически
подсознательно ассоциируют
04:04
with statesсостояния of mindразум.
69
232572
2020
с выражением различных эмоций.
04:06
And there's an entireвсе bodyтело of researchисследование
calledназывается human-robotчеловек-робот interactionвзаимодействие
70
234616
3293
И исследования по взаимодействиям
между человеком и роботом показывают,
04:09
that really showsшоу how well this worksработает.
71
237933
1826
насколько успешно это работает.
04:11
So for exampleпример, researchersисследователи
at StanfordStanford UniversityУниверситет foundнайденный out
72
239783
3126
К примеру, учёные
Стэнфордского университета выяснили,
04:14
that it makesмарки people really uncomfortableнеудобный
73
242933
2001
что люди испытывают дискомфорт,
04:16
when you askпросить them to touchпотрогать
a robot'sробота privateчастный partsчасти.
74
244958
2472
когда их просят потрогать
интимные части тела робота.
04:19
(LaughterСмех)
75
247454
2120
(Смех)
04:21
So from this, but from manyмногие other studiesисследования,
76
249598
2023
Из этих и из многих других исследований
04:23
we know, we know that people
respondотвечать to the cuesподсказки givenданный to them
77
251645
4223
мы знаем о том,
что люди реагируют на сигналы
04:27
by these lifelikeкак живой machinesмашины,
78
255892
2022
этих как будто живых машин,
04:29
even if they know that they're not realреальный.
79
257938
2017
даже если они знают,
что они совсем не живые.
04:33
Now, we're headedдвуглавый towardsв направлении a worldМир
where robotsроботы are everywhereвезде.
80
261654
4056
Мы всё ближе к будущему,
где роботы будут на каждом шагу.
04:37
RoboticРоботизированная technologyтехнологии is movingперемещение out
from behindза factoryзавод wallsстены.
81
265734
3065
Робототехника перестаёт быть
лишь частью производства,
04:40
It's enteringвходящий workplacesрабочие места, householdsдомохозяйства.
82
268823
3013
постепенно проникая в наши дома и офисы.
04:43
And as these machinesмашины that can senseсмысл
and make autonomousавтономный decisionsрешения and learnучить
83
271860
6209
И когда эти машины, которые могут
ощущать, принимать решения и учиться,
04:50
enterвойти into these sharedобщий spacesпространства,
84
278093
2552
попадают в эти наполненные людьми места,
04:52
I think that maybe the bestЛучший
analogyаналогия we have for this
85
280669
2496
лучшая аналогия,
которую можно придумать, —
04:55
is our relationshipотношения with animalsживотные.
86
283189
1935
наши отношения с животными.
04:57
Thousandsтысячи of yearsлет agoтому назад,
we startedначал to domesticateприручать animalsживотные,
87
285523
3888
Тысячи лет назад
мы начали приручать животных,
05:01
and we trainedобученный them for work
and weaponryоружие and companionshipобщение.
88
289435
4045
использовать их для работы,
сражений и просто в качестве друзей.
05:05
And throughoutна протяжении historyистория, we'veмы в treatedобрабатывали
some animalsживотные like toolsинструменты or like productsпродукты,
89
293504
4985
И в ходе истории мы обращались с одними
животными как с инструментами, товаром,
05:10
and other animalsживотные,
we'veмы в treatedобрабатывали with kindnessдоброта
90
298513
2174
а с другими — с добротой,
05:12
and we'veмы в givenданный a placeместо in societyобщество
as our companionsкомпаньоны.
91
300711
3078
выделили для них место
в обществе, как партнёрам.
05:15
I think it's plausibleправдоподобный we mightмог бы startНачало
to integrateинтегрировать robotsроботы in similarаналогичный waysпути.
92
303813
3849
И с высокой долей вероятности
мы так же будем интегрировать роботов.
05:21
And sure, animalsживотные are aliveв живых.
93
309484
3096
Конечно же, животные — живые существа.
05:24
RobotsРоботы are not.
94
312604
1150
Роботы — нет.
05:27
And I can tell you,
from workingза работой with roboticistsробототехники,
95
315626
2580
Я работаю с робототехниками
и могу сказать вам,
что эти учёные достаточно далеки от
разработки роботов, умеющих чувствовать.
05:30
that we're prettyСимпатичная farдалеко away from developingразвивающийся
robotsроботы that can feel anything.
96
318230
3522
05:35
But we feel for them,
97
323072
1460
Но мы испытываем к ним чувства,
05:37
and that mattersвопросы,
98
325835
1207
и это важно,
05:39
because if we're tryingпытаясь to integrateинтегрировать
robotsроботы into these sharedобщий spacesпространства,
99
327066
3627
ведь если мы хотим интегрировать их
в эти разделяемые нами пространства,
05:42
we need to understandПонимаю that people will
treatрассматривать them differentlyиначе than other devicesприборы,
100
330717
4628
нужно понять, что к ним будут относиться
не так, как к бытовой технике,
05:47
and that in some casesслучаи,
101
335369
1844
что в некоторых случаях,
05:49
for exampleпример, the caseдело of a soldierсолдат
who becomesстановится emotionallyэмоционально attachedприложенный
102
337237
3172
например, когда солдат
привязывается к роботу,
05:52
to the robotробот that they work with,
103
340433
2047
с которым он работает,
05:54
that can be anything
from inefficientнеэффективный to dangerousопасно.
104
342504
2504
из этого может выйти что-то
неэффективное или даже опасное.
05:58
But in other casesслучаи,
it can actuallyна самом деле be usefulполезным
105
346551
2138
Но в некоторых случаях бывает полезно
06:00
to fosterспособствовать this emotionalэмоциональный
connectionсоединение to robotsроботы.
106
348713
2623
поощрять такие эмоциональные
привязанности к роботам.
06:04
We're alreadyуже seeingвидя some great use casesслучаи,
107
352184
2134
Таких случаев мы видели
уже великое множество,
06:06
for exampleпример, robotsроботы workingза работой
with autisticаутистический childrenдети
108
354342
2604
к примеру, роботы,
работающие с детьми с аутизмом,
06:08
to engageзаниматься them in waysпути
that we haven'tне seenвидели previouslyпредварительно,
109
356970
3634
захватывают их внимание так,
как мы ещё не видели.
06:12
or robotsроботы workingза работой with teachersучителей to engageзаниматься
kidsДети in learningобучение with newновый resultsРезультаты.
110
360628
4000
И роботы помогают учителям привлечь детей
к учёбе, тем самым повышая успеваемость.
06:17
And it's not just for kidsДети.
111
365433
1381
Это касается не только детей.
06:19
EarlyРано studiesисследования showпоказать that robotsроботы
can help doctorsврачи and patientsпациентов
112
367750
3223
Согласно ранним исследованиям,
роботы могут помогать врачам и пациентам
06:22
in healthздоровье careзабота settingsнастройки.
113
370997
1427
в медицинских учреждениях.
06:25
This is the PAROПаро babyдетка sealпечать robotробот.
114
373535
1810
Это детёныш морского котика PARO.
06:27
It's used in nursingуход homesдома
and with dementiaслабоумие patientsпациентов.
115
375369
3285
Он используется в домах престарелых
и в уходе за больными деменцией
06:30
It's been around for a while.
116
378678
1570
достаточно давно.
06:32
And I rememberзапомнить, yearsлет agoтому назад,
beingявляющийся at a partyвечеринка
117
380272
3325
Я помню, как много лет назад
я была на вечеринке
06:35
and tellingговоря someoneкто то about this robotробот,
118
383621
2571
и рассказала какой-то
девушке об этом роботе,
06:38
and her responseответ was,
119
386216
2126
и её реакция была такой:
06:40
"Oh my goshчерт возьми.
120
388366
1262
«О Боже,
06:42
That's horribleкакой ужас.
121
390508
1188
это ужасно!
06:45
I can't believe we're givingдающий people
robotsроботы insteadвместо of humanчеловек careзабота."
122
393056
3397
Не могу поверить, что вместо
живых людей за ними ухаживают роботы!»
06:50
And this is a really commonобщий responseответ,
123
398540
1875
И так реагирует подавляющее большинство,
06:52
and I think it's absolutelyабсолютно correctверный,
124
400439
2499
что, на мой взгляд, абсолютно нормально,
06:54
because that would be terribleужасный.
125
402962
2040
ведь это было бы ужасно.
06:57
But in this caseдело,
it's not what this robotробот replacesзаменяет.
126
405795
2484
Но в этом случае
робот заменяет не человека.
07:00
What this robotробот replacesзаменяет is animalживотное therapyтерапия
127
408858
3120
Он заменяет пет-терапию
07:04
in contextsконтексты where
we can't use realреальный animalsживотные
128
412002
3198
в условиях, в которых мы не можем
использовать настоящих животных,
07:07
but we can use robotsроботы,
129
415224
1168
а роботов можем,
07:08
because people will consistentlyпоследовательно treatрассматривать
them more like an animalживотное than a deviceустройство.
130
416416
5230
потому что люди обращаются с ними
скорее как с животными, а не с машинами.
07:15
Acknowledgingпризнавая this emotionalэмоциональный
connectionсоединение to robotsроботы
131
423502
2380
Осознание этой
эмоциональной связи с роботами
07:17
can alsoтакже help us anticipateпредвидеть challengesпроблемы
132
425906
1969
может помочь нам понять, какие проблемы
07:19
as these devicesприборы moveпереехать into more intimateинтимный
areasрайоны of people'sнародный livesжизни.
133
427899
3451
возникнут, когда эти роботы проникнут
в более личные части нашей жизни.
07:24
For exampleпример, is it OK
if your child'sДети teddyТедди bearмедведь robotробот
134
432111
3404
Например, нормально ли
для плюшевого мишки вашего ребёнка
07:27
recordsучет privateчастный conversationsразговоры?
135
435539
2237
записывать личные разговоры?
07:29
Is it OK if your sexсекс robotробот
has compellingнеотразимый in-appв приложении purchasesпокупки?
136
437800
4063
Или если у вашего секс-робота
есть обязательные встроенные покупки?
07:33
(LaughterСмех)
137
441887
1396
(Смех)
07:35
Because robotsроботы plusплюс capitalismкапитализм
138
443307
2501
Ведь сложив роботов и капитализм,
07:37
equalsравняется questionsвопросов around
consumerпотребитель protectionзащита and privacyКонфиденциальность.
139
445832
3705
мы получим вопросы о защите
прав потребителей и их личной жизни.
07:42
And those aren'tне the only reasonsпричины
140
450549
1612
Наше поведение по отношению к роботам
07:44
that our behaviorповедение around
these machinesмашины could matterдело.
141
452185
2570
может оказаться важным
и по другим причинам.
07:48
A fewмало yearsлет after that first
initialначальная experienceопыт I had
142
456747
3270
Несколько лет спустя,
после того первого опыта
07:52
with this babyдетка dinosaurдинозавр robotробот,
143
460041
2311
с роботом-детёнышем динозавра,
07:54
I did a workshopмастерская
with my friendдруг HannesХаннес GassertГассерт.
144
462376
2501
мы с моей подругой
Ханнес Гассерт проводили тренинг.
07:56
And we tookвзял five5
of these babyдетка dinosaurдинозавр robotsроботы
145
464901
2897
Мы взяли пять таких малышей-динозавров
07:59
and we gaveдал them to five5 teamsкоманды of people.
146
467822
2453
и раздали их пяти командам.
08:02
And we had them nameимя them
147
470299
1697
Мы дали задание дать роботам имена,
08:04
and playиграть with them and interactвзаимодействовать with them
for about an hourчас.
148
472020
3809
играть и общаться с ними в течение часа.
08:08
And then we unveiledоткрыт
a hammerмолоток and a hatchetтопорик
149
476707
2206
А потом мы достали молоток и топор
08:10
and we told them to tortureпытки
and killубийство the robotsроботы.
150
478937
2278
и приказали им мучить и убить роботов.
08:13
(LaughterСмех)
151
481239
3007
(Смех)
08:16
And this turnedоказалось out to be
a little more dramaticдраматичный
152
484857
2294
И это оказалось гораздо драматичнее,
08:19
than we expectedожидаемый it to be,
153
487175
1278
чем мы ожидали,
08:20
because noneникто of the participantsучастники
would even so much as strikeзабастовка
154
488477
3072
потому что ни один из участников
не нанёс ни единого удара
08:23
these babyдетка dinosaurдинозавр robotsроботы,
155
491573
1307
по этим детёнышам,
08:24
so we had to improviseимпровизировать a little,
and at some pointточка, we said,
156
492904
5150
так что нам пришлось импровизировать,
и в определённый момент мы сказали:
08:30
"OK, you can saveспасти your team'sкоманды гостей robotробот
if you destroyуничтожить anotherдругой team'sкоманды гостей robotробот."
157
498078
4437
«Хорошо, вы можете спасти своего робота,
если сломаете робота другой команды».
08:34
(LaughterСмех)
158
502539
1855
(Смех)
08:36
And even that didn't work.
They couldn'tне может do it.
159
504839
2195
И даже это не помогло,
они не могли сделать это.
08:39
So finallyв конце концов, we said,
160
507058
1151
Наконец мы сказали:
08:40
"We're going to destroyуничтожить all of the robotsроботы
161
508233
2032
«Мы уничтожим всех роботов,
08:42
unlessесли someoneкто то takes
a hatchetтопорик to one of them."
162
510289
2285
если кто-нибудь не ударит топором одного.
08:45
And this guy stoodстоял up,
and he tookвзял the hatchetтопорик,
163
513586
3579
И один парень встал, взял топор,
08:49
and the wholeвсе roomкомната wincedпоморщилась
as he broughtпривел the hatchetтопорик down
164
517189
2706
и каждый в комнате вздрогнул,
когда он опустил топор
08:51
on the robot'sробота neckшея,
165
519919
1780
на шею робота,
08:53
and there was this half-jokingполушутя,
half-seriousнаполовину серьезные momentмомент of silenceтишина in the roomкомната
166
521723
6338
и после этого в комнате воцарилась
полушутливая, полусерьёзная тишина
09:00
for this fallenпадший robotробот.
167
528085
1698
из-за этого робота.
09:01
(LaughterСмех)
168
529807
1406
(Смех)
09:03
So that was a really
interestingинтересно experienceопыт.
169
531237
3694
Так что это оказалось
очень интересным опытом.
09:06
Now, it wasn'tне было a controlledконтролируемый
studyизучение, obviouslyочевидно,
170
534955
2459
Конечно, это не было
контролируемое исследование,
09:09
but it did leadвести to some
laterпозже researchисследование that I did at MITMIT
171
537438
2850
но этот тренинг дал толчок для наших
последующих исследований в МТИ
09:12
with PalashПалаш NandyНанди and CynthiaСинтия BreazealBreazeal,
172
540312
2228
совместно с Палаш Нанди и Синтией Брезил,
09:14
where we had people come into the labлаборатория
and smashгромить these HEXBUGsГекклопы
173
542564
3627
когда люди приходили в лабораторию
и крушили роботов HEXBUG,
09:18
that moveпереехать around in a really
lifelikeкак живой way, like insectsнасекомые.
174
546215
3087
которые двигаются,
как самые настоящие насекомые.
09:21
So insteadвместо of choosingвыбор something cuteмилый
that people are drawnвничью to,
175
549326
3134
Вместо того, чтобы выбрать что-то милое,
притягивающее к себе людей,
09:24
we choseвыбрал something more basicосновной,
176
552484
2093
мы выбрали что-то более простое,
09:26
and what we foundнайденный
was that high-empathyвысокой эмпатии people
177
554601
3480
и, как оказалось,
склонные к сочувствию люди,
09:30
would hesitateколебаться more to hitудар the HEXBUGSГЕККЛОПЫ.
178
558105
2143
колебались сильнее,
прежде чем ударить этих роботов.
09:33
Now this is just a little studyизучение,
179
561575
1564
Это был лишь небольшой опыт,
09:35
but it's partчасть of a largerбольше bodyтело of researchисследование
180
563163
2389
но он часть большого числа исследований,
09:37
that is startingначало to indicateуказывать
that there mayмай be a connectionсоединение
181
565576
2944
первые результаты которых показывают,
что может существовать связь
09:40
betweenмежду people'sнародный tendenciesтенденции for empathyсопереживание
182
568544
2373
между склонностью человека к сочувствию
09:42
and theirих behaviorповедение around robotsроботы.
183
570941
1976
и его поведением с роботами.
09:45
But my questionвопрос for the comingприход eraэпоха
of human-robotчеловек-робот interactionвзаимодействие
184
573721
3627
Но мой вопрос для наступающей эры
взаимодействия людей и роботов —
09:49
is not: "Do we empathizeсопереживать with robotsроботы?"
185
577372
3055
это не «Нужно ли сочувствовать роботам?»,
09:53
It's: "Can robotsроботы changeизменение
people'sнародный empathyсопереживание?"
186
581211
2920
а «Могут ли роботы
влиять на наши чувства?»
09:57
Is there reasonпричина to, for exampleпример,
187
585489
2287
Стóит ли, например,
09:59
preventне допустить your childребенок
from kickingпиная a roboticроботизированный dogсобака,
188
587800
2333
не позволять ребёнку бить собаку-робота
10:03
not just out of respectуважение for propertyимущество,
189
591228
2914
не просто из уважения к имуществу,
10:06
but because the childребенок mightмог бы be
more likelyвероятно to kickудар a realреальный dogсобака?
190
594166
2953
но потому, что иначе в будущем
он может начать бить живую собаку?
10:10
And again, it's not just kidsДети.
191
598507
1883
И опять это применимо не только к детям.
10:13
This is the violentнасильственный videoвидео gamesигры questionвопрос,
but it's on a completelyполностью newновый levelуровень
192
601564
4056
Напоминает вопрос об опасности жестоких
видеоигр, но на совсем другом уровне
10:17
because of this visceralвисцеральный physicalityтелесность
that we respondотвечать more intenselyинтенсивно to
193
605644
4760
из-за того, что здесь всё настоящее,
на что мы реагируем гораздо сильнее,
10:22
than to imagesизображений on a screenэкран.
194
610428
1547
нежели на изображения на экране.
10:25
When we behaveвести себя violentlyсильно towardsв направлении robotsроботы,
195
613674
2578
Когда мы проявляем жестокость
по отношению к роботам,
10:28
specificallyконкретно robotsроботы
that are designedпредназначенный to mimicмим life,
196
616276
3120
особенно к тем, которые
созданы имитировать жизнь,
10:31
is that a healthyздоровый outletвыход
for violentнасильственный behaviorповедение
197
619420
3892
здоровый ли это выход
для нашего жестокого поведения
10:35
or is that trainingобучение our crueltyжестокость musclesмышцы?
198
623336
2544
или же так мы лишь
усугубляем такие склонности?
10:39
We don't know ...
199
627511
1150
Мы не знаем.
10:42
But the answerответ to this questionвопрос has
the potentialпотенциал to impactвлияние humanчеловек behaviorповедение,
200
630622
3945
Но ответ на этот вопрос в будущем
может повлиять на человеческое поведение,
10:46
it has the potentialпотенциал
to impactвлияние socialСоциальное normsнормы,
201
634591
2768
может повлиять на социальные нормы
10:49
it has the potentialпотенциал to inspireвнушать rulesправила
around what we can and can't do
202
637383
3849
и может повлиять на правила того,
что мы можем и не можем делать
10:53
with certainопределенный robotsроботы,
203
641256
1151
с определёнными роботами,
10:54
similarаналогичный to our animalживотное crueltyжестокость lawsзаконы.
204
642431
1848
подобно законам о жестоком
обращении с животными.
10:57
Because even if robotsроботы can't feel,
205
645228
2864
Потому что даже если
роботы не могут чувствовать,
11:00
our behaviorповедение towardsв направлении them
mightмог бы matterдело for us.
206
648116
3080
наше поведение по отношению
к ним может оказаться важным.
11:04
And regardlessнесмотря на of whetherбудь то
we endконец up changingизменения our rulesправила,
207
652889
2855
И вне зависимости от того,
станем ли мы менять наши законы,
11:08
robotsроботы mightмог бы be ableв состоянии to help us
come to a newновый understandingпонимание of ourselvesсами.
208
656926
3556
роботы, возможно, смогут помочь
нам лучше понять себя.
Бóльшая часть того, что я узнала
за последние десятилетие,
11:14
MostНаиболее of what I've learnedнаучился
over the pastмимо 10 yearsлет
209
662276
2316
11:16
has not been about technologyтехнологии at all.
210
664616
2238
никак не относится к технологиям.
11:18
It's been about humanчеловек psychologyпсихология
211
666878
2503
Я изучала психологию человека,
11:21
and empathyсопереживание and how we relateиметь отношение to othersдругие.
212
669405
2603
способность сопереживать и то,
как мы относимся друг к другу.
11:25
Because when a childребенок is kindсвоего рода to a RoombaRoomba,
213
673524
2365
Потому что когда ребёнок
добр к роботу-пылесосу,
11:29
when a soldierсолдат triesпытается to saveспасти
a robotробот on the battlefieldполе битвы,
214
677262
4015
когда солдат пытается
спасти робота на поле боя,
11:33
or when a groupгруппа of people refusesотказывается
to harmвред a roboticроботизированный babyдетка dinosaurдинозавр,
215
681301
3638
когда группа людей отказывается
причинить вред роботу-детёнышу динозавра,
11:38
those robotsроботы aren'tне just motorsмоторы
and gearsшестерни and algorithmsалгоритмы.
216
686248
3191
эти роботы перестают быть просто
механизмами и алгоритмами.
11:42
They're reflectionsразмышления of our ownсвоя humanityчеловечество.
217
690501
1905
Они становятся отражением
нашей человечности.
11:45
Thank you.
218
693523
1151
Спасибо.
11:46
(ApplauseАплодисменты)
219
694698
3397
(Аплодисменты)
Translated by Artem Savochkin
Reviewed by Alena Chernykh

▲Back to top

ABOUT THE SPEAKER
Kate Darling - Robot ethicist
Kate Darling investigates the relationship between humans and robots -- now, and in the future.

Why you should listen

Robots are taking increasingly bigger roles in life and business -- moving well beyond manufacturing and into transportation, education, medicine, care for the elderly, our offices and our homes. But ethics and law haven't caught up. Kate Darling, a pioneer in these fields, is helping quicken the pace.

A leading expert in robot ethics, Darling is a researcher at the Massachusetts Institute of Technology (MIT) Media Lab where she investigates social robotics and conducts experimental studies on human-robot interaction. Darling explores the emotional connection between people and life-like inventions, seeking to influence technology design and policy direction. Her writing and research anticipate difficult questions that lawmakers, engineers and the wider public must address as human-robot relationships evolve in the coming decades.

While her background is in intellectual property and law and economics, Darling's passion for technology and robots led her to interdisciplinary fields. She's a former Fellow and current Affiliate at the Harvard Berkman Klein Center for Internet & Society and a former fellow at the Yale Information Society Project, and she's an affiliate at the Institute for Ethics and Emerging Technologies. 
Her work has been featured in Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times and more. She is a contributing writer to Robohub and IEEE Spectrum and speaks and holds workshops covering some of the more interesting developments in the world of robotics, and where we might find ourselves in the future.

Darling graduated from law school with honors and holds a doctorate of sciences from the Swiss Federal Institute of Technology (ETH Zurich) and an honorary doctorate of sciences from Middlebury College. In 2017, the American Bar Association honored her legal work with the Mark T. Banner award in Intellectual Property. She is the caretaker for several domestic robots, including her Pleos Yochai, Peter, and Mr. Spaghetti. She tweets as @grok_ about eating cheerios for dinner.

More profile about the speaker
Kate Darling | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee