ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com
TEDxCambridge

Iyad Rahwan: What moral decisions should driverless cars make?

Іяд Ровен: Які моральні рішення мають приймати безпілотні автомобілі?

Filmed:
1,147,381 views

Чи повинен ваш автомобіль вбити вас, якщо це означає врятувати п'ятьох пішоходів? На цьому підґрунті соціальних дилем безпілотних автомобілів Іяд Ровен досліджує, які виклики кидає технологія нашій моралі та пояснює свою роботу зі збору даних від людей щодо того, на які компроміси вони згодні (чи не згодні) піти.
- Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
TodayСьогодні I'm going to talk
about technologyтехнологія and societyсуспільство.
0
1000
4080
Сьогодні я буду говорити
про технології та суспільство.
00:19
The DepartmentДепартамент of TransportТранспорт
estimatedоціночний that last yearрік
1
7040
3696
Міністерство Транспорту встановило,
що минулого року
00:22
35,000 people diedпомер
from trafficтрафік crashesаварії in the US aloneпоодинці.
2
10760
4080
35 000 людей загинуло
в автомобільних аваріях лише у США.
00:28
WorldwideПо всьому світу, 1.2 millionмільйон people
dieвмирати everyкожен yearрік in trafficтрафік accidentsаварії.
3
16040
4800
В усьому світі 1,2 мільйони людей
помирають щороку в автомобільних аваріях.
00:33
If there was a way we could eliminateусунути
90 percentвідсоток of those accidentsаварії,
4
21760
4096
Якщо була б можливість усунути
90 процентів з цих аварій,
00:37
would you supportпідтримка it?
5
25880
1200
чи ви підтримали б її?
00:39
Of courseзвичайно you would.
6
27720
1296
Звичайно, що так.
00:41
This is what driverlessводія carмашина technologyтехнологія
promisesобіцянки to achieveдомогтися
7
29040
3655
Це те, чого технологія безпілотних
автомобілів обіцяє досягнути
00:44
by eliminatingусуваючи the mainосновний
sourceджерело of accidentsаварії --
8
32720
2816
шляхом усунення основного джерела аварій -
00:47
humanлюдина errorпомилка.
9
35560
1200
людського фактору.
00:49
Now pictureкартина yourselfсамі
in a driverlessводія carмашина in the yearрік 2030,
10
37920
5416
Уявіть себе у безпілотному
автомобілі у 2030 році,
як ви сидите позаду
00:55
sittingсидячи back and watchingдивитися
this vintageВінтаж TEDxCambridgeTEDxCambridge videoвідео.
11
43360
3456
та дивитесь це вінтажне відео
від TEDxCambridge.
00:58
(LaughterСміх)
12
46840
2000
(Сміх)
01:01
All of a suddenраптовий,
13
49520
1216
Аж раптом
01:02
the carмашина experiencesдосвід mechanicalмеханічний failureпровал
and is unableне в змозі to stop.
14
50760
3280
в автомобіля стається механічний збій
і він не може зупинитись.
01:07
If the carмашина continuesпродовжується,
15
55360
1520
Якщо автомобіль продовжить рух,
01:09
it will crashкрах into a bunchпучок
of pedestriansпішоходів crossingперетинання the streetвулиця,
16
57720
4120
він вріжеться у групу пішоходів,
що переходять вулицю,
01:15
but the carмашина mayможе swerveЗгорнути,
17
63080
2135
але автомобіль може повернути,
01:17
hittingудар one bystanderbystander,
18
65239
1857
і врізатись в одного перехожого,
01:19
killingвбивство them to saveзберегти the pedestriansпішоходів.
19
67120
2080
вбивши його, щоб врятувати пішоходів.
01:22
What should the carмашина do,
and who should decideвирішувати?
20
70040
2600
Що має зробити автомобіль,
та хто має вирішувати?
01:25
What if insteadзамість цього the carмашина
could swerveЗгорнути into a wallстіна,
21
73520
3536
Що, як замість того автомобіль
міг би повернути у напрямку стіни,
01:29
crashingзбій and killingвбивство you, the passengerпасажирські,
22
77080
3296
врізатись і вбити вас, пасажира,
01:32
in orderзамовлення to saveзберегти those pedestriansпішоходів?
23
80400
2320
щоб врятувати тих пішоходів?
01:35
This scenarioсценарій is inspiredнатхненний
by the trolleyтролейбус problemпроблема,
24
83240
3080
На цей сценарій надихнула
проблема вагонетки,
01:38
whichкотрий was inventedвинайшов
by philosophersфілософи a fewмало хто decadesдесятиліття agoтому назад
25
86960
3776
яка була запропонована
філософами кілька десятиліть тому
для обмірковування
етичної сторони.
01:42
to think about ethicsетика.
26
90760
1240
01:46
Now, the way we think
about this problemпроблема mattersмає значення.
27
94120
2496
Наше ставлення
до цієї проблеми має значення.
01:48
We mayможе for exampleприклад
not think about it at all.
28
96640
2616
Ми могли б, наприклад,
не думати про це зовсім.
01:51
We mayможе say this scenarioсценарій is unrealisticнереалістично,
29
99280
3376
Ми могли б сказати,
що такий сценарій є нереалістичний,
01:54
incrediblyнеймовірно unlikelyнавряд чи, or just sillyдурний.
30
102680
2320
дуже малоймовірний
або просто безглуздий.
01:57
But I think this criticismкритика
missesпромахів the pointточка
31
105760
2736
Але я вважаю, що такий критицизм
втрачає головне,
02:00
because it takes
the scenarioсценарій too literallyбуквально.
32
108520
2160
тому що сприймає сценарій
надто буквально.
02:03
Of courseзвичайно no accidentаварія
is going to look like this;
33
111920
2736
Звичайно, що ніяка аварія
не буде саме такою;
02:06
no accidentаварія has two or threeтри optionsваріанти
34
114680
3336
ніяка аварія не має два чи три шляхи,
02:10
where everybodyкожен diesвмирає somehowяк-то.
35
118040
2000
в яких всі помирають так чи інакше.
02:13
InsteadЗамість цього, the carмашина is going
to calculateрозрахувати something
36
121480
2576
Натомість, автомобіль буде
дещо розраховувати,
02:16
like the probabilityймовірність of hittingудар
a certainпевний groupгрупа of people,
37
124080
4896
на кшталт можливості наїхати
на якусь групу людей,
02:21
if you swerveЗгорнути one directionнапрямок
versusпроти anotherінший directionнапрямок,
38
129000
3336
якщо повернути в певному напрямку
замість іншого,
02:24
you mightможе slightlyтрохи increaseзбільшити the riskризик
to passengersпасажирів or other driversдрайвери
39
132360
3456
можна трохи підвищити ризик
для пасажирів чи інших водіїв
02:27
versusпроти pedestriansпішоходів.
40
135840
1536
замість пішоходів.
02:29
It's going to be
a more complexкомплекс calculationрозрахунок,
41
137400
2160
Це буде складніший розрахунок,
02:32
but it's still going
to involveзалучити trade-offsкомпроміси,
42
140480
2520
але все одно будуть компроміси,
02:35
and trade-offsкомпроміси oftenчасто requireвимагати ethicsетика.
43
143840
2880
а компроміси часто вимагають етики.
02:39
We mightможе say then,
"Well, let's not worryтурбуватися about this.
44
147840
2736
Ми могли б сказати: "Давайте
не хвилюватись про це.
02:42
Let's wait untilдо technologyтехнологія
is fullyповністю readyготовий and 100 percentвідсоток safeбезпечний."
45
150600
4640
Давайте зачекаємо, поки технологія
буде повністю готова
та на 100 процентів безпечна."
02:48
SupposeПрипустимо, що that we can indeedдійсно
eliminateусунути 90 percentвідсоток of those accidentsаварії,
46
156520
3680
Припускаючи це, ми справді можемо
усунути 90 процентів тих аварій,
02:53
or even 99 percentвідсоток in the nextдалі 10 yearsроків.
47
161080
2840
або навіть 99 процентів
у найближчі 10 років.
02:56
What if eliminatingусуваючи
the last one percentвідсоток of accidentsаварії
48
164920
3176
Що, як усунення останнього
одного проценту аварій
03:00
requiresвимагає 50 more yearsроків of researchдослідження?
49
168120
3120
вимагатиме ще 50 років досліджень?
03:04
Should we not adoptприймати the technologyтехнологія?
50
172400
1800
Чи маємо відмовитися
від технології?
03:06
That's 60 millionмільйон people
deadмертвий in carмашина accidentsаварії
51
174720
4776
Це 60 мільйонів людей,
загиблих у автомобільних аваріях,
03:11
if we maintainпідтримувати the currentструм rateкурс.
52
179520
1760
при поточному рівні аварій.
03:14
So the pointточка is,
53
182760
1216
Тож суть у тому,
03:16
waitingочікування for fullповний safetyбезпека is alsoтакож a choiceвибір,
54
184000
3616
що очікування на повну безпеку -
це також вибір,
03:19
and it alsoтакож involvesвключає trade-offsкомпроміси.
55
187640
2160
і він також потребує компромісів.
03:23
People onlineонлайн on socialсоціальний mediaЗМІ
have been comingприходить up with all sortsсортів of waysшляхи
56
191560
4336
Люди в інтернеті на соціальних ресурсах
пропонували різноманітні шляхи,
03:27
to not think about this problemпроблема.
57
195920
2016
як уникнути міркувань про цю проблему.
03:29
One personлюдина suggestedзапропонував
the carмашина should just swerveЗгорнути somehowяк-то
58
197960
3216
Одна людина запропонувала,
щоб автомобіль просто вивернув якось
03:33
in betweenміж the passengersпасажирів --
59
201200
2136
поміж пасажирами
03:35
(LaughterСміх)
60
203360
1016
(Сміх)
03:36
and the bystanderbystander.
61
204400
1256
та спостерігачем.
Звичайно, якщо це те, що автомобіль
може зробити,
03:37
Of courseзвичайно if that's what the carмашина can do,
that's what the carмашина should do.
62
205680
3360
то це те, що автомобіль має зробити.
03:41
We're interestedзацікавлений in scenariosсценарії
in whichкотрий this is not possibleможливий.
63
209920
2840
Нас цікавлять сценарії,
в яких це неможливо.
03:45
And my personalособистий favoriteулюблений
was a suggestionпропозиція by a bloggerблоггер
64
213280
5416
Та мою улюблену пропозицію
запропонував блогер:
03:50
to have an ejectвитягнути buttonкнопка in the carмашина
that you pressнатисніть --
65
218720
3016
вбудувати в автомобіль кнопку катапульти,
яку ти натискаєш
03:53
(LaughterСміх)
66
221760
1216
(Сміх)
перед тим, як автомобіль самознищується.
03:55
just before the carмашина self-destructsSelf-destructs.
67
223000
1667
(Сміх)
03:56
(LaughterСміх)
68
224691
1680
03:59
So if we acknowledgeвизнати that carsавтомобілі
will have to make trade-offsкомпроміси on the roadдорога,
69
227840
5200
Тож, якщо ми визнаємо,
що автомобілі будуть змушені
робити компроміси на дорозі,
04:06
how do we think about those trade-offsкомпроміси,
70
234200
1880
то що ми думаємо
з приводу цих компромісів,
04:09
and how do we decideвирішувати?
71
237320
1576
та як нам вирішувати?
Можливо, треба провести опитування,
щоб дізнатися, чого суспільство хоче,
04:10
Well, maybe we should runбіжи a surveyобстеження
to find out what societyсуспільство wants,
72
238920
3136
04:14
because ultimatelyв кінцевому підсумку,
73
242080
1456
тому що зрештою,
04:15
regulationsправила and the lawзакон
are a reflectionрефлексія of societalсоціальні valuesцінності.
74
243560
3960
правила та закон -
це відображення суспільних цінностей.
04:20
So this is what we did.
75
248040
1240
Це те, що ми зробили.
04:21
With my collaboratorsСпівробітники,
76
249880
1616
З моїми співробітниками,
04:23
Jean-FranЖан Франçoisois BonnefonBonnefon and AzimAzim ShariffShariff,
77
251520
2336
Жаном-Франсуа Боннефоном
та Азімом Шаріфом,
04:25
we ranбіг a surveyобстеження
78
253880
1616
ми провели опитування,
04:27
in whichкотрий we presentedпредставлений people
with these typesтипи of scenariosсценарії.
79
255520
2855
в якому презентували людям
ці види сценаріїв.
04:30
We gaveдав them two optionsваріанти
inspiredнатхненний by two philosophersфілософи:
80
258399
3777
Ми дали їм два варіанти,
що були натхненні двома філософами:
04:34
JeremyДжеремі BenthamБентам and ImmanuelІммануїл KantКант.
81
262200
2640
Джеремі Бентамом та Іммануїлом Кантом.
Бентам стверджує, що автомобіль
має дотримуватися утилітарної етики:
04:37
BenthamБентам saysкаже the carмашина
should followслідуйте utilitarianУтилітарний ethicsетика:
82
265600
3096
04:40
it should take the actionдія
that will minimizeмінімізувати totalзагальна кількість harmшкодити --
83
268720
3416
він має вжити дій,
що мінімізують загальну шкоду,
04:44
even if that actionдія will killвбити a bystanderbystander
84
272160
2816
навіть, якщо ця дія вб'є спостерігача,
04:47
and even if that actionдія
will killвбити the passengerпасажирські.
85
275000
2440
і навіть, якщо ця дія вб'є пасажира.
04:50
ImmanuelІммануїл KantКант saysкаже the carмашина
should followслідуйте duty-boundзобов'язаним principlesпринципи,
86
278120
4976
Іммануїл Кант стверджує, що автомобіль
має дотримуватись відчуття обов'язку,
04:55
like "ThouТи shaltбудеш not killвбити."
87
283120
1560
як заповіді "Не вбивай".
04:57
So you should not take an actionдія
that explicitlyявно harmsХармс a humanлюдина beingбуття,
88
285480
4456
Тож, тобі не слід вживати дію,
що вочевидь шкодить людині,
05:01
and you should let the carмашина take its courseзвичайно
89
289960
2456
та слід дозволити автомобілю
рухатися своїм шляхом,
05:04
even if that's going to harmшкодити more people.
90
292440
1960
навіть, якщо це нашкодить
більшій кількості людей.
05:07
What do you think?
91
295640
1200
Як ви вважаєте?
05:09
BenthamБентам or KantКант?
92
297360
1520
Бентам чи Кант?
05:11
Here'sОсь what we foundзнайдено.
93
299760
1256
Ось, що ми з'ясували.
05:13
MostБільшість people sidedодносторонній with BenthamБентам.
94
301040
1800
Більшість людей стали на бік Бентама.
05:16
So it seemsздається that people
want carsавтомобілі to be utilitarianУтилітарний,
95
304160
3776
Тож здається, що люди хочуть,
щоб автомобілі були утилітарними,
05:19
minimizeмінімізувати totalзагальна кількість harmшкодити,
96
307960
1416
мінімізували загальну шкоду,
05:21
and that's what we should all do.
97
309400
1576
і це те, що нам всім слід робити.
05:23
ProblemПроблема solvedвирішено.
98
311000
1200
Проблему вирішено.
05:25
But there is a little catchвиловити.
99
313240
1480
Але є маленький нюанс.
05:27
When we askedзапитав people
whetherчи то they would purchaseпридбати suchтакий carsавтомобілі,
100
315920
3736
Коли ми спитали людей,
чи придбали б вони такі автомобілі,
05:31
they said, "AbsolutelyАбсолютно not."
101
319680
1616
вони сказали: "Ні в якому разі."
05:33
(LaughterСміх)
102
321320
2296
(Сміх)
05:35
They would like to buyкупити carsавтомобілі
that protectзахистити them at all costsвитрати,
103
323640
3896
Вони хотіли б придбати автомобілі,
які б захищали їх за будь-яку ціну,
05:39
but they want everybodyкожен elseінакше
to buyкупити carsавтомобілі that minimizeмінімізувати harmшкодити.
104
327560
3616
але вони хочуть, щоб усі інші
купували автомобілі, що мінімізують шкоду.
05:43
(LaughterСміх)
105
331200
2520
(Сміх)
05:46
We'veМи ' VE seenбачив this problemпроблема before.
106
334720
1856
Ми стикалися з такою проблемою раніше.
05:48
It's calledназивається a socialсоціальний dilemmaдилема.
107
336600
1560
Це називається соціальна дилема.
05:51
And to understandзрозуміти the socialсоціальний dilemmaдилема,
108
339160
1816
І щоб зрозуміти соціальну дилему,
05:53
we have to go a little bitбіт
back in historyісторія.
109
341000
2040
нам треба звернутися трошки до історії.
05:56
In the 1800s,
110
344000
2576
У 1800-х роках
05:58
Englishанглійська economistекономіст WilliamВільям ForsterФорстер LloydЛлойд
publishedопубліковано a pamphletБрошура
111
346600
3736
англійський економіст
Вільям Фостер Лойд опублікував памфлет,
06:02
whichкотрий describesописує the followingнаступний scenarioсценарій.
112
350360
2216
в якому описано наступний сценарій.
06:04
You have a groupгрупа of farmersфермери --
113
352600
1656
Маєте групу фермерів -
06:06
Englishанглійська farmersфермери --
114
354280
1336
англійських фермерів -
які використовують спільну
земельну ділянку для випасу їхніх овець.
06:07
who are sharingобмін a commonзагальний landземля
for theirїх sheepовець to grazeпасти.
115
355640
2680
06:11
Now, if eachкожен farmerфермер
bringsприносить a certainпевний numberномер of sheepовець --
116
359520
2576
Якщо кожен фермер
виведе певну кількість овець -
06:14
let's say threeтри sheepовець --
117
362120
1496
скажімо, три вівці -
06:15
the landземля will be rejuvenatedоновленим,
118
363640
2096
ділянка буде оновлюватись,
06:17
the farmersфермери are happyщасливий,
119
365760
1216
фермери - щасливі,
06:19
the sheepовець are happyщасливий,
120
367000
1616
вівці - щасливі,
06:20
everything is good.
121
368640
1200
все добре.
06:22
Now, if one farmerфермер bringsприносить one extraдодатково sheepовець,
122
370440
2520
Якщо ж один фермер
виведе ще одну вівцю,
06:25
that farmerфермер will do slightlyтрохи better,
and no one elseінакше will be harmedзавдано шкоди.
123
373800
4720
цьому фермеру буде трохи краще,
і ніхто інший не постраждає.
06:31
But if everyкожен farmerфермер madeзроблений
that individuallyіндивідуально rationalраціональний decisionрішення,
124
379160
3640
Але якщо всі фермери приймуть таке
індивідуально раціональне рішення,
06:35
the landземля will be overrunпереповнення,
and it will be depletedвиснажені
125
383840
2720
ділянка буде виснажена та збіднена,
06:39
to the detrimentна шкоду of all the farmersфермери,
126
387360
2176
що зашкодить усім фермерам,
06:41
and of courseзвичайно,
to the detrimentна шкоду of the sheepовець.
127
389560
2120
і, звичайно ж, зашкодить вівцям.
06:44
We see this problemпроблема in manyбагато хто placesмісць:
128
392720
3680
Ми бачимо цю проблему у багатьох місцях:
06:49
in the difficultyтруднощі of managingуправління overfishingперелов риби,
129
397080
3176
у складнощах керування переловом риби
06:52
or in reducingскорочення carbonвуглець emissionsвикиди
to mitigateпом'якшення climateклімат changeзмінити.
130
400280
4560
чи у зменшенні викидів вуглецю,
щоб пом'якшити кліматичні зміни.
06:59
When it comesприходить to the regulationрегулювання
of driverlessводія carsавтомобілі,
131
407160
2920
Стосовно ж регулювань
для безпілотних автомобілів,
07:03
the commonзагальний landземля now
is basicallyв основному publicгромадськість safetyбезпека --
132
411080
4336
спільна земельна ділянка -
це загальна безпека,
07:07
that's the commonзагальний good --
133
415440
1240
це спільне благо -
07:09
and the farmersфермери are the passengersпасажирів
134
417400
1976
а фермери - це пасажири
07:11
or the carмашина ownersвласники who are choosingвибір
to rideїздити in those carsавтомобілі.
135
419400
3600
або власники автомобілів,
які обирають їздити у цих автомобілях.
07:16
And by makingвиготовлення the individuallyіндивідуально
rationalраціональний choiceвибір
136
424960
2616
Та зробивши індивідуально
раціональний вибір
07:19
of prioritizingвизначення пріоритетів theirїх ownвласний safetyбезпека,
137
427600
2816
і надавши пріоритет їх власній безпеці,
07:22
they mayможе collectivelyколективно be
diminishingзменшується the commonзагальний good,
138
430440
3136
вони разом могли б
зменшити спільне благо,
07:25
whichкотрий is minimizingзведення до мінімуму totalзагальна кількість harmшкодити.
139
433600
2200
яке мінімізує загальну шкоду.
07:30
It's calledназивається the tragedyтрагедія of the commonsзагальні,
140
438320
2136
Це називається трагедія спільного,
07:32
traditionallyтрадиційно,
141
440480
1296
традиційно,
07:33
but I think in the caseсправа
of driverlessводія carsавтомобілі,
142
441800
3096
але я гадаю, що у випадку
безпілотних автомобілів,
07:36
the problemпроблема mayможе be
a little bitбіт more insidiousпідступні
143
444920
2856
проблема може бути трошки більш підступною
07:39
because there is not necessarilyобов'язково
an individualіндивідуальний humanлюдина beingбуття
144
447800
3496
через те, що це необов'язково людина
07:43
makingвиготовлення those decisionsрішення.
145
451320
1696
приймає ці рішення.
07:45
So carмашина manufacturersвиробники
mayможе simplyпросто programпрограма carsавтомобілі
146
453040
3296
Виробники автомобілів можуть
просто запрограмувати автомобілі,
07:48
that will maximizeмаксимізувати safetyбезпека
for theirїх clientsклієнти,
147
456360
2520
щоб максимізувати безпеку
для їхніх клієнтів,
07:52
and those carsавтомобілі mayможе learnвчитися
automaticallyавтоматично on theirїх ownвласний
148
460080
2976
і такі автомобілі можуть
автоматично навчатися,
07:55
that doing so requiresвимагає slightlyтрохи
increasingзбільшується riskризик for pedestriansпішоходів.
149
463080
3520
що певна дія вимагає трохи
підвищити ризик для пішоходів.
Використовуючи
метафору з вівцями,
07:59
So to use the sheepовець metaphorметафора,
150
467520
1416
08:00
it's like we now have electricелектричний sheepовець
that have a mindрозум of theirїх ownвласний.
151
468960
3616
це ніби у нас електричні вівці,
які мають власний розум.
08:04
(LaughterСміх)
152
472600
1456
(Сміх)
08:06
And they mayможе go and grazeпасти
even if the farmerфермер doesn't know it.
153
474080
3080
І вони можуть піти та випасатися,
навіть, якщо фермер не знає про це.
08:10
So this is what we mayможе call
the tragedyтрагедія of the algorithmicАлгоритмічні commonsзагальні,
154
478640
3976
Це те, що ми можемо назвати
трагедією алгоритмічного спільного,
08:14
and if offersпропозиції newновий typesтипи of challengesвиклики.
155
482640
2360
і це пропонує нові виклики.
08:22
TypicallyЗазвичай, traditionallyтрадиційно,
156
490520
1896
Зазвичай, традиційно,
08:24
we solveвирішити these typesтипи
of socialсоціальний dilemmasдилеми usingвикористовуючи regulationрегулювання,
157
492440
3336
ми вирішуємо такі типи соціальних дилем
за допомогою правил,
08:27
so eitherабо governmentsуряди
or communitiesгромади get togetherразом,
158
495800
2736
тож держава або спільнота збираються разом
08:30
and they decideвирішувати collectivelyколективно
what kindдоброзичливий of outcomeрезультат they want
159
498560
3736
та колективно вирішують,
який результат вони хочуть,
08:34
and what sortсортувати of constraintsобмеження
on individualіндивідуальний behaviorповедінка
160
502320
2656
та які обмеження поведінки суб'єкта
08:37
they need to implementреалізувати.
161
505000
1200
їм треба розробити.
08:39
And then usingвикористовуючи monitoringмоніторинг and enforcementправозастосування,
162
507600
2616
А потім, за допомогою
моніторингу та примушення,
08:42
they can make sure
that the publicгромадськість good is preservedзбереглися.
163
510240
2559
вони можуть переконатися,
що суспільне благо зберігається.
08:45
So why don't we just,
164
513440
1575
Тож чому б нам, як регулювальникам,
08:47
as regulatorsрегулятори,
165
515039
1496
08:48
requireвимагати that all carsавтомобілі minimizeмінімізувати harmшкодити?
166
516559
2897
не вимагати, щоб всі автомобілі
мінімізували шкоду?
08:51
After all, this is
what people say they want.
167
519480
2240
Зрештою, це те, чого люди
хочуть, за їх словами.
08:55
And more importantlyголовне,
168
523200
1416
І що більш важливо,
08:56
I can be sure that as an individualіндивідуальний,
169
524640
3096
я можу бути впевнений, як окрема людина,
08:59
if I buyкупити a carмашина that mayможе
sacrificeжертва me in a very rareрідко caseсправа,
170
527760
3856
що якщо я куплю автомобіль, який може
пожертвувати мною у рідкому випадку,
то я не єдиний невдаха,
який це робить,
09:03
I'm not the only suckerприсоски doing that
171
531640
1656
09:05
while everybodyкожен elseінакше
enjoysкористується unconditionalбезумовна protectionзахист.
172
533320
2680
поки всі інші насолоджуються
безумовним захистом.
09:09
In our surveyобстеження, we did askзапитай people
whetherчи то they would supportпідтримка regulationрегулювання
173
537120
3336
У нашому опитуванні ми запитали людей,
чи підтримали б вони правила,
09:12
and here'sось тут what we foundзнайдено.
174
540480
1200
і ось, що ми виявили.
09:14
First of all, people
said no to regulationрегулювання;
175
542360
3760
Перш за все, люди відмовилися від правил;
09:19
and secondдругий, they said,
176
547280
1256
і по-друге, вони сказали:
09:20
"Well if you regulateрегулювати carsавтомобілі to do this
and to minimizeмінімізувати totalзагальна кількість harmшкодити,
177
548560
3936
"Якщо за правилами автомобілі будуть
робити це і мінімізувати загальну шкоду,
то я не купуватиму
такі автомобілі."
09:24
I will not buyкупити those carsавтомобілі."
178
552520
1480
09:27
So ironicallyіронічно,
179
555400
1376
Тож за іронією,
09:28
by regulatingрегулювання carsавтомобілі to minimizeмінімізувати harmшкодити,
180
556800
3496
встановивши правила
для автомобілів мінімізувати шкоду,
09:32
we mayможе actuallyнасправді endкінець up with more harmшкодити
181
560320
1840
ми можемо зрештою прийти
до ще більшої шкоди,
09:35
because people mayможе not
optвибрати into the saferбезпечніше technologyтехнологія
182
563040
3656
адже люди не підтримають
більш безпечну технологію,
навіть, якщо вона набагато
безпечніша, ніж люди-водії.
09:38
even if it's much saferбезпечніше
than humanлюдина driversдрайвери.
183
566720
2080
09:42
I don't have the finalфінал
answerвідповісти to this riddleзагадка,
184
570360
3416
В мене немає остаточної відповіді
на цю дилему,
але я вважаю,
що для початку треба,
09:45
but I think as a startingпочинаючи pointточка,
185
573800
1576
09:47
we need societyсуспільство to come togetherразом
186
575400
3296
щоб суспільство зібралося разом
09:50
to decideвирішувати what trade-offsкомпроміси
we are comfortableкомфортно with
187
578720
2760
для вирішення, які компроміси
є комфортними для нас
09:54
and to come up with waysшляхи
in whichкотрий we can enforceпримусове виконання those trade-offsкомпроміси.
188
582360
3480
та придумати шляхи
для втілення цих компромісів.
09:58
As a startingпочинаючи pointточка,
my brilliantблискучий studentsстуденти,
189
586520
2536
У якості стартової точки,
мої блискучі студенти,
10:01
EdmondЕдмонд AwadАвад and SohanSohan DsouzaDsouza,
190
589080
2456
Едмонд Авад та Сохан Дсоуза,
10:03
builtпобудований the MoralМоральні MachineМашина websiteвеб-сайт,
191
591560
1800
створили веб-сайт - Моральну Машину,
10:06
whichкотрий generatesгенерує randomвипадковий scenariosсценарії at you --
192
594200
2680
яка генерує для вас випадкові сценарії -
10:10
basicallyв основному a bunchпучок
of randomвипадковий dilemmasдилеми in a sequenceпослідовність
193
598080
2456
по суті, набір випадкових дилем
одна за одною,
10:12
where you have to chooseвибирай what
the carмашина should do in a givenдано scenarioсценарій.
194
600560
3920
де вам потрібно обрати, що автомобіль
має зробити у наданому сценарії.
10:17
And we varyзмінюватися the agesстоліття and even
the speciesвидів of the differentінший victimsжертви.
195
605040
4600
Ми також змінюємо вік і навіть
біологічні види різних потерпілих.
10:23
So farдалеко we'veми маємо collectedзібрані
over fiveп'ять millionмільйон decisionsрішення
196
611040
3696
На даний момент ми зібрали більше
п'яти мільйонів рішень
10:26
by over one millionмільйон people worldwideсвітовий
197
614760
2200
від більше, ніж одного мільйона людей
по всьому світу
10:30
from the websiteвеб-сайт.
198
618400
1200
з веб-сайту.
10:32
And this is helpingдопомагає us
formформа an earlyрано pictureкартина
199
620360
2416
І це допомагає нам
отримати первинну картину того,
10:34
of what trade-offsкомпроміси
people are comfortableкомфортно with
200
622800
2616
які компроміси є прийнятні для людей
10:37
and what mattersмає значення to them --
201
625440
1896
та що є важливо для них -
10:39
even acrossпоперек culturesкультури.
202
627360
1440
навіть поміж різних культур.
10:42
But more importantlyголовне,
203
630240
1496
Та що важливіше,
10:43
doing this exerciseвправи
is helpingдопомагає people recognizeрозпізнати
204
631760
3376
виконання цієї вправи
допомагає людям усвідомити
10:47
the difficultyтруднощі of makingвиготовлення those choicesвибір
205
635160
2816
складність прийняття таких рішень
10:50
and that the regulatorsрегулятори
are taskedпоставлено завдання with impossibleнеможливо choicesвибір.
206
638000
3800
і те, що перед регулювальниками
постає неможливий вибір.
10:55
And maybe this will help us as a societyсуспільство
understandзрозуміти the kindsвидів of trade-offsкомпроміси
207
643360
3576
І, можливо, це допоможе нам,
як суспільству, зрозуміти ті компроміси,
10:58
that will be implementedреалізовано
ultimatelyв кінцевому підсумку in regulationрегулювання.
208
646960
3056
що будуть запроваджені
зрештою у регулюваннях.
11:02
And indeedдійсно, I was very happyщасливий to hearпочуй
209
650040
1736
І справді, я був щасливий почути,
11:03
that the first setвстановити of regulationsправила
210
651800
2016
що перший набір регулювань,
11:05
that cameприйшов from
the DepartmentДепартамент of TransportТранспорт --
211
653840
2136
що видали у Міністерстві Транспорту -
11:08
announcedоголошено last weekтиждень --
212
656000
1376
оголошено минулого тижня -
11:09
includedвключений a 15-point-пункт checklistКонтрольний список
for all carmakersавтовиробники to provideзабезпечити,
213
657400
6576
містить 15 пунктів, що мають забезпечити
всі виробники автомобілів,
11:16
and numberномер 14 was ethicalетичний considerationрозгляд --
214
664000
3256
і номер 14 стосувався етичного аспекту -
11:19
how are you going to dealугода with that.
215
667280
1720
як ви вчините щодо цього.
11:23
We alsoтакож have people
reflectвідбити on theirїх ownвласний decisionsрішення
216
671800
2656
Ми також даємо людям
обміркувати їх власні рішення,
11:26
by givingдавати them summariesрезюме
of what they choseвибрав.
217
674480
3000
надавши їм підсумки того,
що вони обирали.
11:30
I'll give you one exampleприклад --
218
678440
1656
Ось один приклад -
11:32
I'm just going to warnпопередити you
that this is not your typicalтиповий exampleприклад,
219
680120
3536
але попереджаю, що це
нетиповий приклад,
11:35
your typicalтиповий userкористувач.
220
683680
1376
типовий користувач.
11:37
This is the mostнайбільше sacrificedпожертвували and the mostнайбільше
savedзбережено characterхарактер for this personлюдина.
221
685080
3616
Це - найбільш постраждалий
та найбільш врятований персонажі
для цієї людини.
11:40
(LaughterСміх)
222
688720
5200
(Сміх)
11:46
Some of you mayможе agreeзгоден with him,
223
694680
1896
Дехто з вас може погодитися з ним,
11:48
or her, we don't know.
224
696600
1640
чи з нею, ми не знаємо.
11:52
But this personлюдина alsoтакож seemsздається to slightlyтрохи
preferвважають за краще passengersпасажирів over pedestriansпішоходів
225
700480
6136
Але ця людина також надає трохи більше
переваги пасажирам, ніж пішоходам
11:58
in theirїх choicesвибір
226
706640
2096
у своїх рішеннях
12:00
and is very happyщасливий to punishпокарати jaywalkingJaywalking.
227
708760
2816
та дуже охоче наказує порушників.
12:03
(LaughterСміх)
228
711600
3040
(Сміх)
12:09
So let's wrapобернути up.
229
717320
1216
Тож, підсумуємо.
12:10
We startedпочався with the questionпитання --
let's call it the ethicalетичний dilemmaдилема --
230
718559
3416
Ми почали з питання -
назвемо це етичною дилемою -
12:14
of what the carмашина should do
in a specificконкретний scenarioсценарій:
231
722000
3056
що автомобіль має робити
у наданому сценарії:
12:17
swerveЗгорнути or stayзалишитися?
232
725080
1200
повернути чи залишитись?
12:19
But then we realizedусвідомлено
that the problemпроблема was a differentінший one.
233
727240
2736
Але згодом ми усвідомили,
що проблема, насправді, у іншому.
12:22
It was the problemпроблема of how to get
societyсуспільство to agreeзгоден on and enforceпримусове виконання
234
730000
4536
Вона у тому, як погодити суспільство
та запровадити
12:26
the trade-offsкомпроміси they're comfortableкомфортно with.
235
734560
1936
компроміси, з якими воно погоджується.
12:28
It's a socialсоціальний dilemmaдилема.
236
736520
1256
Це соціальна дилема.
12:29
In the 1940s, IsaacІсаак AsimovАзімов
wroteписав his famousзнаменитий lawsзакони of roboticsРобототехніка --
237
737800
5016
У 1940-х роках Айзек Азімов написав
свої відомі закони робототехніки -
12:34
the threeтри lawsзакони of roboticsРобототехніка.
238
742840
1320
три закони робототехніки.
12:37
A robotробот mayможе not harmшкодити a humanлюдина beingбуття,
239
745240
2456
Робот не може заподіяти шкоду людині,
12:39
a robotробот mayможе not disobeyDisobey a humanлюдина beingбуття,
240
747720
2536
робот повинен підкорятися наказам людини,
12:42
and a robotробот mayможе not allowдозволити
itselfсама по собі to come to harmшкодити --
241
750280
3256
і робот повинен захищати самого себе -
12:45
in this orderзамовлення of importanceважливість.
242
753560
1960
у цій послідовності за важливістю.
12:48
But after 40 yearsроків or so
243
756360
2136
Але після 40 років чи близько цього,
12:50
and after so manyбагато хто storiesоповідання
pushingнатисканням these lawsзакони to the limitліміт,
244
758520
3736
та після стількох історій, що
наполягають на цих трьох законах,
12:54
AsimovАзімов introducedвведений the zerothнульовий lawзакон
245
762280
3696
Азімов впроваджує нульовий закон,
12:58
whichкотрий takes precedenceпріоритет aboveвище all,
246
766000
2256
що має перевагу над усіма,
13:00
and it's that a robotробот
mayможе not harmшкодити humanityлюдство as a wholeцілий.
247
768280
3280
і він про те, що робот не може
заподіяти шкоду людству в цілому.
13:04
I don't know what this meansзасоби
in the contextконтекст of driverlessводія carsавтомобілі
248
772480
4376
Я не знаю, що це значить
у контексті безпілотних автомобілів
13:08
or any specificконкретний situationситуація,
249
776880
2736
або будь-якої конкретної ситуації,
13:11
and I don't know how we can implementреалізувати it,
250
779640
2216
і я не знаю, як ми можемо
це реалізувати,
13:13
but I think that by recognizingвизнаючи
251
781880
1536
але я думаю, що визнавши,
13:15
that the regulationрегулювання of driverlessводія carsавтомобілі
is not only a technologicalтехнологічний problemпроблема
252
783440
6136
що регулювання безпілотних автомобілів -
це не лише технологічна проблема,
13:21
but alsoтакож a societalсоціальні cooperationспівробітництво problemпроблема,
253
789600
3280
але також проблема
соціальної співдружності,
13:25
I hopeнадія that we can at leastнайменше beginпочати
to askзапитай the right questionsпитання.
254
793800
2880
сподіваюсь, ми принаймні можемо
почати ставити правильні питання.
13:29
Thank you.
255
797200
1216
Дякую.
13:30
(ApplauseОплески)
256
798440
2920
(Оплиски)
Translated by Hanna Malienkina
Reviewed by Khrystyna Romashko

▲Back to top

ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee