ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com
TEDxCambridge

Iyad Rahwan: What moral decisions should driverless cars make?

イヤッド・ラーワン: 自動運転車が下すべき倫理的判断について

Filmed:
1,147,381 views

あなたの自動運転車は、5人の歩行者を救うためなら乗っているあなたを死なせるべきでしょうか? 自動運転車の社会的ジレンマへの入門となるこの講演で、イヤッド・ラーワンは、このテクノロジーが我々の道義性にいかに挑戦することになるかを探り、我々が受け入れる(あるいは受け入れない)倫理的なトレードオフに対する人々の実際の考えを集めようというプロジェクトについて説明しています。
- Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
Today今日 I'm going to talk
about technology技術 and society社会.
0
1000
4080
今日はテクノロジーと
社会についてお話しします
00:19
The Department部門 of Transport輸送
estimated推定 that last year
1
7040
3696
運輸省の推計では
去年の交通事故死者数は
米国だけで3万5千人に上ります
00:22
35,000 people died死亡しました
from trafficトラフィック crashesクラッシュ in the US alone単独で.
2
10760
4080
00:28
Worldwide世界的に, 1.2 million百万 people
die死ぬ everyすべて year in trafficトラフィック accidents事故.
3
16040
4800
世界全体では 毎年120万人が
交通事故で亡くなっています
そのような交通事故の9割を
なくせる方法があるとしたら
00:33
If there was a way we could eliminate排除する
90 percentパーセント of those accidents事故,
4
21760
4096
皆さんは支持しますか?
00:37
would you supportサポート it?
5
25880
1200
00:39
Of courseコース you would.
6
27720
1296
もちろんするでしょう
00:41
This is what driverlessドライバーレス car technology技術
promises約束 to achieve達成する
7
29040
3655
これは自動運転車の技術が
実現を約束していることです
00:44
by eliminating排除する the mainメイン
sourceソース of accidents事故 --
8
32720
2816
事故の主要な原因である
00:47
human人間 errorエラー.
9
35560
1200
人的なミスを
取り除くことによってです
00:49
Now picture画像 yourselfあなた自身
in a driverlessドライバーレス car in the year 2030,
10
37920
5416
想像してみてください
2030年に自動運転車に乗って
00:55
sitting座っている back and watching見ている
this vintageビンテージ TEDxCambridgeTEDxCambridge videoビデオ.
11
43360
3456
くつろいで この大昔の
TEDxCambridgeのビデオを見ているところを
00:58
(Laughter笑い)
12
46840
2000
(笑)
01:01
All of a sudden突然,
13
49520
1216
突然 車が故障を起こし
01:02
the car experiences経験 mechanical機械的 failure失敗
and is unableできない to stop.
14
50760
3280
ブレーキが
効かなくなりました
01:07
If the car continues続ける,
15
55360
1520
もし真っ直ぐ進み続けたら
道を横断する歩行者の群れに
突っ込むことになります
01:09
it will crashクラッシュ into a bunch
of pedestrians歩行者 crossing交差点 the street通り,
16
57720
4120
01:15
but the car mayかもしれない swerveそれる,
17
63080
2135
でもハンドルを切れば
歩道の1人を死なせるかわりに
01:17
hittingヒッティング one bystander傍観者,
18
65239
1857
01:19
killing殺す them to saveセーブ the pedestrians歩行者.
19
67120
2080
何人もの歩行者を
救うことができます
01:22
What should the car do,
and who should decide決めます?
20
70040
2600
車はどうすべきで そして誰が
それを決めるべきなのでしょう?
01:25
What if instead代わりに the car
could swerveそれる into a wall,
21
73520
3536
あるいはハンドルを切って
壁に突っ込んで
01:29
crashingクラッシュ and killing殺す you, the passenger旅客,
22
77080
3296
歩行者を救うかわりに
車の中の人を死なせるとしたら
どうでしょう?
01:32
in order注文 to saveセーブ those pedestrians歩行者?
23
80400
2320
01:35
This scenarioシナリオ is inspiredインスピレーションを受けた
by the trolleyトロリー problem問題,
24
83240
3080
このシナリオは
倫理的な問題について考察するために
数十年前に哲学者が考案した―
01:38
whichどの was invented発明された
by philosophers哲学者 a few少数 decades数十年 ago
25
86960
3776
「トロッコ問題」を
ヒントにしたものです
01:42
to think about ethics倫理.
26
90760
1240
この問題を我々がどう考えるか
ということが重要です
01:46
Now, the way we think
about this problem問題 matters問題.
27
94120
2496
01:48
We mayかもしれない for example
not think about it at all.
28
96640
2616
たとえば まったく考えない
というのもありえます
01:51
We mayかもしれない say this scenarioシナリオ is unrealistic非現実的,
29
99280
3376
こんなシナリオは
非現実的で ありそうになく
01:54
incredibly信じられないほど unlikely起こりそうもない, or just silly愚かな.
30
102680
2320
馬鹿げていると
しかしそのような批判は
01:57
But I think this criticism批判
missesミス the pointポイント
31
105760
2736
話を文字通りに取りすぎて
本質を見逃していると思います
02:00
because it takes
the scenarioシナリオ too literally文字通り.
32
108520
2160
もちろん現実の事故は
この通りには行かないでしょう
02:03
Of courseコース no accident事故
is going to look like this;
33
111920
2736
02:06
no accident事故 has two or three optionsオプション
34
114680
3336
事故状況において選択肢が
2つか3つしかなく
いずれの場合も誰かが死ぬ
などということはなく
02:10
where everybodyみんな dies死ぬ somehow何とか.
35
118040
2000
02:13
Instead代わりに, the car is going
to calculate計算する something
36
121480
2576
実際には 車がそれぞれの相手を轢く
確率のようなものを
02:16
like the probability確率 of hittingヒッティング
a certainある groupグループ of people,
37
124080
4896
計算することになるでしょう
02:21
if you swerveそれる one direction方向
versus another別の direction方向,
38
129000
3336
ハンドルを切る方向によって
車の乗員や 歩行者や
他のドライバーのリスクが
02:24
you mightかもしれない slightly少し increase増加する the riskリスク
to passengers乗客 or other driversドライバー
39
132360
3456
どう変わるかなどです
02:27
versus pedestrians歩行者.
40
135840
1536
02:29
It's going to be
a more complex複合体 calculation計算,
41
137400
2160
計算はずっと複雑なものに
なるでしょうが
トレードオフの問題があることに
変わりはありません
02:32
but it's still going
to involve関与する trade-offsトレードオフ,
42
140480
2520
02:35
and trade-offsトレードオフ oftenしばしば require要求する ethics倫理.
43
143840
2880
そしてトレードオフには
倫理がからむのです
「そんなことに
頭を悩ませるのはやめて
02:39
We mightかもしれない say then,
"Well, let's not worry心配 about this.
44
147840
2736
02:42
Let's wait until〜まで technology技術
is fully完全に ready準備完了 and 100 percentパーセント safe安全."
45
150600
4640
技術がすっかり成熟して100%安全なものに
なるまで待とう」と思うかもしれません
02:48
Suppose仮定する that we can indeed確かに
eliminate排除する 90 percentパーセント of those accidents事故,
46
156520
3680
今後10年で
そういった事故の90%—
いや 99%まで
なくせると仮定しましょう
02:53
or even 99 percentパーセント in the next 10 years.
47
161080
2840
02:56
What if eliminating排除する
the last one percentパーセント of accidents事故
48
164920
3176
でも 残りの1%の事故を
なくすために
さらに50年の研究が
必要だったとしたらどうでしょう?
03:00
requires要求する 50 more years of research研究?
49
168120
3120
03:04
Should we not adopt採用 the technology技術?
50
172400
1800
この技術の採用を
見送るべきでしょうか?
03:06
That's 60 million百万 people
deadデッド in car accidents事故
51
174720
4776
現在の状況が続くとしたら
その間に6千万人が
交通事故で死ぬことになります
03:11
if we maintain維持する the current現在 rateレート.
52
179520
1760
03:14
So the pointポイント is,
53
182760
1216
技術がすっかり安全になるまで
03:16
waiting待っている for full満員 safety安全性 is alsoまた、 a choice選択,
54
184000
3616
待つというのも
1つの選択であり
それにもトレードオフは
伴うということです
03:19
and it alsoまた、 involves関係する trade-offsトレードオフ.
55
187640
2160
03:23
People onlineオンライン on socialソーシャル mediaメディア
have been coming到来 up with all sortsソート of ways方法
56
191560
4336
人々はソーシャルメディア上で
この問題に頭を悩ませないための
あらゆる方法を考え出しています
03:27
to not think about this problem問題.
57
195920
2016
03:29
One person suggested示唆
the car should just swerveそれる somehow何とか
58
197960
3216
ある人は
車は歩行者の間をすり抜ければ
いいんだと指摘しました—
03:33
in betweenの間に the passengers乗客 --
59
201200
2136
03:35
(Laughter笑い)
60
203360
1016
(笑)
道端の人も避けながら
03:36
and the bystander傍観者.
61
204400
1256
03:37
Of courseコース if that's what the car can do,
that's what the car should do.
62
205680
3360
それができるなら
もちろん そうすべきでしょうが
03:41
We're interested興味がある in scenariosシナリオ
in whichどの this is not possible可能.
63
209920
2840
我々に興味があるのは
それができない場合です
03:45
And my personal個人的 favoriteお気に入り
was a suggestion提案 by a bloggerブロガー
64
213280
5416
私が気に入っているのは
あるブロガーが提案したものですが
脱出ボタンで車から飛び出して—
03:50
to have an ejectイジェクトする buttonボタン in the car
that you press押す --
65
218720
3016
03:53
(Laughter笑い)
66
221760
1216
(笑)
車は自己破壊させる
という方法です
03:55
just before the car self-destructs自己破壊する.
67
223000
1667
03:56
(Laughter笑い)
68
224691
1680
(笑)
03:59
So if we acknowledge認める that cars
will have to make trade-offsトレードオフ on the road道路,
69
227840
5200
車が道路上でトレードオフの
判断をしなければならないと認めるとして
では そのようなトレードオフは
どう考え
04:06
how do we think about those trade-offsトレードオフ,
70
234200
1880
どのように
決めたらよいのでしょう?
04:09
and how do we decide決めます?
71
237320
1576
04:10
Well, maybe we should run走る a survey調査
to find out what society社会 wants,
72
238920
3136
社会が何を望むのか探るため
世論調査をすべきかもしれません
04:14
because ultimately最終的に,
73
242080
1456
規制や法というのは
04:15
regulations規則 and the law法律
are a reflection反射 of societal社会 values.
74
243560
3960
社会の価値観を
反映したものであるわけですから
04:20
So this is what we did.
75
248040
1240
それで やってみました
04:21
With my collaborators協力者,
76
249880
1616
共同研究者の
ジャン=フランソワ・ボンフォンと
アジム・シャリフとともに
04:23
Jean-Franジャンフランçoisオイ BonnefonBonnefon and Azimアジム ShariffShariff,
77
251520
2336
04:25
we ran走った a survey調査
78
253880
1616
こういった感じの
シナリオを提示する
04:27
in whichどの we presented提示された people
with these typesタイプ of scenariosシナリオ.
79
255520
2855
世論調査をしました
04:30
We gave与えた them two optionsオプション
inspiredインスピレーションを受けた by two philosophers哲学者:
80
258399
3777
2人の哲学者にヒントを得た
選択肢を用意しました
04:34
Jeremyジェレミー Benthamベンサム and Immanuelイマヌエル Kantカント.
81
262200
2640
ジェレミ・ベンサムと
イマヌエル・カントです
ベンサムなら 車は
功利主義倫理に従うべきだと言うでしょう
04:37
Benthamベンサム says言う the car
should followフォローする utilitarian功利主義者 ethics倫理:
82
265600
3096
04:40
it should take the actionアクション
that will minimize最小化する total合計 harm --
83
268720
3416
被害の総量を最小化するような
行動を取るべきだと
04:44
even if that actionアクション will kill殺します a bystander傍観者
84
272160
2816
たとえその行動によって
歩行者や乗員が
死ぬことになっても
04:47
and even if that actionアクション
will kill殺します the passenger旅客.
85
275000
2440
イマヌエル・カントなら
04:50
Immanuelイマヌエル Kantカント says言う the car
should followフォローする duty-bound義務的な principles原則,
86
278120
4976
「殺すべからず」といった道義的な原則に
従った行動をすべきだと言うでしょう
04:55
like "Thouあなた shalt not kill殺します."
87
283120
1560
意図的に人を害する行動を
取るべきではなく
04:57
So you should not take an actionアクション
that explicitly明示的 harmsハザード a human人間 beingであること,
88
285480
4456
結果的に より多くの人が
被害に遭おうとも
05:01
and you should let the car take its courseコース
89
289960
2456
05:04
even if that's going to harm more people.
90
292440
1960
車は そのまま進めるべきだと
05:07
What do you think?
91
295640
1200
皆さんはどう思いますか?
05:09
Benthamベンサム or Kantカント?
92
297360
1520
ベンサムかカントか?
私たちの調査で分かったのは
05:11
Here'sここにいる what we found見つけた.
93
299760
1256
05:13
Most最も people sided両面 with Benthamベンサム.
94
301040
1800
多くの人はベンサムの側の
意見だということです
05:16
So it seems思われる that people
want cars to be utilitarian功利主義者,
95
304160
3776
車が功利主義的に
被害を最小化することを
みんな望んでいるようなので
05:19
minimize最小化する total合計 harm,
96
307960
1416
05:21
and that's what we should all do.
97
309400
1576
我々はそうすべきなのでしょう
05:23
Problem問題 solved解決した.
98
311000
1200
問題解決です
しかし これには
小さな落とし穴があります
05:25
But there is a little catchキャッチ.
99
313240
1480
そんな功利主義的な車を
買いますかと聞いてみたところ
05:27
When we asked尋ねた people
whetherかどうか they would purchase購入 suchそのような cars,
100
315920
3736
「絶対買わない」
という答えだったのです
05:31
they said, "Absolutely絶対に not."
101
319680
1616
05:33
(Laughter笑い)
102
321320
2296
(笑)
どんな犠牲を払っても 乗る者を
守る車を自分では望んでいますが
05:35
They would like to buy購入 cars
that protect保護する them at all costsコスト,
103
323640
3896
05:39
but they want everybodyみんな elseelse
to buy購入 cars that minimize最小化する harm.
104
327560
3616
他の人たちには
被害を最小化する車を買って欲しいのです
05:43
(Laughter笑い)
105
331200
2520
(笑)
このような問題は
以前にも見たことがあります
05:46
We've私たちは seen見た this problem問題 before.
106
334720
1856
05:48
It's calledと呼ばれる a socialソーシャル dilemmaジレンマ.
107
336600
1560
社会的ジレンマと
呼ばれる問題です
05:51
And to understandわかる the socialソーシャル dilemmaジレンマ,
108
339160
1816
社会的ジレンマを
理解するためには
05:53
we have to go a little bitビット
back in history歴史.
109
341000
2040
少し歴史を遡る
必要があります
05:56
In the 1800s,
110
344000
2576
1800年代に
イギリスの経済学者
ウィリアム・フォースター・ロイドは
05:58
English英語 economistエコノミスト Williamウィリアム Forsterフォースター Lloydロイド
published出版された a pamphletパンフレット
111
346600
3736
こんなシナリオが書かれた
小冊子を出版しました
06:02
whichどの describes説明する the following以下 scenarioシナリオ.
112
350360
2216
06:04
You have a groupグループ of farmers農民 --
113
352600
1656
一団の農家がいて—
06:06
English英語 farmers農民 --
114
354280
1336
イギリスの農家です—
06:07
who are sharing共有 a common一般 land土地
for their彼らの sheep to graze放牧.
115
355640
2680
羊が草を食むための
牧草地を共有しています
06:11
Now, if each farmer農家
bringsもたらす a certainある number of sheep --
116
359520
2576
それぞれの農家は 同じ数の
羊を連れて来ます—
06:14
let's say three sheep --
117
362120
1496
3頭ずつとしましょう
06:15
the land土地 will be rejuvenated若返らせた,
118
363640
2096
その場合には 牧草地は回復し
06:17
the farmers農民 are happyハッピー,
119
365760
1216
農家はハッピー
06:19
the sheep are happyハッピー,
120
367000
1616
羊もハッピーで
万事問題はありません
06:20
everything is good.
121
368640
1200
06:22
Now, if one farmer農家 bringsもたらす one extra余分な sheep,
122
370440
2520
農家のうちの1人が
1頭余計に連れてきたら
その農家は少し得をしますが
他の人が損害を受けるわけではありません
06:25
that farmer農家 will do slightly少し better,
and no one elseelse will be harmed害を受けた.
123
373800
4720
06:31
But if everyすべて farmer農家 made
that individually個別に rationalラショナル decision決定,
124
379160
3640
しかし農家の誰もが
同じ 自分に好都合な判断をすると
牧草が過剰に消費されて
枯渇してしまい
06:35
the land土地 will be overrunオーバーラン,
and it will be depleted枯渇した
125
383840
2720
農家全員にとって
損害となり
06:39
to the detriment損害 of all the farmers農民,
126
387360
2176
06:41
and of courseコース,
to the detriment損害 of the sheep.
127
389560
2120
そしてもちろん
羊にとっても損害となります
06:44
We see this problem問題 in manyたくさんの places場所:
128
392720
3680
この問題はいろんなところで
目にします
06:49
in the difficulty困難 of managing管理します overfishing乱獲,
129
397080
3176
過剰漁獲を防ぐ難しさとか
06:52
or in reducing還元する carbon炭素 emissions排出量
to mitigate緩和する climate気候 change変化する.
130
400280
4560
気候変動を軽減するための
二酸化炭素排出量削減もそうです
06:59
When it comes来る to the regulation規制
of driverlessドライバーレス cars,
131
407160
2920
自動運転車の規制
ということで言うと
07:03
the common一般 land土地 now
is basically基本的に publicパブリック safety安全性 --
132
411080
4336
共有地に当たるのは
公共の基本的な安全です—
07:07
that's the common一般 good --
133
415440
1240
これは共通の利益です—
07:09
and the farmers農民 are the passengers乗客
134
417400
1976
そして農家に当たるのは
07:11
or the car owners所有者 who are choosing選択
to rideライド in those cars.
135
419400
3600
そういう車に乗ることを選択する
乗員や車の所有者です
自分の安全を優先するという
07:16
And by making作る the individually個別に
rationalラショナル choice選択
136
424960
2616
各自にとって都合の良い選択を
みんながすると
07:19
of prioritizing優先順位付け their彼らの own自分の safety安全性,
137
427600
2816
07:22
they mayかもしれない collectively集合的に be
diminishing減少する the common一般 good,
138
430440
3136
結果的に 被害の総量を最小化するという
共通の利益が
07:25
whichどの is minimizing最小化する total合計 harm.
139
433600
2200
損なわれることになります
この問題は伝統的に
07:30
It's calledと呼ばれる the tragedy悲劇 of the commonsコモンズ,
140
438320
2136
「共有地の悲劇」と呼ばれています
07:32
traditionally伝統的に,
141
440480
1296
しかし自動運転車の場合には
07:33
but I think in the case場合
of driverlessドライバーレス cars,
142
441800
3096
問題はもう少し
嫌らしいものになります
07:36
the problem問題 mayかもしれない be
a little bitビット more insidious陰気な
143
444920
2856
07:39
because there is not necessarily必ずしも
an individual個人 human人間 beingであること
144
447800
3496
そういった判断をするのが
必ずしも当人ではないからです
07:43
making作る those decisions決定.
145
451320
1696
自動車メーカーは
07:45
So car manufacturersメーカー
mayかもしれない simply単に programプログラム cars
146
453040
3296
単に顧客の安全を最大化するように
車をプログラムするかもしれません
07:48
that will maximize最大化する safety安全性
for their彼らの clientsクライアント,
147
456360
2520
07:52
and those cars mayかもしれない learn学ぶ
automatically自動的に on their彼らの own自分の
148
460080
2976
そして車は そのためには
歩行者のリスクを多少上げる必要があると
07:55
that doing so requires要求する slightly少し
increasing増加する riskリスク for pedestrians歩行者.
149
463080
3520
自分で判断するかもしれません
羊のメタファーを使うなら
07:59
So to use the sheep metaphor隠喩,
150
467520
1416
08:00
it's like we now have electric電気の sheep
that have a mindマインド of their彼らの own自分の.
151
468960
3616
今や自分の考えを持った
電気羊が現れたようなものです
08:04
(Laughter笑い)
152
472600
1456
(笑)
そして その羊は飼い主の知らぬうちに
勝手に草を食べに行くかもしれません
08:06
And they mayかもしれない go and graze放牧
even if the farmer農家 doesn't know it.
153
474080
3080
08:10
So this is what we mayかもしれない call
the tragedy悲劇 of the algorithmicアルゴリズム的 commonsコモンズ,
154
478640
3976
「アルゴリズム的共有地の悲劇」
とでも呼びましょうか
これは新たなタイプの問題を
提起します
08:14
and if offersオファー new新しい typesタイプ of challenges挑戦.
155
482640
2360
伝統的には
このようなタイプの社会的ジレンマは
08:22
Typically典型的には, traditionally伝統的に,
156
490520
1896
08:24
we solve解決する these typesタイプ
of socialソーシャル dilemmasジレンマ usingを使用して regulation規制,
157
492440
3336
規制によって
解決されてきました
08:27
so eitherどちらか governments政府
or communitiesコミュニティ get together一緒に,
158
495800
2736
政府ないしは
コミュニティが力を合わせ
08:30
and they decide決めます collectively集合的に
what kind種類 of outcome結果 they want
159
498560
3736
どのような結果を望むのか
個々人の行動にどのような制約を
課す必要があるのかを
08:34
and what sortソート of constraints制約
on individual個人 behavior動作
160
502320
2656
集団的に決めるのです
08:37
they need to implement実装する.
161
505000
1200
08:39
And then usingを使用して monitoringモニタリング and enforcement執行,
162
507600
2616
それから監視と強制力によって
08:42
they can make sure
that the publicパブリック good is preserved保存された.
163
510240
2559
公共の利益が
守られるようにします
それでは
被害の最小化を
08:45
So why don't we just,
164
513440
1575
08:47
as regulatorsレギュレーター,
165
515039
1496
すべての車の
要件にするよう
08:48
require要求する that all cars minimize最小化する harm?
166
516559
2897
規制当局に求めては
どうでしょう?
08:51
After all, this is
what people say they want.
167
519480
2240
それが みんなが望むと
言っていることなんですから
08:55
And more importantly重要なこと,
168
523200
1416
さらに大事なのは
08:56
I can be sure that as an individual個人,
169
524640
3096
フェアだと確信できることです
08:59
if I buy購入 a car that mayかもしれない
sacrifice犠牲 me in a very rareまれな case場合,
170
527760
3856
まれに自分を犠牲にするような
車を買うのであれば
他のみんなが無条件の保護を
享受している中で
09:03
I'm not the only sucker吸盤 doing that
171
531640
1656
09:05
while everybodyみんな elseelse
enjoys楽しむ unconditional無条件 protection保護.
172
533320
2680
ただ1人馬鹿を見たくはありません
09:09
In our survey調査, we did ask尋ねる people
whetherかどうか they would supportサポート regulation規制
173
537120
3336
私たちの調査で
規制を支持するか聞いたところ
こんなことがわかりました
09:12
and here'sここにいる what we found見つけた.
174
540480
1200
09:14
First of all, people
said no to regulation規制;
175
542360
3760
まず人々は規制に対しては
拒否を示しました
09:19
and second二番, they said,
176
547280
1256
そして「そんな風に
09:20
"Well if you regulate調整する cars to do this
and to minimize最小化する total合計 harm,
177
548560
3936
被害の総量を最小化するよう
規制するのであれば
09:24
I will not buy購入 those cars."
178
552520
1480
そんな車は買わない」
と言うのです
09:27
So ironically皮肉なことに,
179
555400
1376
皮肉なことに
09:28
by regulating規制する cars to minimize最小化する harm,
180
556800
3496
車を規制して被害を
最小化しようとすると
被害をもっと大きくすることに
なるかもしれません
09:32
we mayかもしれない actually実際に end終わり up with more harm
181
560320
1840
人間のドライバーよりも
ずっと安全であっても
09:35
because people mayかもしれない not
optオプト into the saferより安全な technology技術
182
563040
3656
そのような技術を人々が
選ばなくなるのですから
09:38
even if it's much saferより安全な
than human人間 driversドライバー.
183
566720
2080
この難問に対する最終的な答えは
持ち合わせていませんが
09:42
I don't have the final最後の
answer回答 to this riddle,
184
570360
3416
09:45
but I think as a starting起動 pointポイント,
185
573800
1576
どんなトレードオフなら
受け入れるのか
09:47
we need society社会 to come together一緒に
186
575400
3296
そのようなトレードオフを
どう強制できるのか
09:50
to decide決めます what trade-offsトレードオフ
we are comfortable快適 with
187
578720
2760
社会が一緒になって
見出さなければならない時が
09:54
and to come up with ways方法
in whichどの we can enforce強制する those trade-offsトレードオフ.
188
582360
3480
来ていると思います
09:58
As a starting起動 pointポイント,
my brilliantブリリアント students学生の,
189
586520
2536
その出発点として
私の優秀な教え子たち
エドモンド・アワドと ソハン・ドスーザが
10:01
Edmondエドモンド Awad先端 and Sohanソハン Dsouza恵理子,
190
589080
2456
10:03
built建てられた the Moral道徳 Machine機械 websiteウェブサイト,
191
591560
1800
『モラル・マシン』という
ウェブサイトを作りました
様々なシナリオを
ランダムに生成して
10:06
whichどの generates生成する randomランダム scenariosシナリオ at you --
192
594200
2680
10:10
basically基本的に a bunch
of randomランダム dilemmasジレンマ in a sequenceシーケンス
193
598080
2456
一連のランダムな
ジレンマ状況に対して
10:12
where you have to choose選択する what
the car should do in a given与えられた scenarioシナリオ.
194
600560
3920
車がどうすべきか
選んでもらいます
10:17
And we vary変化する the ages年齢 and even
the species of the different異なる victims犠牲者.
195
605040
4600
被害者の年齢から生物種まで
様々に変えたシナリオがあります
10:23
So far遠い we've私たちは collected集めました
over five million百万 decisions決定
196
611040
3696
このウェブサイトを通じて
世界の100万人以上の
人たちから
10:26
by over one million百万 people worldwide世界的に
197
614760
2200
500万以上の決断のデータを
集めました
10:30
from the websiteウェブサイト.
198
618400
1200
10:32
And this is helping助ける us
form an early早い picture画像
199
620360
2416
これは 文化を超えて
人々にとって
どんなトレードオフなら良く
10:34
of what trade-offsトレードオフ
people are comfortable快適 with
200
622800
2616
何は譲れないのか
10:37
and what matters問題 to them --
201
625440
1896
大まかな理解を得る
助けになります
10:39
even across横断する cultures文化.
202
627360
1440
さらに大事な点は
10:42
But more importantly重要なこと,
203
630240
1496
このようなことを通して
10:43
doing this exercise運動
is helping助ける people recognize認識する
204
631760
3376
そういう決断がいかに難しいか
10:47
the difficulty困難 of making作る those choices選択肢
205
635160
2816
当局がいかに無理な選択を迫られているか
人々が認識するようになることです
10:50
and that the regulatorsレギュレーター
are tasked任命された with impossible不可能 choices選択肢.
206
638000
3800
10:55
And maybe this will help us as a society社会
understandわかる the kinds種類 of trade-offsトレードオフ
207
643360
3576
そして いつか規制に
盛り込まれるトレードオフを
10:58
that will be implemented実装された
ultimately最終的に in regulation規制.
208
646960
3056
社会が理解する
助けになるかもしれません
11:02
And indeed確かに, I was very happyハッピー to hear聞く
209
650040
1736
実際 喜ばしいことに
先週発表された
11:03
that the first setセット of regulations規則
210
651800
2016
運輸省による
11:05
that came来た from
the Department部門 of Transport輸送 --
211
653840
2136
最初の規制には
11:08
announced発表 last week週間 --
212
656000
1376
11:09
included含まれる a 15-point-ポイント checklistチェックリスト
for all carmakers自動車メーカー to provide提供する,
213
657400
6576
すべての自動車メーカーが提示すべき
15項目のチェックリストが含まれていて
その14番目は
倫理的な考慮—
11:16
and number 14 was ethical倫理的な consideration考慮 --
214
664000
3256
そういう問題にどう対処するか
ということでした
11:19
how are you going to deal対処 with that.
215
667280
1720
私たちはまた その人がした選択の
要約を見せることで
11:23
We alsoまた、 have people
reflect反映する on their彼らの own自分の decisions決定
216
671800
2656
11:26
by giving与える them summaries要約
of what they chose選択した.
217
674480
3000
自分の決断を振り返るよう
促しています
ある人の例を
お見せしましょう
11:30
I'll give you one example --
218
678440
1656
11:32
I'm just going to warn警告する you
that this is not your typical典型的な example,
219
680120
3536
これは典型例ではない
ということを
あらかじめ
お断りしておきます
11:35
your typical典型的な userユーザー.
220
683680
1376
11:37
This is the most最も sacrificed犠牲にされた and the most最も
saved保存された characterキャラクター for this person.
221
685080
3616
これは この人物によって 1番救われた対象(猫)と
1番犠牲にされた対象(ベビーカー)です
11:40
(Laughter笑い)
222
688720
5200
(笑)
11:46
Some of you mayかもしれない agree同意する with him,
223
694680
1896
皆さんの中には
この人に同意する人も
11:48
or her, we don't know.
224
696600
1640
いるかもしれません
11:52
But this person alsoまた、 seems思われる to slightly少し
prefer好む passengers乗客 over pedestrians歩行者
225
700480
6136
しかしまた
この人は歩行者よりも
車の乗員を
優先する傾向があり
11:58
in their彼らの choices選択肢
226
706640
2096
信号を無視して横断する人は
喜んで罰します
12:00
and is very happyハッピー to punish罰する jaywalkingジェイウォーキング.
227
708760
2816
12:03
(Laughter笑い)
228
711600
3040
(笑)
ではまとめましょう
12:09
So let's wrapラップ up.
229
717320
1216
私たちは 倫理的ジレンマに関する
問いかけから始めました
12:10
We started開始した with the question質問 --
let's call it the ethical倫理的な dilemmaジレンマ --
230
718559
3416
12:14
of what the car should do
in a specific特定 scenarioシナリオ:
231
722000
3056
ある特殊な状況で
車はどうすべきか
直進するか 曲がるか
12:17
swerveそれる or stay滞在?
232
725080
1200
しかしそれから問うべきことが
別にあることに気付きました
12:19
But then we realized実現した
that the problem問題 was a different異なる one.
233
727240
2736
12:22
It was the problem問題 of how to get
society社会 to agree同意する on and enforce強制する
234
730000
4536
どんなトレードオフなら
受け入れられるものか
社会で どう合意し どう強制するか
という問題です
12:26
the trade-offsトレードオフ they're comfortable快適 with.
235
734560
1936
これが社会的ジレンマです
12:28
It's a socialソーシャル dilemmaジレンマ.
236
736520
1256
12:29
In the 1940s, Isaacアイザック Asimovアシモフ
wrote書きました his famous有名な laws法律 of roboticsロボット工学 --
237
737800
5016
1940年代にアイザック・アシモフが
有名な「ロボット工学三原則」
というのを作りました
12:34
the three laws法律 of roboticsロボット工学.
238
742840
1320
ロボットは人間に
危害を加えてはならない
12:37
A robotロボット mayかもしれない not harm a human人間 beingであること,
239
745240
2456
12:39
a robotロボット mayかもしれない not disobey不従順な a human人間 beingであること,
240
747720
2536
ロボットは人間に
服従しなければなならない
12:42
and a robotロボット mayかもしれない not allow許す
itself自体 to come to harm --
241
750280
3256
ロボットは自分自身を
守らなければならない
12:45
in this order注文 of importance重要度.
242
753560
1960
これは重要な順に並んでいます
その後40年ほどの間に
12:48
But after 40 years or so
243
756360
2136
これらの原則を限界まで突き詰めるような
沢山の物語が生まれ
12:50
and after so manyたくさんの stories物語
pushing押して these laws法律 to the limit限界,
244
758520
3736
12:54
Asimovアシモフ introduced導入された the zerothゼロ law法律
245
762280
3696
アシモフは三原則に優先する
ゼロ番目の原則を付け加えました
12:58
whichどの takes precedence優先順位 above上の all,
246
766000
2256
13:00
and it's that a robotロボット
mayかもしれない not harm humanity人類 as a whole全体.
247
768280
3280
ロボットは人類全体に
危害を加えてはならない というものです
これが自動運転車や
特定の状況という文脈で
13:04
I don't know what this means手段
in the contextコンテキスト of driverlessドライバーレス cars
248
772480
4376
どのような意味を持つのか
分かりませんし
13:08
or any specific特定 situation状況,
249
776880
2736
どう実現したら良いのかも
分かりませんが
13:11
and I don't know how we can implement実装する it,
250
779640
2216
13:13
but I think that by recognizing認識
251
781880
1536
自動運転車の規制は
13:15
that the regulation規制 of driverlessドライバーレス cars
is not only a technological技術的 problem問題
252
783440
6136
技術だけの問題ではなく
社会的協力に関する問題でもある
と認識することで
13:21
but alsoまた、 a societal社会 cooperation協力 problem問題,
253
789600
3280
我々が少なくとも正しい質問を
問い始められると期待しています
13:25
I hope希望 that we can at least少なくとも beginベギン
to ask尋ねる the right questions質問.
254
793800
2880
13:29
Thank you.
255
797200
1216
ありがとうございました
13:30
(Applause拍手)
256
798440
2920
(拍手)
Translated by Yasushi Aoki
Reviewed by Eriko T.

▲Back to top

ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee