ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com
TEDxCambridge

Iyad Rahwan: What moral decisions should driverless cars make?

伊亞德.拉萬: 無人駕駛車該做出怎樣的道德決定?

Filmed:
1,147,381 views

如果你的無人駕駛車為了要救五個行人就得要害死你,它該做嗎?在這個關於社會兩難的入門演說中,伊亞德.拉萬探究了科技將會如何挑戰我們的道德,並解釋他的研究,其中的資料是來自由真人回答關於我們願意(或不願意)做的道德取捨問題。
- Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
Today今天 I'm going to talk
about technology技術 and society社會.
0
1000
4080
今天我要談的是科技與社會。
00:19
The Department of Transport運輸
estimated預計 that last year
1
7040
3696
交通部估計去年
00:22
35,000 people died死亡
from traffic交通 crashes崩潰 in the US alone單獨.
2
10760
4080
在美國有 35,000 人死於交通事故。
00:28
Worldwide全世界, 1.2 million百萬 people
die every一切 year in traffic交通 accidents事故.
3
16040
4800
全球,每年有 120 萬人
死於交通意外。
00:33
If there was a way we could eliminate消除
90 percent百分 of those accidents事故,
4
21760
4096
如果有方法可以避免
90% 的那些意外,
00:37
would you support支持 it?
5
25880
1200
你們願意支持嗎?
00:39
Of course課程 you would.
6
27720
1296
當然你們會願意。
00:41
This is what driverless無人駕駛 car汽車 technology技術
promises許諾 to achieve實現
7
29040
3655
這就是無人駕駛車技術
許諾要達成的目標,
00:44
by eliminating消除 the main主要
source資源 of accidents事故 --
8
32720
2816
做法是消除意外事故的主要源頭:
00:47
human人的 error錯誤.
9
35560
1200
人類錯誤。
00:49
Now picture圖片 yourself你自己
in a driverless無人駕駛 car汽車 in the year 2030,
10
37920
5416
想像一下,2030 年,
你坐在一臺無人駕駛的車內,
00:55
sitting坐在 back and watching觀看
this vintage釀酒 TEDxCambridgeTEDxCambridge video視頻.
11
43360
3456
你靠坐著,看著這支極佳的
TEDxCambridge 影片。
00:58
(Laughter笑聲)
12
46840
2000
(笑聲)
01:01
All of a sudden突然,
13
49520
1216
突然間,
01:02
the car汽車 experiences經驗 mechanical機械 failure失敗
and is unable無法 to stop.
14
50760
3280
這臺車發生機械故障,無法停下來。
01:07
If the car汽車 continues繼續,
15
55360
1520
如果車繼續前進,
01:09
it will crash緊急 into a bunch
of pedestrians行人 crossing路口 the street,
16
57720
4120
它會撞上過馬路的一群行人,
01:15
but the car汽車 may可能 swerve轉彎,
17
63080
2135
但可以把車突然轉向,
01:17
hitting one bystander旁觀者,
18
65239
1857
只撞死一個旁觀者,
01:19
killing謀殺 them to save保存 the pedestrians行人.
19
67120
2080
撞死他就可以救一群行人。
01:22
What should the car汽車 do,
and who should decide決定?
20
70040
2600
這臺車會怎麼做?誰來決定?
01:25
What if instead代替 the car汽車
could swerve轉彎 into a wall,
21
73520
3536
如果改成,這臺車可以
突然轉向去撞牆,
01:29
crashing轟然 and killing謀殺 you, the passenger乘客,
22
77080
3296
撞毀後只有乘客──也就是你──
會身亡,
01:32
in order訂購 to save保存 those pedestrians行人?
23
80400
2320
這樣就能夠救那些行人,如何?
01:35
This scenario腳本 is inspired啟發
by the trolley手推車 problem問題,
24
83240
3080
這個情境的靈感是來自於電車問題,
那是幾十年前哲學家所發明的問題,
01:38
which哪一個 was invented發明
by philosophers哲學家 a few少數 decades幾十年 ago
25
86960
3776
01:42
to think about ethics倫理.
26
90760
1240
做道德思考用。
01:46
Now, the way we think
about this problem問題 matters事項.
27
94120
2496
我們思考這個問題的方式
是很重要的。
01:48
We may可能 for example
not think about it at all.
28
96640
2616
比如,我們有可能完全不去想它。
01:51
We may可能 say this scenario腳本 is unrealistic不切實際,
29
99280
3376
我們可能會說,這個情境不實際、
01:54
incredibly令人難以置信 unlikely不會, or just silly愚蠢.
30
102680
2320
非常不可能發生或很蠢。
01:57
But I think this criticism批評
misses錯過 the point
31
105760
2736
但我認為這種批判是失焦了,
02:00
because it takes
the scenario腳本 too literally按照字面.
32
108520
2160
因為它看這個情境看得太表面。
02:03
Of course課程 no accident事故
is going to look like this;
33
111920
2736
當然不會有像這樣子的意外發生;
02:06
no accident事故 has two or three options選項
34
114680
3336
沒有意外會有兩、三個選項,
02:10
where everybody每個人 dies somehow不知何故.
35
118040
2000
且每個選項都有人死。
02:13
Instead代替, the car汽車 is going
to calculate計算 something
36
121480
2576
情況是,這臺車去做計算,
02:16
like the probability可能性 of hitting
a certain某些 group of people,
37
124080
4896
比如計算撞到某一群人的機率,
02:21
if you swerve轉彎 one direction方向
versus another另一個 direction方向,
38
129000
3336
如果你向這個方向急轉彎,
跟另一個方向做比較,
02:24
you might威力 slightly increase增加 the risk風險
to passengers乘客 or other drivers司機
39
132360
3456
你可能會稍微增加乘客
或其他駕駛人的風險,
02:27
versus pedestrians行人.
40
135840
1536
跟行人的風險比較等等。
02:29
It's going to be
a more complex複雜 calculation計算,
41
137400
2160
這會是個比較複雜的計算,
02:32
but it's still going
to involve涉及 trade-offs權衡,
42
140480
2520
但它仍然會涉及取捨,
02:35
and trade-offs權衡 often經常 require要求 ethics倫理.
43
143840
2880
而取捨通常都會需要用到道德。
02:39
We might威力 say then,
"Well, let's not worry擔心 about this.
44
147840
2736
我們可能會說:「別擔心這個。
02:42
Let's wait until直到 technology技術
is fully充分 ready準備 and 100 percent百分 safe安全."
45
150600
4640
我們可以等到技術完全
準備好且 100% 安全。」
02:48
Suppose假設 that we can indeed確實
eliminate消除 90 percent百分 of those accidents事故,
46
156520
3680
假設我們的確可以減少
90% 的意外事故,
02:53
or even 99 percent百分 in the next下一個 10 years年份.
47
161080
2840
或是在接下來十年甚至達到 99%。
02:56
What if eliminating消除
the last one percent百分 of accidents事故
48
164920
3176
如果說要把最後 1% 的
意外事故都消除,
03:00
requires要求 50 more years年份 of research研究?
49
168120
3120
會需要再多做 50 年的研究呢?
03:04
Should we not adopt採用 the technology技術?
50
172400
1800
我們不該採用這個技術嗎?
03:06
That's 60 million百萬 people
dead in car汽車 accidents事故
51
174720
4776
如果我們繼續用目前的方式,
那就會有 6000 萬人死亡。
03:11
if we maintain保持 the current當前 rate.
52
179520
1760
03:14
So the point is,
53
182760
1216
所以重點是,
03:16
waiting等候 for full充分 safety安全 is also a choice選擇,
54
184000
3616
等到完全安全也是一個選擇,
03:19
and it also involves涉及 trade-offs權衡.
55
187640
2160
而這個選擇也涉及取捨。
03:23
People online線上 on social社會 media媒體
have been coming未來 up with all sorts排序 of ways方法
56
191560
4336
人們在網路社會媒體上
提出各式各樣的方式,
03:27
to not think about this problem問題.
57
195920
2016
來避免思考這個問題。
03:29
One person suggested建議
the car汽車 should just swerve轉彎 somehow不知何故
58
197960
3216
有個人建議,車應該要急轉彎,
03:33
in between之間 the passengers乘客 --
59
201200
2136
穿過這些路人──
03:35
(Laughter笑聲)
60
203360
1016
(笑聲)
03:36
and the bystander旁觀者.
61
204400
1256
和旁觀者之間。
03:37
Of course課程 if that's what the car汽車 can do,
that's what the car汽車 should do.
62
205680
3360
當然,如果這臺車能這麼做,
那它是應該這麼做。
03:41
We're interested有興趣 in scenarios場景
in which哪一個 this is not possible可能.
63
209920
2840
我們感興趣的是
沒辦法這樣做的情況。
03:45
And my personal個人 favorite喜愛
was a suggestion建議 by a blogger博客
64
213280
5416
我個人的最愛,
是一個部落客的建議,
03:50
to have an eject噴射 button按鍵 in the car汽車
that you press --
65
218720
3016
他建議車要裝設一個
彈射按鈕,讓你可以──
03:53
(Laughter笑聲)
66
221760
1216
(笑聲)
03:55
just before the car汽車 self-destructs自毀.
67
223000
1667
在車自毀之前按下它。
03:56
(Laughter笑聲)
68
224691
1680
(笑聲)
03:59
So if we acknowledge確認 that cars汽車
will have to make trade-offs權衡 on the road,
69
227840
5200
所以,如果我們承認車在
路上行駛時會需要做取捨,
04:06
how do we think about those trade-offs權衡,
70
234200
1880
我們要如何去想那些取捨?
04:09
and how do we decide決定?
71
237320
1576
我們要如何做決定?
04:10
Well, maybe we should run a survey調查
to find out what society社會 wants,
72
238920
3136
也許我們該做個調查
來了解社會想要什麼,
04:14
because ultimately最終,
73
242080
1456
因為,最終,
04:15
regulations法規 and the law
are a reflection反射 of societal社會的 values.
74
243560
3960
規定和法律都是反應出社會價值。
04:20
So this is what we did.
75
248040
1240
所以我們就這麼做了。
04:21
With my collaborators合作者,
76
249880
1616
我和我的共同研究者,
04:23
Jean-Fran讓 - 弗朗索瓦çoisOIS BonnefonBonnefon and Azim阿齊姆 Shariff沙裡夫,
77
251520
2336
尚方斯華.邦納方和阿辛.夏利夫,
04:25
we ran a survey調查
78
253880
1616
一起進行了一項調查,
04:27
in which哪一個 we presented呈現 people
with these types類型 of scenarios場景.
79
255520
2855
調查中,我們給人們看這些情境。
04:30
We gave them two options選項
inspired啟發 by two philosophers哲學家:
80
258399
3777
我們給予他們兩個選項,
選項靈感來自兩位哲學家:
04:34
Jeremy傑里米 Bentham邊沁 and Immanuel伊曼紐爾 Kant康德.
81
262200
2640
傑瑞米.邊沁及伊曼努爾.康德。
04:37
Bentham邊沁 says the car汽車
should follow跟隨 utilitarian功利 ethics倫理:
82
265600
3096
邊沁說,車應該要遵循特定的道德:
04:40
it should take the action行動
that will minimize最小化 total harm危害 --
83
268720
3416
它應該要採取
能讓傷害最小的行為──
04:44
even if that action行動 will kill a bystander旁觀者
84
272160
2816
即使那個行為會害死一名旁觀者,
04:47
and even if that action行動
will kill the passenger乘客.
85
275000
2440
即使那個行為會害死一名乘客。
04:50
Immanuel伊曼紐爾 Kant康德 says the car汽車
should follow跟隨 duty-bound責無旁貸 principles原則,
86
278120
4976
康德說,車應該要遵循
責無旁貸原則,
04:55
like "Thou shalt not kill."
87
283120
1560
比如「你不該殺人」。
04:57
So you should not take an action行動
that explicitly明確地 harms危害 a human人的 being存在,
88
285480
4456
所以你不能採取很明確
會傷害到人類的行為,
05:01
and you should let the car汽車 take its course課程
89
289960
2456
你應該讓車就照它的路去走,
05:04
even if that's going to harm危害 more people.
90
292440
1960
即使那最後會傷害到更多人。
05:07
What do you think?
91
295640
1200
你們認為如何?
05:09
Bentham邊沁 or Kant康德?
92
297360
1520
邊沁或康德?
05:11
Here's這裡的 what we found發現.
93
299760
1256
我們發現的結果如下。
05:13
Most people sided雙面 with Bentham邊沁.
94
301040
1800
大部分人站在邊沁這一邊。
05:16
So it seems似乎 that people
want cars汽車 to be utilitarian功利,
95
304160
3776
所以,似乎人們會希望
車是功利主義的,
05:19
minimize最小化 total harm危害,
96
307960
1416
把總傷害降到最低,
05:21
and that's what we should all do.
97
309400
1576
我們所有人都該這麼做。
05:23
Problem問題 solved解決了.
98
311000
1200
問題解決。
05:25
But there is a little catch抓住.
99
313240
1480
但有一個小難處。
05:27
When we asked people
whether是否 they would purchase採購 such這樣 cars汽車,
100
315920
3736
當我們問人們,
他們是否會買這樣的車,
05:31
they said, "Absolutely絕對 not."
101
319680
1616
他們說:「絕對不會。」
05:33
(Laughter笑聲)
102
321320
2296
(笑聲)
05:35
They would like to buy購買 cars汽車
that protect保護 them at all costs成本,
103
323640
3896
他們會買不計代價來保護他們的車,
05:39
but they want everybody每個人 else其他
to buy購買 cars汽車 that minimize最小化 harm危害.
104
327560
3616
但他們希望其他人都買
能把傷害減到最低的車。
05:43
(Laughter笑聲)
105
331200
2520
(笑聲)
05:46
We've我們已經 seen看到 this problem問題 before.
106
334720
1856
我們以前就看過這個問題。
05:48
It's called a social社會 dilemma困境.
107
336600
1560
它叫做社會兩難。
05:51
And to understand理解 the social社會 dilemma困境,
108
339160
1816
要了解社會兩難,
05:53
we have to go a little bit
back in history歷史.
109
341000
2040
我們得要回溯一下歷史。
05:56
In the 1800s,
110
344000
2576
在 1800 年代,
05:58
English英語 economist經濟學家 William威廉 Forster福斯特 Lloyd勞埃德
published發表 a pamphlet小冊子
111
346600
3736
英國經濟學家威廉.佛斯特.洛伊
出版了一本小冊子,
06:02
which哪一個 describes介紹 the following以下 scenario腳本.
112
350360
2216
小冊子描述了下列情境:
06:04
You have a group of farmers農民 --
113
352600
1656
有一群農夫
06:06
English英語 farmers農民 --
114
354280
1336
──英國農夫──
06:07
who are sharing分享 a common共同 land土地
for their sheep to graze輕擦.
115
355640
2680
他們在一塊共用地上面
放牧他們的羊。
06:11
Now, if each farmer農民
brings帶來 a certain某些 number of sheep --
116
359520
2576
每個農夫都會帶來一定數量的羊──
06:14
let's say three sheep --
117
362120
1496
比如說三隻羊──
06:15
the land土地 will be rejuvenated煥發青春,
118
363640
2096
這塊地會更生,
06:17
the farmers農民 are happy快樂,
119
365760
1216
農夫都很快樂,
06:19
the sheep are happy快樂,
120
367000
1616
羊也很快樂,
06:20
everything is good.
121
368640
1200
一切都很好。
06:22
Now, if one farmer農民 brings帶來 one extra額外 sheep,
122
370440
2520
現在,如果一個農夫多帶了一隻羊,
06:25
that farmer農民 will do slightly better,
and no one else其他 will be harmed傷害.
123
373800
4720
那位農夫的生計會更好一些,
其他人也沒受害。
06:31
But if every一切 farmer農民 made製作
that individually個別地 rational合理的 decision決定,
124
379160
3640
但如果每位農夫都各別
做出了那個理性的決定,
06:35
the land土地 will be overrun氾濫,
and it will be depleted耗盡
125
383840
2720
就會超過這塊地的限度,
資源會被用盡,
06:39
to the detriment損害 of all the farmers農民,
126
387360
2176
所有農夫都會受害,
06:41
and of course課程,
to the detriment損害 of the sheep.
127
389560
2120
當然,羊也會受害。
06:44
We see this problem問題 in many許多 places地方:
128
392720
3680
我們在許多地方都會看到這類問題:
06:49
in the difficulty困難 of managing管理的 overfishing過度捕撈,
129
397080
3176
比如管理過度捕魚的困難,
06:52
or in reducing減少 carbon emissions排放
to mitigate減輕 climate氣候 change更改.
130
400280
4560
或是減少碳排放來緩和氣候變遷。
06:59
When it comes to the regulation
of driverless無人駕駛 cars汽車,
131
407160
2920
當用到規範無人駕駛車的情況時,
07:03
the common共同 land土地 now
is basically基本上 public上市 safety安全 --
132
411080
4336
這塊共用地基本上就是公共安全──
07:07
that's the common共同 good --
133
415440
1240
也就是共善──
07:09
and the farmers農民 are the passengers乘客
134
417400
1976
農夫就是乘客,
07:11
or the car汽車 owners擁有者 who are choosing選擇
to ride in those cars汽車.
135
419400
3600
或是選擇坐這種車的車主。
07:16
And by making製造 the individually個別地
rational合理的 choice選擇
136
424960
2616
他們各自做出理性的選擇,
07:19
of prioritizing優先 their own擁有 safety安全,
137
427600
2816
把他們自己的安全擺在第一,
07:22
they may可能 collectively be
diminishing逐漸縮小的 the common共同 good,
138
430440
3136
那麼整體來說,
他們就可能會削減了共善,
07:25
which哪一個 is minimizing減少 total harm危害.
139
433600
2200
共善就是把總傷害減到最低。
07:30
It's called the tragedy悲劇 of the commons公地,
140
438320
2136
這就是所謂的「公地悲劇」,
07:32
traditionally傳統,
141
440480
1296
傳統是這麼稱呼的。
07:33
but I think in the case案件
of driverless無人駕駛 cars汽車,
142
441800
3096
但我認為在無人駕駛車的情況中,
07:36
the problem問題 may可能 be
a little bit more insidious陰險
143
444920
2856
問題可能還有涉及其他隱患,
07:39
because there is not necessarily一定
an individual個人 human人的 being存在
144
447800
3496
因為並沒有特別一個人類
07:43
making製造 those decisions決定.
145
451320
1696
在做那些決定。
07:45
So car汽車 manufacturers製造商
may可能 simply只是 program程序 cars汽車
146
453040
3296
汽車製造商很可能就會把他們的車
07:48
that will maximize最大化 safety安全
for their clients客戶,
147
456360
2520
設計成以確保客戶安全為第一要務,
07:52
and those cars汽車 may可能 learn學習
automatically自動 on their own擁有
148
460080
2976
而那些車可能會自己發現,
07:55
that doing so requires要求 slightly
increasing增加 risk風險 for pedestrians行人.
149
463080
3520
保護客戶會稍微增加行人的風險。
07:59
So to use the sheep metaphor隱喻,
150
467520
1416
若用放牧羊的比喻,
08:00
it's like we now have electric電動 sheep
that have a mind心神 of their own擁有.
151
468960
3616
就像是有電子羊,自己會思考。
08:04
(Laughter笑聲)
152
472600
1456
(笑聲)
08:06
And they may可能 go and graze輕擦
even if the farmer農民 doesn't know it.
153
474080
3080
他們可能會在農夫不知道的
情況下自己去吃草。
08:10
So this is what we may可能 call
the tragedy悲劇 of the algorithmic算法 commons公地,
154
478640
3976
所以我們可以稱之為
「演算法公地悲劇」,
08:14
and if offers報價 new types類型 of challenges挑戰.
155
482640
2360
它會帶來新的挑戰。
08:22
Typically通常, traditionally傳統,
156
490520
1896
通常,傳統上,
08:24
we solve解決 these types類型
of social社會 dilemmas困境 using運用 regulation,
157
492440
3336
我們會用規制來解決這些社會兩難,
08:27
so either governments政府
or communities社區 get together一起,
158
495800
2736
所以政府或是社區會集合起來,
08:30
and they decide決定 collectively
what kind of outcome結果 they want
159
498560
3736
他們共同決定想要什麼樣的結果、
08:34
and what sort分類 of constraints限制
on individual個人 behavior行為
160
502320
2656
以及對於個人行為,他們需要實施
08:37
they need to implement實行.
161
505000
1200
什麼樣的限制。
08:39
And then using運用 monitoring監控 and enforcement強制,
162
507600
2616
接著透過監控和執行,
08:42
they can make sure
that the public上市 good is preserved罐頭.
163
510240
2559
他們就能確保公善能被維護。
08:45
So why don't we just,
164
513440
1575
身為管理者,
08:47
as regulators監管機構,
165
515039
1496
我們為什麼不
08:48
require要求 that all cars汽車 minimize最小化 harm危害?
166
516559
2897
要求所有的車都要把
傷害降至最低就好了?
08:51
After all, this is
what people say they want.
167
519480
2240
畢竟,這是人民要的。
08:55
And more importantly重要的,
168
523200
1416
更重要的,
08:56
I can be sure that as an individual個人,
169
524640
3096
我可以確定,身為個人,
08:59
if I buy購買 a car汽車 that may可能
sacrifice犧牲 me in a very rare罕見 case案件,
170
527760
3856
如果我買了一臺有可能在
非常少數情況下把我犧牲的車,
09:03
I'm not the only sucker吸盤 doing that
171
531640
1656
至少我不會是唯一的冤大頭,
09:05
while everybody每個人 else其他
enjoys享受 unconditional無條件的 protection保護.
172
533320
2680
因為人人都享有無條件保護。
09:09
In our survey調查, we did ask people
whether是否 they would support支持 regulation
173
537120
3336
在我們的調查中,
我們有問人們是否支持規制,
09:12
and here's這裡的 what we found發現.
174
540480
1200
這是我們的發現。
09:14
First of all, people
said no to regulation;
175
542360
3760
首先,人們對規制說不;
09:19
and second第二, they said,
176
547280
1256
第二,他們說:
09:20
"Well if you regulate調節 cars汽車 to do this
and to minimize最小化 total harm危害,
177
548560
3936
「如果你們規定車都要這樣做,
並把總傷害降至最低,
09:24
I will not buy購買 those cars汽車."
178
552520
1480
我不會去買那些車。」
09:27
So ironically諷刺地,
179
555400
1376
所以,很諷刺,
09:28
by regulating調節 cars汽車 to minimize最小化 harm危害,
180
556800
3496
藉由規範汽車來將傷害降至最小,
09:32
we may可能 actually其實 end結束 up with more harm危害
181
560320
1840
結果卻會是更多的傷害,
09:35
because people may可能 not
opt選擇 into the safer更安全 technology技術
182
563040
3656
因為人們可能不會選擇
比較安全的科技,
09:38
even if it's much safer更安全
than human人的 drivers司機.
183
566720
2080
即使科技比人類駕駛還安全。
09:42
I don't have the final最後
answer回答 to this riddle謎語,
184
570360
3416
關於這個謎,我沒有最終的答案,
09:45
but I think as a starting開始 point,
185
573800
1576
但我認為,做為一個起始點,
09:47
we need society社會 to come together一起
186
575400
3296
我們需要社會能團結起來,
09:50
to decide決定 what trade-offs權衡
we are comfortable自在 with
187
578720
2760
來決定我們對何種取捨
會覺得比較舒服,
09:54
and to come up with ways方法
in which哪一個 we can enforce執行 those trade-offs權衡.
188
582360
3480
並提出方法來執行這些取捨。
09:58
As a starting開始 point,
my brilliant輝煌 students學生們,
189
586520
2536
做為一個起始點,我的出色學生們,
10:01
Edmond愛德蒙 Awadawad and SohanSohan DsouzaDsouza,
190
589080
2456
艾德蒙.艾瓦和索漢.達蘇札,
10:03
built內置 the Moral道德 Machine website網站,
191
591560
1800
建立了「道德機器」網站,
10:06
which哪一個 generates生成 random隨機 scenarios場景 at you --
192
594200
2680
它會為你產生隨機的情境,
10:10
basically基本上 a bunch
of random隨機 dilemmas困境 in a sequence序列
193
598080
2456
基本上是一連串的隨機兩難,
10:12
where you have to choose選擇 what
the car汽車 should do in a given特定 scenario腳本.
194
600560
3920
你得要選擇在給定的情境中,
車要怎麼做。
10:17
And we vary變化 the ages年齡 and even
the species種類 of the different不同 victims受害者.
195
605040
4600
我們會改變受害者的年齡和物種。
10:23
So far we've我們已經 collected
over five million百萬 decisions決定
196
611040
3696
目前我們已經從
來自全世界超過 100 萬人,
10:26
by over one million百萬 people worldwide全世界
197
614760
2200
收集到了超過 500 萬個決定,
10:30
from the website網站.
198
618400
1200
透過網站取得的。
10:32
And this is helping幫助 us
form形成 an early picture圖片
199
620360
2416
這能協助我們勾勒出初步的狀況,
10:34
of what trade-offs權衡
people are comfortable自在 with
200
622800
2616
了解人們對怎樣的取捨
感到比較舒服、
10:37
and what matters事項 to them --
201
625440
1896
什麼對他們比較重要──
10:39
even across橫過 cultures文化.
202
627360
1440
且是跨文化的。
10:42
But more importantly重要的,
203
630240
1496
但更重要的,
10:43
doing this exercise行使
is helping幫助 people recognize認識
204
631760
3376
做這個演練,能協助人們認清
10:47
the difficulty困難 of making製造 those choices選擇
205
635160
2816
做那些決定有多困難、
10:50
and that the regulators監管機構
are tasked任務 with impossible不可能 choices選擇.
206
638000
3800
而管理者的工作就是要
做不可能的選擇。
10:55
And maybe this will help us as a society社會
understand理解 the kinds of trade-offs權衡
207
643360
3576
也許這能協助我們這個社會
去了解這類的取捨,
10:58
that will be implemented實施
ultimately最終 in regulation.
208
646960
3056
終究這類的取捨在將來也會
被納入到規制當中。
11:02
And indeed確實, I was very happy快樂 to hear
209
650040
1736
的確,我非常高興聽到
11:03
that the first set of regulations法規
210
651800
2016
來自交通部的
11:05
that came來了 from
the Department of Transport運輸 --
211
653840
2136
第一組規定
11:08
announced公佈 last week --
212
656000
1376
在上週宣佈,
11:09
included包括 a 15-point-點 checklist清單
for all carmakers汽車製造商 to provide提供,
213
657400
6576
內容有一張清單,上面有 15 個項目,
是要汽車製造商避免的,
11:16
and number 14 was ethical合乎道德的 consideration考慮 --
214
664000
3256
而第 14 項就是道德考量──
11:19
how are you going to deal合同 with that.
215
667280
1720
你要如何去處理它。
11:23
We also have people
reflect反映 on their own擁有 decisions決定
216
671800
2656
也有人會反思他們自己的決定,
11:26
by giving them summaries摘要
of what they chose選擇.
217
674480
3000
我們會把人們所做的決定
歸納給他們。
11:30
I'll give you one example --
218
678440
1656
我舉一個例子給各位──
11:32
I'm just going to warn警告 you
that this is not your typical典型 example,
219
680120
3536
我要先警告各位,
這不是典型的例子,
11:35
your typical典型 user用戶.
220
683680
1376
使用者也不是典型的。
11:37
This is the most sacrificed犧牲 and the most
saved保存 character字符 for this person.
221
685080
3616
這個人最會犧牲的角色(小孩)
及最會拯救的角色(貓)是這些。
11:40
(Laughter笑聲)
222
688720
5200
(笑聲)
11:46
Some of you may可能 agree同意 with him,
223
694680
1896
有些人可能認同他,
11:48
or her, we don't know.
224
696600
1640
或她,性別不詳。
11:52
But this person also seems似乎 to slightly
prefer比較喜歡 passengers乘客 over pedestrians行人
225
700480
6136
但這個人對於乘客的偏好
也略高於行人,
11:58
in their choices選擇
226
706640
2096
從他們的選擇看得出來,
12:00
and is very happy快樂 to punish懲治 jaywalking亂穿馬路.
227
708760
2816
且非常樂意懲罰闖紅燈的人。
12:03
(Laughter笑聲)
228
711600
3040
(笑聲)
12:09
So let's wrap up.
229
717320
1216
來總結收尾一下。
12:10
We started開始 with the question --
let's call it the ethical合乎道德的 dilemma困境 --
230
718559
3416
我們一開頭問的問題,
就姑且稱之為道德兩難,
12:14
of what the car汽車 should do
in a specific具體 scenario腳本:
231
722000
3056
在特定的情境中, 車該怎麼做:
12:17
swerve轉彎 or stay?
232
725080
1200
急轉彎或保持原路?
12:19
But then we realized實現
that the problem問題 was a different不同 one.
233
727240
2736
但接著我們了解到,
這個問題有所不同。
12:22
It was the problem問題 of how to get
society社會 to agree同意 on and enforce執行
234
730000
4536
問題是要如何讓社會認同,
12:26
the trade-offs權衡 they're comfortable自在 with.
235
734560
1936
並且執行讓他們覺得舒服的取捨。
12:28
It's a social社會 dilemma困境.
236
736520
1256
這是個社會兩難。
12:29
In the 1940s, Isaac艾薩克 Asimov阿西莫夫
wrote his famous著名 laws法律 of robotics機器人 --
237
737800
5016
在四〇年代,以撒.艾西莫夫
寫了著名的機器人學法則──
12:34
the three laws法律 of robotics機器人.
238
742840
1320
機器人學的三大法則。
12:37
A robot機器人 may可能 not harm危害 a human人的 being存在,
239
745240
2456
機器人不得傷害人類,
12:39
a robot機器人 may可能 not disobey a human人的 being存在,
240
747720
2536
機器人不得違背人類,
12:42
and a robot機器人 may可能 not allow允許
itself本身 to come to harm危害 --
241
750280
3256
且機器人不得
讓它自己受到傷害──
12:45
in this order訂購 of importance重要性.
242
753560
1960
重要性就是依這個順序。
12:48
But after 40 years年份 or so
243
756360
2136
約四十年後,
12:50
and after so many許多 stories故事
pushing推動 these laws法律 to the limit限制,
244
758520
3736
許多故事已經把
這些法則推到了極限,
12:54
Asimov阿西莫夫 introduced介紹 the zeroth law
245
762280
3696
艾西莫夫又提出了第零條法則,
12:58
which哪一個 takes precedence優先權 above以上 all,
246
766000
2256
其重要性高於前述的所有法則,
13:00
and it's that a robot機器人
may可能 not harm危害 humanity人性 as a whole整個.
247
768280
3280
這條法則是,
機器人不得傷害整體人性。
13:04
I don't know what this means手段
in the context上下文 of driverless無人駕駛 cars汽車
248
772480
4376
我不知道在無人駕駛車的情況中,
或任何明確的情境中,
13:08
or any specific具體 situation情況,
249
776880
2736
這條法則是什麼意思,
13:11
and I don't know how we can implement實行 it,
250
779640
2216
我也不知道我們要如何實施它,
13:13
but I think that by recognizing認識
251
781880
1536
但我認為,透過認清
13:15
that the regulation of driverless無人駕駛 cars汽車
is not only a technological技術性 problem問題
252
783440
6136
無人駕駛車的規範不只是科技問題,
13:21
but also a societal社會的 cooperation合作 problem問題,
253
789600
3280
也是社會合作問題,
13:25
I hope希望 that we can at least最小 begin開始
to ask the right questions問題.
254
793800
2880
我希望我們至少能
開始問出對的問題。
13:29
Thank you.
255
797200
1216
謝謝。
13:30
(Applause掌聲)
256
798440
2920
(掌聲)
Translated by Lilian Chiu
Reviewed by Nan-Kun Wu

▲Back to top

ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com