ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com
TEDxCambridge

Iyad Rahwan: What moral decisions should driverless cars make?

لیاد راووان: ماشین‌های خودران چه تصمیم‌های اخلاقی باید بگیرند؟

Filmed:
1,147,381 views

آیا ماشین خودران شما برای نجات جان پنج عابر پیاده، باید شما رو بکشد؟ در این مقدمه درباره چندراهی‌های اجتماعی مربوط به ماشین‌های خودران، لیاد راوان به بررسی این موضوع می‌پردازد که چگونه تکنولوژی اخلاقیات ما را به چالش می‌کشد و تلاش خودش برای جمع‌آوری داده را از مردم واقعی درباره بده-بستان‌های اخلاقی که ما مایلیم(و مایل نیستیم) که انجامشان دهیم، توضیح می‌دهد.
- Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
Todayامروز I'm going to talk
about technologyتکنولوژی and societyجامعه.
0
1000
4080
امروز قراره درباره
تکنولوژی و جامعه صحبت کنم.
00:19
The Departmentگروه of Transportحمل و نقل
estimatedتخمین زده that last yearسال
1
7040
3696
دپارتمان حمل و نقل،
در سال گذشته تخمین زد که
00:22
35,000 people diedفوت کرد
from trafficترافیک crashesسقوط in the US aloneتنها.
2
10760
4080
فقط در آمریکا، ۳۵،۰۰۰ نفر
به علت تصادفات ترافیکی مرده‌اند.
00:28
Worldwideدر سراسر جهان, 1.2 millionمیلیون people
dieمرگ everyهرکدام yearسال in trafficترافیک accidentsحوادث.
3
16040
4800
در سراسر جهان هر ساله ۱.۲ میلیون نفر
به خاطر سوانح ترافیکی میمیرند.
00:33
If there was a way we could eliminateاز بین بردن
90 percentدرصد of those accidentsحوادث,
4
21760
4096
اگه راهی بود که میتونسیتم باهاش
۹۰ درصد این تصادف‌ها رو حذف کنیم،
00:37
would you supportحمایت کردن it?
5
25880
1200
آیا ازش حمایت میکردین؟
00:39
Of courseدوره you would.
6
27720
1296
البته که میکردین.
00:41
This is what driverlessبدون راننده carماشین technologyتکنولوژی
promisesوعده می دهد to achieveرسیدن
7
29040
3655
این چیزیه که تکنولوژی ماشین خودران
( بدونِ راننده) وعده میده که بهش به
00:44
by eliminatingاز بین بردن the mainاصلی
sourceمنبع of accidentsحوادث --
8
32720
2816
به وسیله منبع اصلی تصادفات میرسه--
00:47
humanانسان errorخطا.
9
35560
1200
خطای انسان.
00:49
Now pictureعکس yourselfخودت
in a driverlessبدون راننده carماشین in the yearسال 2030,
10
37920
5416
حالا خودتون رو تصور کنید
که در سال ۲۰۳۰ در یک ماشین خودران نشستید،
00:55
sittingنشسته back and watchingتماشا کردن
this vintageپرنعمت TEDxCambridgeTEDxCambridge videoویدئو.
11
43360
3456
و دارین این ویدیو قدیمی
TEDxCambrdige رو میبینین.
00:58
(Laughterخنده)
12
46840
2000
(خنده حاضرین)
01:01
All of a suddenناگهانی,
13
49520
1216
ناگهان،
01:02
the carماشین experiencesتجربیات mechanicalمکانیکی failureشکست
and is unableناتوان to stop.
14
50760
3280
ماشین به مشکل مکانیکی میخوره
و نمیتونه متوقف شه.
01:07
If the carماشین continuesهمچنان ادامه دارد,
15
55360
1520
اگه ماشین ادامه بده،
01:09
it will crashسقوط into a bunchدسته ای
of pedestriansعابر پیاده crossingعبور the streetخیابان,
16
57720
4120
به عده‌ای از عابرین پیاده
که در حال عبور از خیابان هستند خواهد زد.
01:15
but the carماشین mayممکن است swerveسرگردان,
17
63080
2135
ولی ممکنه ماشین منحرف بشه،
01:17
hittingضربه زدن one bystanderتماشاچی,
18
65239
1857
و به یکی از افراد داخل پیاده رو بزنه،
01:19
killingکشتن them to saveصرفه جویی the pedestriansعابر پیاده.
19
67120
2080
و اونا رو برای نجات جان عابران پیاده بکشه.
01:22
What should the carماشین do,
and who should decideتصميم گرفتن?
20
70040
2600
ماشین باید چیکار کنه
و چه کسی باید تصمیم بگیره؟
01:25
What if insteadبجای the carماشین
could swerveسرگردان into a wallدیوار,
21
73520
3536
اگه به جای اینکار
ماشین بتونه به سمت دیوار منحرف شه،
01:29
crashingسقوط and killingکشتن you, the passengerمسافر,
22
77080
3296
و تصادف کنه و شما که سرنشین هستین رو بکشه،
01:32
in orderسفارش to saveصرفه جویی those pedestriansعابر پیاده?
23
80400
2320
برای نجات اون عابران پیاده، اونوقت چی؟
01:35
This scenarioسناریو is inspiredالهام گرفته
by the trolleyچرخ دستی problemمسئله,
24
83240
3080
این سناریو
از مشکل قطار برقی الهام گرفته است،
01:38
whichکه was inventedاختراع شده است
by philosophersفیلسوفان a fewتعداد کمی decadesچند دهه agoپیش
25
86960
3776
که چندین دهه پیش
توسط فلاسفه اختراع شد
01:42
to think about ethicsاخلاق.
26
90760
1240
تا درباره اخلاق فکر کنند.
01:46
Now, the way we think
about this problemمسئله mattersمسائل.
27
94120
2496
حالا، جوری که ما
به این مساله فکر میکنیم مهمه.
01:48
We mayممکن است for exampleمثال
not think about it at all.
28
96640
2616
مثلا ممکنه اصلاً بهش فکر نکنیم.
01:51
We mayممکن است say this scenarioسناریو is unrealisticغیر واقعی است,
29
99280
3376
ممکنه بگید این سناریو غیر واقعیه،
01:54
incrediblyطور باور نکردنی unlikelyبعید است, or just sillyاحمقانه.
30
102680
2320
یا غیر محتمل، یا احمقانه.
01:57
But I think this criticismانتقاد
missesاز دست رفته the pointنقطه
31
105760
2736
ولی من فکر میکنم این انتقاد
از نکته اصلی غافل میشه
02:00
because it takes
the scenarioسناریو too literallyعینا.
32
108520
2160
چون سناریو رو خیلی سطحی بررسی میکنه.
02:03
Of courseدوره no accidentتصادف
is going to look like this;
33
111920
2736
البته که هیچ تصادفی این شکلی نیست،
02:06
no accidentتصادف has two or threeسه optionsگزینه ها
34
114680
3336
هیچ تصادفی دو یا سه گزینه نداره
02:10
where everybodyهمه diesمیمیرد somehowبه نحوی.
35
118040
2000
که توش هرکی به طریقی میمیره.
02:13
Insteadبجای, the carماشین is going
to calculateمحاسبه something
36
121480
2576
به جاش، ماشین میره سراغ حساب کردن
02:16
like the probabilityاحتمال of hittingضربه زدن
a certainمسلم - قطعی groupگروه of people,
37
124080
4896
چیزی مثل احتمال اصابت به گروهی از مردم،
02:21
if you swerveسرگردان one directionجهت
versusدر مقابل anotherیکی دیگر directionجهت,
38
129000
3336
وقتی به جهتی منحرف بشین
نسبت به یک جهت دیگه،
02:24
you mightممکن slightlyکمی increaseافزایش دادن the riskخطر
to passengersمسافران or other driversرانندگان
39
132360
3456
شاید اندکی ریسک رو برای
سرنشینان یا سایر رانندگان
02:27
versusدر مقابل pedestriansعابر پیاده.
40
135840
1536
نسبت به عابران پیاده زیاد کنین.
02:29
It's going to be
a more complexپیچیده calculationمحاسبه,
41
137400
2160
این محاسبات پیچیده‌تر هم خواهد شد،
02:32
but it's still going
to involveشامل trade-offsجبران خسارت,
42
140480
2520
ولی همچنان شامل بده‌ بستان‌هایی خواهد بود،
02:35
and trade-offsجبران خسارت oftenغالبا requireنیاز ethicsاخلاق.
43
143840
2880
و بده بستان‌ها
غالباً نیازمند اخلاقیات هستند.
02:39
We mightممکن say then,
"Well, let's not worryنگرانی about this.
44
147840
2736
ممکنه بگیم،
"خب، بیا نگران این مساله نباشیم.
02:42
Let's wait untilتا زمان technologyتکنولوژی
is fullyبه طور کامل readyآماده and 100 percentدرصد safeبی خطر."
45
150600
4640
بیاین صبر کنیم تا تکنولوژی
کاملاً آماده و صد درصد امن بشه."
02:48
Supposeفرض کنید that we can indeedدر واقع
eliminateاز بین بردن 90 percentدرصد of those accidentsحوادث,
46
156520
3680
فرض کنید ما بتونیم
واقعاً ۹۰ درصد این تصادفات رو حذف کنیم،
02:53
or even 99 percentدرصد in the nextبعد 10 yearsسالها.
47
161080
2840
یا حتی ۹۹ درصدشون رو طی ۱۰ سال آینده.
02:56
What if eliminatingاز بین بردن
the last one percentدرصد of accidentsحوادث
48
164920
3176
اگه حذف کردن اون ۱ درصدِ
باقی مونده از تصادفات
03:00
requiresنیاز دارد 50 more yearsسالها of researchپژوهش?
49
168120
3120
به ۵۰ سال تحقیق نیاز داشته باشه،
اونوقت تکلیف چیه؟
03:04
Should we not adoptاتخاذ کردن the technologyتکنولوژی?
50
172400
1800
آیا باید قید این تکنولوژی رو بزنیم؟
03:06
That's 60 millionمیلیون people
deadمرده in carماشین accidentsحوادث
51
174720
4776
که یعنی ۶۰ میلیون مرگ در تصادفات رانندگی
03:11
if we maintainحفظ the currentجاری rateنرخ.
52
179520
1760
اگر که با همین نرخ تصادفات پیش بریم.
03:14
So the pointنقطه is,
53
182760
1216
منظورم اینه که،
03:16
waitingدر انتظار for fullپر شده safetyایمنی is alsoهمچنین a choiceانتخابی,
54
184000
3616
صبر کردن برای رسیدن به ایمنی کامل
یک گزینه هست،
03:19
and it alsoهمچنین involvesشامل می شود trade-offsجبران خسارت.
55
187640
2160
ولی بده-بستانهای خودش رو داره.
03:23
People onlineآنلاین on socialاجتماعی mediaرسانه ها
have been comingآینده up with all sortsانواع of waysراه ها
56
191560
4336
مردم در رسانه‌های اجتماعی
به انواع مختلفی از روش‌ها رسیدن که
03:27
to not think about this problemمسئله.
57
195920
2016
به این مشکل فکر نکنیم.
03:29
One personفرد suggestedپیشنهادی
the carماشین should just swerveسرگردان somehowبه نحوی
58
197960
3216
یه نفر پیشنهاد داده بود که
ماشین باید به سمتی منحرف بشه
03:33
in betweenبین the passengersمسافران --
59
201200
2136
که ماشین بخوره به جایی بین سرنشین‌ها --
03:35
(Laughterخنده)
60
203360
1016
(خنده حاضرین)
03:36
and the bystanderتماشاچی.
61
204400
1256
و عابر پیاده.
03:37
Of courseدوره if that's what the carماشین can do,
that's what the carماشین should do.
62
205680
3360
البته اگه این کاریه که ماشین میتونه بکنه،
باید همین کار رو بکنه.
03:41
We're interestedعلاقه مند in scenariosسناریوها
in whichکه this is not possibleامکان پذیر است.
63
209920
2840
ولی ما درباره سناریو‌هایی کنجکاویم
که نمیشه این کار رو کرد.
03:45
And my personalشخصی favoriteمورد علاقه
was a suggestionپیشنهاد by a bloggerوبلاگ نویس
64
213280
5416
و راه مورد علاقه خودم
پیشنهاد یک بلاگ‌نویس هستش
03:50
to have an ejectبیرون انداختن buttonدکمه in the carماشین
that you pressمطبوعات --
65
218720
3016
که داخل ماشین یک دکمه پرتاب به بیرون باشه
که فشارش بدین --
03:53
(Laughterخنده)
66
221760
1216
(خنده حاضرین)
03:55
just before the carماشین self-destructsخود تخریب می کند.
67
223000
1667
درست قبل از خود نابودسازی ماشین.
03:56
(Laughterخنده)
68
224691
1680
(خنده حاضرین)
03:59
So if we acknowledgeاذعان that carsماشین ها
will have to make trade-offsجبران خسارت on the roadجاده,
69
227840
5200
پس اگه ما قبول کنیم که ماشین‌ها
بده‌-بستان‌هایی رو در جاده خواهند داشت،
04:06
how do we think about those trade-offsجبران خسارت,
70
234200
1880
تکلیف این بده بستانها چیه،
04:09
and how do we decideتصميم گرفتن?
71
237320
1576
و چطور تصمیم میگیریم؟
04:10
Well, maybe we should runاجرا کن a surveyنظر سنجی
to find out what societyجامعه wants,
72
238920
3136
خب، شاید باید یه نظرسنجی برگزار کنیم
تا ببینیم جامعه چی میخواد،
04:14
because ultimatelyدر نهایت,
73
242080
1456
چون در نهایت،
04:15
regulationsآئین نامه and the lawقانون
are a reflectionانعکاس of societalاجتماعی valuesارزش های.
74
243560
3960
قوانین و مقررات
بازتابی از ارزش‌های اجتماعی هستند.
04:20
So this is what we did.
75
248040
1240
ما هم همین کارو کردیم.
04:21
With my collaboratorsمشارکت کنندگان,
76
249880
1616
با همکارانم،
04:23
Jean-Franژان فرنçoisois BonnefonBonnefon and Azimعظیم Shariffشاریف,
77
251520
2336
عظیم شریف و‌ ژان-فرانیوا بونفون
04:25
we ranفرار کرد a surveyنظر سنجی
78
253880
1616
یک نظرسنجی برگزار کردیم
04:27
in whichکه we presentedارایه شده people
with these typesانواع of scenariosسناریوها.
79
255520
2855
که توش به مردم
این سناریوها رو نشون میدادیم.
04:30
We gaveداد them two optionsگزینه ها
inspiredالهام گرفته by two philosophersفیلسوفان:
80
258399
3777
بهشون دوتا حق انتخاب میدادیم که
الهام گرفته از دو فیلسوف بودن:
04:34
Jeremyجرمی Benthamبنتام and Immanuelامانوئل Kantکانت.
81
262200
2640
امانوئل کانت و جرمی بنتهام.
04:37
Benthamبنتام saysمی گوید the carماشین
should followدنبال کردن utilitarianسودآور ethicsاخلاق:
82
265600
3096
بنتهام میگه که ماشین
باید از اخلاق سودگرایانه پیروی کنه:
04:40
it should take the actionعمل
that will minimizeبه حداقل رساندن totalجمع harmصدمه --
83
268720
3416
باید کاری کنه که مجموعِ ضرر کمینه بشه --
04:44
even if that actionعمل will killکشتن a bystanderتماشاچی
84
272160
2816
حتی اگه این کار
باعث کشته شدن یک عابر پیاده بشه
04:47
and even if that actionعمل
will killکشتن the passengerمسافر.
85
275000
2440
حتی اگه این کار یک سرنشین رو بکشه.
04:50
Immanuelامانوئل Kantکانت saysمی گوید the carماشین
should followدنبال کردن duty-boundوظیفه محدود principlesاصول,
86
278120
4976
امانوئل کانت میگه ماشین باید
از اصول تکلیفی پیروی کنه،
04:55
like "Thouتو shaltشل not killکشتن."
87
283120
1560
مثل فرمان "نباید به قتل برسانی."
04:57
So you should not take an actionعمل
that explicitlyبه صراحت harmsخسارت a humanانسان beingبودن,
88
285480
4456
پس شما نباید کاری کنین که به صراحت
به یک انسان آسیب بزنین،
05:01
and you should let the carماشین take its courseدوره
89
289960
2456
و باید بذارین که ماشین به مسیرش ادامه بده
05:04
even if that's going to harmصدمه more people.
90
292440
1960
حتی اگه به مردم بیشتری آسیب بزنه.
05:07
What do you think?
91
295640
1200
شما نظرتون چیه؟
05:09
Benthamبنتام or Kantکانت?
92
297360
1520
بنتهام درست میگه یا کانت؟
05:11
Here'sاینجاست what we foundپیدا شد.
93
299760
1256
ما به این نتیجه رسیدیم.
05:13
Mostاکثر people sidedدو طرفه with Benthamبنتام.
94
301040
1800
بیشتر مردم میگن بنتهام.
05:16
So it seemsبه نظر می رسد that people
want carsماشین ها to be utilitarianسودآور,
95
304160
3776
به نظر میرسه مردم میخوان که ماشین
سودمندگرا باشه،
05:19
minimizeبه حداقل رساندن totalجمع harmصدمه,
96
307960
1416
مجموع ضرر رو کمینه کنه،
05:21
and that's what we should all do.
97
309400
1576
و این کاریه که همه باید بکنیم.
05:23
Problemمسئله solvedحل شد.
98
311000
1200
مشکل حل شد.
05:25
But there is a little catchگرفتن.
99
313240
1480
ولی یک گیر کوچیک اینجا هست.
05:27
When we askedپرسید: people
whetherچه they would purchaseخرید suchچنین carsماشین ها,
100
315920
3736
وقتی ما از مردم پرسیدیم که
آیا شما اینجور ماشین‌ها رو میخرین،
05:31
they said, "Absolutelyکاملا not."
101
319680
1616
گفتن: "قطعا نه."
05:33
(Laughterخنده)
102
321320
2296
(خنده حاضرین)
05:35
They would like to buyخرید carsماشین ها
that protectمحافظت them at all costsهزینه ها,
103
323640
3896
مردم میخوان ماشین‌ها رو بخرن که
تحت هر شرایطی ازشون محافظت کنه،
05:39
but they want everybodyهمه elseچیز دیگری
to buyخرید carsماشین ها that minimizeبه حداقل رساندن harmصدمه.
104
327560
3616
ولی میخوان بقیه ماشینی رو بخرن که
ضرر رو کمینه کنه.
05:43
(Laughterخنده)
105
331200
2520
(خنده حاضرین)
05:46
We'veما هستیم seenمشاهده گردید this problemمسئله before.
106
334720
1856
ما این مشکل رو قبلاً هم دیده‌ایم.
05:48
It's calledبه نام a socialاجتماعی dilemmaدوراهی.
107
336600
1560
بهش میگن دوراهی اجتماعی.
و برای اینکه دوراهی اجتماعی رو درک کنین،
05:51
And to understandفهمیدن the socialاجتماعی dilemmaدوراهی,
108
339160
1816
05:53
we have to go a little bitبیت
back in historyتاریخ.
109
341000
2040
باید در تاریخ یه ذره به عقب برگردیم.
05:56
In the 1800s,
110
344000
2576
حدود سال ۱۸۰۰ میلادی،
05:58
Englishانگلیسی economistاقتصاددان Williamویلیام Forsterفورستر Lloydلویید
publishedمنتشر شده a pamphletجزوه
111
346600
3736
اقتصاددان انگلیسی ویلیام فورستر للوید
رساله‌ای رو منتشر کرد
06:02
whichکه describesتوصیف the followingذیل scenarioسناریو.
112
350360
2216
که این سناریو‌ها رو توش توضیح میداد.
06:04
You have a groupگروه of farmersکشاورزان --
113
352600
1656
فرض کنید گروهی از چوپان‌ها دارین --
06:06
Englishانگلیسی farmersکشاورزان --
114
354280
1336
چوپان‌های انگلیسی --
06:07
who are sharingبه اشتراک گذاری a commonمشترک landزمین
for theirخودشان sheepگوسفند to grazeچراندن.
115
355640
2680
که زمین مشترکی
برای چروندن گوسفنداشون دارن.
06:11
Now, if eachهر یک farmerمزرعه دار
bringsبه ارمغان می آورد a certainمسلم - قطعی numberعدد of sheepگوسفند --
116
359520
2576
حالا، اگه هر چوپان
تعداد مشخصی گوسفند‌ بیاره --
06:14
let's say threeسه sheepگوسفند --
117
362120
1496
مثلاً هرکی ۳ تا گوسفند --
06:15
the landزمین will be rejuvenatedجوانه زده,
118
363640
2096
زمین سالم میمونه و کاریش نمیشه،
06:17
the farmersکشاورزان are happyخوشحال,
119
365760
1216
چوپان‌ها خوشحالن،
06:19
the sheepگوسفند are happyخوشحال,
120
367000
1616
گوسفند‌ها خوشحالن،
06:20
everything is good.
121
368640
1200
همه چی خوبه.
06:22
Now, if one farmerمزرعه دار bringsبه ارمغان می آورد one extraاضافی sheepگوسفند,
122
370440
2520
حالا اگه یکی از چوپان‌ها
یه گوسفند اضافی بیاره،
06:25
that farmerمزرعه دار will do slightlyکمی better,
and no one elseچیز دیگری will be harmedآسیب دیده.
123
373800
4720
اون چوپان‌ یکم وضعش بهتر میشه،
و هیچکس ضرر نمیکنه.
06:31
But if everyهرکدام farmerمزرعه دار madeساخته شده
that individuallyبه طور جداگانه rationalگویا decisionتصمیم گیری,
124
379160
3640
ولی اگه همه چوپان‌ها این تصمیم فردی رو
که برای هرکدومشون منطقیه بگیرن،
06:35
the landزمین will be overrunسرازیر شدن,
and it will be depletedنابود شده
125
383840
2720
زمین بیش از اندازه بهش فشار میاد،
و خراب میشه.
06:39
to the detrimentزیان of all the farmersکشاورزان,
126
387360
2176
چوپان‌ها ضرر میکنن،
06:41
and of courseدوره,
to the detrimentزیان of the sheepگوسفند.
127
389560
2120
و البته گوسفند‌ها هم ضرر میکنن.
06:44
We see this problemمسئله in manyبسیاری placesمکان ها:
128
392720
3680
این مشکل رو خیلی جاها میبینیم:
06:49
in the difficultyمشکل of managingمدیریت overfishingبیش از حد ماهیگیری,
129
397080
3176
مشکل حل ماهیگیری بیش از اندازه،
06:52
or in reducingكم كردن carbonکربن emissionsانتشارات
to mitigateکاهش climateآب و هوا changeتغییر دادن.
130
400280
4560
یا کاهش انتشار کربن،
برای کند کردن روند تغییرات اقلیمی.
06:59
When it comesمی آید to the regulationمقررات
of driverlessبدون راننده carsماشین ها,
131
407160
2920
وقتی این مشکل به مقررات
ماشین‌های بدون راننده(خودران) میرسه،
07:03
the commonمشترک landزمین now
is basicallyاساسا publicعمومی safetyایمنی --
132
411080
4336
زمین مشترک برای چَرا
همون امنیت عمومی میشه --
07:07
that's the commonمشترک good --
133
415440
1240
که ارزش مشترک هست --
07:09
and the farmersکشاورزان are the passengersمسافران
134
417400
1976
و چوپان‌ها همون سرنشین‌ها میشن
07:11
or the carماشین ownersصاحبان who are choosingانتخاب کردن
to rideسوار شدن in those carsماشین ها.
135
419400
3600
یا صاحبان ماشین‌ها که دارن رانندگی میکنن.
07:16
And by makingساخت the individuallyبه طور جداگانه
rationalگویا choiceانتخابی
136
424960
2616
و تصمیم فردی عاقلانه
07:19
of prioritizingاولویت بندی theirخودشان ownخودت safetyایمنی,
137
427600
2816
که اولیت دادن به امنیت خود شخص هست،
07:22
they mayممکن است collectivelyمجموعا be
diminishingکاهش می یابد the commonمشترک good,
138
430440
3136
ممکنه به صورت جمعی در حال
تخریب مال مشترکشون(زمین چَرا) باشن،
07:25
whichکه is minimizingبه حداقل رساندن totalجمع harmصدمه.
139
433600
2200
که کمینه کردن کل ضرر هست.
07:30
It's calledبه نام the tragedyتراژدی of the commonsرایج,
140
438320
2136
بهش میگن تراژدی اشتراکها،
07:32
traditionallyبه طور سنتی,
141
440480
1296
به طور سنتی،
07:33
but I think in the caseمورد
of driverlessبدون راننده carsماشین ها,
142
441800
3096
ولی من فکر میکنم در مورد
ماشین‌های بدون راننده(خودران)،
07:36
the problemمسئله mayممکن است be
a little bitبیت more insidiousموذی
143
444920
2856
شاید مشکل یه ذره ظریف‌تر باشه
07:39
because there is not necessarilyلزوما
an individualفردی humanانسان beingبودن
144
447800
3496
چون حتماً اونی که تصمیم رو میگیره،
07:43
makingساخت those decisionsتصمیمات.
145
451320
1696
یک انسان نیست.
07:45
So carماشین manufacturersتولید کنندگان
mayممکن است simplyبه سادگی programبرنامه carsماشین ها
146
453040
3296
ممکنه سازندگان ماشین
خودرو‌ها رو طوری برنامه‌ریزی کنن،
07:48
that will maximizeبه حداکثر رساندن safetyایمنی
for theirخودشان clientsمشتریان,
147
456360
2520
که امنیت مشتریانشون رو بیشینه کنه،
07:52
and those carsماشین ها mayممکن است learnیاد گرفتن
automaticallyبطور خودکار on theirخودشان ownخودت
148
460080
2976
و اون ماشین‌ها شاید خودشون یاد بگیرن که
به صورت اتوماتیک
07:55
that doing so requiresنیاز دارد slightlyکمی
increasingافزایش می یابد riskخطر for pedestriansعابر پیاده.
149
463080
3520
انجام این کار خطراتی رو
برای عابرین پیاده داره.
07:59
So to use the sheepگوسفند metaphorاستعاره,
150
467520
1416
مثلاً توی مثال گوسفند‌ها،
08:00
it's like we now have electricالکتریکی sheepگوسفند
that have a mindذهن of theirخودشان ownخودت.
151
468960
3616
یک گوسفند الکتریکی داشته باشیم
که ذهن خودش رو داره.
08:04
(Laughterخنده)
152
472600
1456
(خنده حاضرین)
08:06
And they mayممکن است go and grazeچراندن
even if the farmerمزرعه دار doesn't know it.
153
474080
3080
و گوسفند‌ها شاید برن و بِچرند
در حالی که چوپان نمیدونه.
08:10
So this is what we mayممکن است call
the tragedyتراژدی of the algorithmicالگوریتمیک commonsرایج,
154
478640
3976
این چیزیه که اسمش رو میذاریم
تراژدی اشتراکات الگورتیمی،
08:14
and if offersارائه می دهد newجدید typesانواع of challengesچالش ها.
155
482640
2360
که چالش‌های جدیدی رو در خودش داره.
08:22
Typicallyمعمولا, traditionallyبه طور سنتی,
156
490520
1896
معمولاً و به طور سنتی،
08:24
we solveحل these typesانواع
of socialاجتماعی dilemmasمعضلات usingاستفاده كردن regulationمقررات,
157
492440
3336
ما این نوع دوراهی‌های اجتماعی رو
با استفاده از مقررات حل میکنیم،
08:27
so eitherیا governmentsدولت ها
or communitiesجوامع get togetherبا یکدیگر,
158
495800
2736
پس حکومت‌ها یا جوامع گِرد هم میان،
08:30
and they decideتصميم گرفتن collectivelyمجموعا
what kindنوع of outcomeنتیجه they want
159
498560
3736
و تصمیم میگیرن که چه نتیجه‌ای رو میخوان،
08:34
and what sortمرتب سازی of constraintsمحدودیت ها
on individualفردی behaviorرفتار
160
502320
2656
و چه محدودیت‌هایی روی
رفتارهای فردی
08:37
they need to implementپیاده سازی.
161
505000
1200
باید اعمال کنند.
08:39
And then usingاستفاده كردن monitoringنظارت بر and enforcementاجرای,
162
507600
2616
و بعدش با استفاده از نظارت و الزام،
08:42
they can make sure
that the publicعمومی good is preservedحفظ شده است.
163
510240
2559
میتونن مطمئن شن که منافع عمومی حفظ میشه.
08:45
So why don't we just,
164
513440
1575
پس چرا نیایم،
08:47
as regulatorsتنظیم کننده,
165
515039
1496
به عنوان قانون گذاران،
08:48
requireنیاز that all carsماشین ها minimizeبه حداقل رساندن harmصدمه?
166
516559
2897
بخوایم که همه ماشین‌ها ضرر رو کمینه کنن؟
08:51
After all, this is
what people say they want.
167
519480
2240
به هرحال، این چیزیه که همه
ادعا میکنن میخوانش.
08:55
And more importantlyمهم است,
168
523200
1416
و مهمتر از اون،
08:56
I can be sure that as an individualفردی,
169
524640
3096
مطمئناً منِ نوعی،
08:59
if I buyخرید a carماشین that mayممکن است
sacrificeقربانی me in a very rareنادر caseمورد,
170
527760
3856
اگه یه ماشین بخرم که ممکن باشه
من رو در یه حالت خیلی خاص قربانی کنه،
09:03
I'm not the only suckerمکنده doing that
171
531640
1656
من تنها احمقی نیستم که این کار رو میکنه
09:05
while everybodyهمه elseچیز دیگری
enjoysلذت می برد unconditionalبی قید و شرط protectionحفاظت.
172
533320
2680
در حالی که بقیه از
محافظت بی‌قید و شرط لذت میبرن.
در نظرسنجی ما، از مردم پرسیدیم که آیا
از قانون گذاری حمایت میکنن یا نه
09:09
In our surveyنظر سنجی, we did askپرسیدن people
whetherچه they would supportحمایت کردن regulationمقررات
173
537120
3336
09:12
and here'sاینجاست what we foundپیدا شد.
174
540480
1200
و به این نتایج رسیدیم.
09:14
First of all, people
said no to regulationمقررات;
175
542360
3760
اول از همه، مردم به قانون گذاری نه گفتند.
09:19
and secondدومین, they said,
176
547280
1256
و دوم، اونا گفتن
09:20
"Well if you regulateتنظیم کنید carsماشین ها to do this
and to minimizeبه حداقل رساندن totalجمع harmصدمه,
177
548560
3936
"خب اگه شما برای ماشین‌ها قانون بذارین
که این‌ کار رو بکنن و ضرر رو کمینه کنن،
09:24
I will not buyخرید those carsماشین ها."
178
552520
1480
من اون ماشین‌ها رو نمیخرم."
09:27
So ironicallyاز قضا,
179
555400
1376
پس به طرز مسخره‌ای،
09:28
by regulatingتنظیم carsماشین ها to minimizeبه حداقل رساندن harmصدمه,
180
556800
3496
با قانون‌گذاری برای ماشین‌ها
برای کمینه کردن ضرر،
09:32
we mayممکن است actuallyدر واقع endپایان up with more harmصدمه
181
560320
1840
ما بیشتر ضرر میکنیم!
09:35
because people mayممکن است not
optانتخاب کنید into the saferامن تر technologyتکنولوژی
182
563040
3656
چون مردم نمیخوان که
از تکنولوژی امن‌تر استفاده کنن
09:38
even if it's much saferامن تر
than humanانسان driversرانندگان.
183
566720
2080
حتی اگه خیلی خیلی امن‌تر از
رانندگان انسانی باشه.
09:42
I don't have the finalنهایی
answerپاسخ to this riddleمعما,
184
570360
3416
من جواب نهایی این معما رو نمیدونم،
09:45
but I think as a startingراه افتادن pointنقطه,
185
573800
1576
ولی فکر میکنم به عنوان یک نقطه شروع،
09:47
we need societyجامعه to come togetherبا یکدیگر
186
575400
3296
ما لازم داریم که همه جمع شیم،
09:50
to decideتصميم گرفتن what trade-offsجبران خسارت
we are comfortableراحت with
187
578720
2760
تا تصمیم بگیریم که چه بده-بستون‌هایی
رو باهاش کنار میایم
09:54
and to come up with waysراه ها
in whichکه we can enforceاعمال those trade-offsجبران خسارت.
188
582360
3480
و به راه‌هایی برسیم که
بتونیم اون بده-بستون‌ها رو اجرایی کنیم.
09:58
As a startingراه افتادن pointنقطه,
my brilliantدرخشان studentsدانش آموزان,
189
586520
2536
به عنوان یک نقطه شروع،
دانشجویان فوق‌العاده من،
10:01
Edmondادموند Awadآواد and Sohanسحان Dsouzaدسوزا,
190
589080
2456
ادموند اواد و سوهن دئسوزا.
10:03
builtساخته شده the Moralاخلاقی Machineدستگاه websiteسایت اینترنتی,
191
591560
1800
سایت ماشین با اخلاق رو ساختند،
10:06
whichکه generatesتولید می کند randomتصادفی scenariosسناریوها at you --
192
594200
2680
-- که سناریوهای تصادفی
برای شما تولید میکنه
10:10
basicallyاساسا a bunchدسته ای
of randomتصادفی dilemmasمعضلات in a sequenceتوالی
193
598080
2456
اساساً دنباله‌ای از تعدادی مساله تصادفی
10:12
where you have to chooseانتخاب کنید what
the carماشین should do in a givenداده شده scenarioسناریو.
194
600560
3920
که شما باید تصمیم بگیرین که ماشین
در سناریو گفته شده چه کار باید بکنه.
10:17
And we varyمتفاوت the agesسنین and even
the speciesگونه ها of the differentناهمسان victimsقربانیان.
195
605040
4600
و ما حتی سن و نوع قربانی‌ها رو عوض میکنیم.
10:23
So farدور we'veما هستیم collectedجمع آوری شده
over fiveپنج millionمیلیون decisionsتصمیمات
196
611040
3696
تا اینجا ما بیش از ۵ میلیون تصمیم
از این سایت برای این سناریو‌ها جمع کردیم
10:26
by over one millionمیلیون people worldwideدر سراسر جهان
197
614760
2200
توسط یک میلیون نفر در سرتاسر جهان
10:30
from the websiteسایت اینترنتی.
198
618400
1200
و این کمک میکنه که
یک تصویر ابتدایی داشته باشیم
10:32
And this is helpingکمک us
formفرم an earlyزود pictureعکس
199
620360
2416
10:34
of what trade-offsجبران خسارت
people are comfortableراحت with
200
622800
2616
از اینکه مردم
با چه بده-بستان‌هایی کنار میان
10:37
and what mattersمسائل to them --
201
625440
1896
و چه چیزهایی براشون مهمه --
10:39
even acrossدر سراسر culturesفرهنگ ها.
202
627360
1440
حتی در فرهنگ‌های مختلف.
10:42
But more importantlyمهم است,
203
630240
1496
ولی مهمتر از این،
10:43
doing this exerciseورزش
is helpingکمک people recognizeتشخیص
204
631760
3376
انجام این کار،
به مردم کمک میکنه که
10:47
the difficultyمشکل of makingساخت those choicesگزینه های
205
635160
2816
دشوار این تصمیم گرفتن‌ها رو بشناسن
10:50
and that the regulatorsتنظیم کننده
are taskedوظیفه with impossibleغیرممکن است choicesگزینه های.
206
638000
3800
و اینکه قانون‌گذاران
با تصمیم‌های غیرممکن روبرو هستند.
10:55
And maybe this will help us as a societyجامعه
understandفهمیدن the kindsانواع of trade-offsجبران خسارت
207
643360
3576
و شاید این به ما به عنوان یک جامعه کمک کنه
انواع بده-بستانها رو درک کنیم
10:58
that will be implementedپیاده سازی شده است
ultimatelyدر نهایت in regulationمقررات.
208
646960
3056
که بالاخره در مقررات به کار خواهد رفت.
11:02
And indeedدر واقع, I was very happyخوشحال to hearشنیدن
209
650040
1736
و در واقع، من خیلی خوشحالم که میشنوم
11:03
that the first setتنظیم of regulationsآئین نامه
210
651800
2016
اولین مجموعه قوانین و مقرارت
11:05
that cameآمد from
the Departmentگروه of Transportحمل و نقل --
211
653840
2136
توسط وزارت حمل و نقل --
11:08
announcedاعلام کرد last weekهفته --
212
656000
1376
هفته پیش اعلام شد --
11:09
includedمشمول a 15-point-نقطه checklistچک لیست
for all carmakersخودروسازان to provideفراهم کند,
213
657400
6576
شامل یک چک لیست ۱۵ امتیازی
برای تمام خودروسازان،
11:16
and numberعدد 14 was ethicalاخلاقی considerationتوجه --
214
664000
3256
و شماره ۱۴ یک ملاحظه اخلاقی بود --
11:19
how are you going to dealمعامله with that.
215
667280
1720
با آن چطوری کنار خواهید آمد.
همچنین ما افرادی رو داریم که
با دادن خلاصه‌‌ای از آنچه انتخاب کرده‌اند
11:23
We alsoهمچنین have people
reflectمنعکس کننده on theirخودشان ownخودت decisionsتصمیمات
216
671800
2656
11:26
by givingدادن them summariesخلاصه ها
of what they choseانتخاب کرد.
217
674480
3000
تصمیماتشون رو بازتاب میدن.
11:30
I'll give you one exampleمثال --
218
678440
1656
بهتون یک مثال نشون میدم --
11:32
I'm just going to warnهشدار بده you
that this is not your typicalمعمول exampleمثال,
219
680120
3536
فقط بهتون هشدار میدم که
این یک مثال عادی نیست،
11:35
your typicalمعمول userکاربر.
220
683680
1376
یا کاربر عادی.
11:37
This is the mostاکثر sacrificedفداکاری کرد and the mostاکثر
savedذخیره characterشخصیت for this personفرد.
221
685080
3616
این مثال بیشترین قربانی و بیشترین نجات
توسط این آدم رو نشون میده.
11:40
(Laughterخنده)
222
688720
5200
(خنده حاضرین)
بعضی از شما شاید
با نظر این مرد موافق باشین،
11:46
Some of you mayممکن است agreeموافق with him,
223
694680
1896
11:48
or her, we don't know.
224
696600
1640
یا شایدم نظر این زن، نمیدونم.
11:52
But this personفرد alsoهمچنین seemsبه نظر می رسد to slightlyکمی
preferترجیح می دهند passengersمسافران over pedestriansعابر پیاده
225
700480
6136
ولی به نظر میرسه این فرد
یکم سرنشین‌ها رو نسبت به عابرین پیاده
11:58
in theirخودشان choicesگزینه های
226
706640
2096
توی انتخاب‌هاش ترجیح میده
12:00
and is very happyخوشحال to punishتنبیه کردن jaywalkingجیوولینگ.
227
708760
2816
و از تنبیه کردن عابرین داخل
خیابون خوشحال میشه.
12:03
(Laughterخنده)
228
711600
3040
(خنده حاضرین)
12:09
So let's wrapبسته بندی کردن up.
229
717320
1216
حالا بیاین جمع بندی کنیم.
12:10
We startedآغاز شده with the questionسوال --
let's call it the ethicalاخلاقی dilemmaدوراهی --
230
718559
3416
ما با یک سوال که اسمش رو
دوراهی اخلاقی میذاریم، شروع کردیم --
12:14
of what the carماشین should do
in a specificخاص scenarioسناریو:
231
722000
3056
که ماشین توی سناریو خاص چه کار باید بکنه:
12:17
swerveسرگردان or stayاقامت کردن?
232
725080
1200
منحرف بشه یا ادامه بده؟
12:19
But then we realizedمتوجه شدم
that the problemمسئله was a differentناهمسان one.
233
727240
2736
ولی بعدش فهمیدیم که این مساله دیگه‌ای بود.
12:22
It was the problemمسئله of how to get
societyجامعه to agreeموافق on and enforceاعمال
234
730000
4536
مساله، هم‌نظر کردن جامعه
و اجرای بده-بستان‌هایی بود
12:26
the trade-offsجبران خسارت they're comfortableراحت with.
235
734560
1936
که جامعه باهاش کنار میاد.
12:28
It's a socialاجتماعی dilemmaدوراهی.
236
736520
1256
که یک معمای اجتماعی هست.
12:29
In the 1940s, Isaacاسحاق Asimovآسیموف
wroteنوشت his famousمشهور lawsقوانین of roboticsروباتیک --
237
737800
5016
در سال ۱۹۴۰، ایزاک آسیموف
قوانین مشهورش برای ربات‌ها را نوشت --
12:34
the threeسه lawsقوانین of roboticsروباتیک.
238
742840
1320
سه قانون برای ربات‌ها.
12:37
A robotربات mayممکن است not harmصدمه a humanانسان beingبودن,
239
745240
2456
ربات نباید به انسان آسیب بزنه،
12:39
a robotربات mayممکن است not disobeyنادیده گرفتن a humanانسان beingبودن,
240
747720
2536
ربات نباید از انسان سرپیچی کنه،
12:42
and a robotربات mayممکن است not allowاجازه دادن
itselfخودش to come to harmصدمه --
241
750280
3256
و ربات نباید به خودش اجازه بده
که آسیب بزنه --
12:45
in this orderسفارش of importanceاهمیت.
242
753560
1960
به ترتیب اهمیت از اول به سوم.
12:48
But after 40 yearsسالها or so
243
756360
2136
ولی بعد از گذشت حدود ۴۰ سال
12:50
and after so manyبسیاری storiesداستان ها
pushingهل دادن these lawsقوانین to the limitحد,
244
758520
3736
و بعد داستان‌های زیادی که
به این قوانین فشار آوردن،
12:54
Asimovآسیموف introducedمعرفی کرد the zerothزرد lawقانون
245
762280
3696
آسیموف قانون صفرم رو مطرح کرد
12:58
whichکه takes precedenceاولویت aboveدر بالا all,
246
766000
2256
که بر هر سه قانون قبلی تقدم داره،
13:00
and it's that a robotربات
mayممکن است not harmصدمه humanityبشریت as a wholeکل.
247
768280
3280
و اون این بود که ربات نباید به
کلیت انسان‌ها آسیب بزنه.
13:04
I don't know what this meansبه معنای
in the contextزمینه of driverlessبدون راننده carsماشین ها
248
772480
4376
من نمیدونم مصداق این قانون در زمینه
ماشین‌های خودران چی میشه
13:08
or any specificخاص situationوضعیت,
249
776880
2736
یا هر حالت خاصی،
13:11
and I don't know how we can implementپیاده سازی it,
250
779640
2216
و نمیدونم که ما چطوری میخوایم اجراش کنیم،
13:13
but I think that by recognizingشناختن
251
781880
1536
ولی فکر میکنم که با فهمیدنِ اینکه
13:15
that the regulationمقررات of driverlessبدون راننده carsماشین ها
is not only a technologicalتکنولوژیکی problemمسئله
252
783440
6136
مقررات ماشین‌های خودران تنها
یک مساله مرتبط با تکنولوژی نیست
13:21
but alsoهمچنین a societalاجتماعی cooperationهمکاری problemمسئله,
253
789600
3280
و یک مساله همکاری اجتماعی هم هست،
13:25
I hopeامید that we can at leastکمترین beginشروع
to askپرسیدن the right questionsسوالات.
254
793800
2880
میتونم امیدوار باشم که حداقل شروع به
پرسیدن سوالات درست کنیم.
13:29
Thank you.
255
797200
1216
سپاس گزارم.
13:30
(Applauseتشویق و تمجید)
256
798440
2920
(تشویق حاضرین)
Translated by Iman Mirzadeh
Reviewed by Leila Ataei

▲Back to top

ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com