ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com
TEDxCambridge

Iyad Rahwan: What moral decisions should driverless cars make?

إياد رهوان: ماهي القرارات الأخلاقية التي يجب على السيارات ذاتية القيادة أن تأخذها؟

Filmed:
1,147,381 views

هل يجب على السيارة ذاتية القيادة أن تقتلك إن كان عليها أن تنقذ حياة خمسة راجلين؟ في هذا الحديث عن المعضلات الاجتماعية للسيارات ذاتية القيادة، يستكشف إياد رهوان كيف ستواجه التكنولوجيا أخلاقياتنا ويشرح عمله في جمع البيانات من أشخاص حقيقيين عن أخلاقيات المقايضات التي نريد (أو لا نريد) العمل بها.
- Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
Todayاليوم I'm going to talk
about technologyتقنية and societyالمجتمع.
0
1000
4080
سأتحدث اليوم عن التكنولوجيا والمجتمع.
00:19
The Department قسم، أقسام of Transportالمواصلات
estimatedمقدر that last yearعام
1
7040
3696
قدّرت هيئة المواصلات أنه في السنة الماضية
00:22
35,000 people diedمات
from trafficحركة المرور crashesحوادث in the US aloneوحده.
2
10760
4080
توفي 35000 شخص إثر حوادث سير
في الولايات المتحدة وحدها.
00:28
Worldwideفي جميع أنحاء العالم, 1.2 millionمليون people
dieموت everyكل yearعام in trafficحركة المرور accidentsالحوادث.
3
16040
4800
على مستوى العالم، يموت 1.2 مليون شخص
سنويًا إثر حوادث سير.
00:33
If there was a way we could eliminateالقضاء
90 percentنسبه مئويه of those accidentsالحوادث,
4
21760
4096
إن كانت هناك طريقة تستطيع تجنب 90 في المئة
من هذه الحوادث،
00:37
would you supportالدعم it?
5
25880
1200
هل كنت لتدعمها؟
00:39
Of courseدورة you would.
6
27720
1296
بالطبع ستفعل.
00:41
This is what driverlessسائق carسيارة technologyتقنية
promisesوعود to achieveالتوصل
7
29040
3655
هذا ما تطمح السيارات ذاتية القيادة
للوصول إليه
00:44
by eliminatingالقضاء the mainالأساسية
sourceمصدر of accidentsالحوادث --
8
32720
2816
عن طريق حذف السبب الرئيس للحوادث --
00:47
humanبشري errorخطأ.
9
35560
1200
وهو الخطأ البشري.
00:49
Now pictureصورة yourselfنفسك
in a driverlessسائق carسيارة in the yearعام 2030,
10
37920
5416
تخيل نفسك الآن في سيارة ذاتية القيادة
سنة 2030،
00:55
sittingجلسة back and watchingمشاهدة
this vintageعتيق TEDxCambridgeTEDxCambridge videoفيديو.
11
43360
3456
وأنت تجلس في الخلف
وتشاهد هذا الشريط القديم ل TEDxCambridge.
00:58
(Laughterضحك)
12
46840
2000
(ضحك)
01:01
All of a suddenمفاجئ,
13
49520
1216
وفجأة،
01:02
the carسيارة experiencesخبرة mechanicalميكانيكي failureبالفشل
and is unableغير قادر to stop.
14
50760
3280
تتعرض السيارة لخلل ميكانيكي
ولا تستطيع التوقف.
01:07
If the carسيارة continuesتواصل,
15
55360
1520
إن استمرت السيارة في التقدم،
01:09
it will crashيصطدم _ تصادم into a bunchباقة
of pedestriansالمشاة crossingالعبور the streetشارع,
16
57720
4120
ستصطدم بمجموعة من الراجلين
وهم يقطعون الطريق،
01:15
but the carسيارة mayقد swerveانحرف,
17
63080
2135
لكن السيارة تنحرف،
01:17
hittingضرب one bystanderالمارة,
18
65239
1857
لتصطدم بشخص واقف،
01:19
killingقتل them to saveحفظ the pedestriansالمشاة.
19
67120
2080
لتقتله وتنقذ الراجلين.
01:22
What should the carسيارة do,
and who should decideقرر?
20
70040
2600
ما الذي يجب على السيارة فعله،
ومن عليه أن يقرر؟
01:25
What if insteadفي حين أن the carسيارة
could swerveانحرف into a wallحائط,
21
73520
3536
ماذا لو انحرفت السيارة في اتجاه الحائط
01:29
crashingتحطمها and killingقتل you, the passengerراكب,
22
77080
3296
لتسحقك وتقتلك، أنت الراكب فيها،
01:32
in orderطلب to saveحفظ those pedestriansالمشاة?
23
80400
2320
لتنقذ هؤلاء الراجلين؟
01:35
This scenarioسيناريو is inspiredربما
by the trolleyعربة problemمشكلة,
24
83240
3080
تم استلهام هذا السيناريو
من مشكلة الترولي،
01:38
whichالتي was inventedاخترع
by philosophersالفلاسفة a fewقليل decadesعقود agoمنذ
25
86960
3776
والتي تم اختراعها من طرف فلاسفة
قبل عقود قليلة
01:42
to think about ethicsأخلاق.
26
90760
1240
للتفكير حول الأخلاقيات.
01:46
Now, the way we think
about this problemمشكلة mattersالقضايا.
27
94120
2496
الآن، الطريقة التي نفكر بها
في هذا المشكل مهمة.
01:48
We mayقد for exampleمثال
not think about it at all.
28
96640
2616
يمكننا مثلًا ألا نفكر فيه إطلاقًا.
01:51
We mayقد say this scenarioسيناريو is unrealisticغير واقعية,
29
99280
3376
يمكننا أن نقول أن هذا السيناريو غير واقعي،
01:54
incrediblyلا يصدق unlikelyمن غير المرجح, or just sillyسخيف.
30
102680
2320
غير ممكن بتاتًا، أو أنه تافه.
01:57
But I think this criticismنقد
missesيخطئ the pointنقطة
31
105760
2736
لكن أعتقد أن هذا الانتقاد يغفل المغزى
02:00
because it takes
the scenarioسيناريو too literallyحرفيا.
32
108520
2160
لأنه ينظر إلى السيناريو بطريقة بسيطة.
02:03
Of courseدورة no accidentحادث
is going to look like this;
33
111920
2736
بالطبع، لايمكن لحادثة أن تكون هكذا،
02:06
no accidentحادث has two or threeثلاثة optionsخيارات
34
114680
3336
ليس هناك احتمالان أو ثلاثة لحادثة
02:10
where everybodyالجميع diesيموت somehowبطريقة ما.
35
118040
2000
حيث يموت الجميع بطريقة أو بأخرى.
02:13
Insteadفي حين أن, the carسيارة is going
to calculateحساب something
36
121480
2576
عوضا عن ذلك، ستقوم السيارة بحساب ما
02:16
like the probabilityاحتمالا of hittingضرب
a certainالمؤكد groupمجموعة of people,
37
124080
4896
مثل احتمال الاصطدام
بمجموعة معينة من الناس،
02:21
if you swerveانحرف one directionاتجاه
versusمقابل anotherآخر directionاتجاه,
38
129000
3336
حين تنحرف إلى اتجاه دون آخر،
02:24
you mightربما slightlyبعض الشيء increaseزيادة the riskخطر
to passengersركاب or other driversالسائقين
39
132360
3456
يمكن أن ترفع الخطر بشكل ضئيل
على الركاب أو السائقين الآخرين
02:27
versusمقابل pedestriansالمشاة.
40
135840
1536
في مقابل الراجلين.
02:29
It's going to be
a more complexمركب calculationعملية حسابية,
41
137400
2160
ستكون عبارة عن حسابات معقدة،
02:32
but it's still going
to involveتنطوي trade-offsالمقايضات,
42
140480
2520
لكنها ستشمل دائمًا نوعا من المقايضة،
02:35
and trade-offsالمقايضات oftenغالبا requireتطلب ethicsأخلاق.
43
143840
2880
وغالبا مما تتطلب المقايضة حضور الأخلاقيات.
02:39
We mightربما say then,
"Well, let's not worryقلق about this.
44
147840
2736
يمكننا أن نقول حينها، "حسنا،
لمَ لا نترك القلق جانيًا.
02:42
Let's wait untilحتى technologyتقنية
is fullyتماما readyجاهز and 100 percentنسبه مئويه safeآمنة."
45
150600
4640
فلننتظر حتى تصير التكنولوجيا جاهزة
وآمنة 100 بالمئة."
02:48
Supposeافترض that we can indeedفي الواقع
eliminateالقضاء 90 percentنسبه مئويه of those accidentsالحوادث,
46
156520
3680
لنفترض أننا فعلا نستطيع حذف 90 في المئة
من هذه الحوادث،
02:53
or even 99 percentنسبه مئويه in the nextالتالى 10 yearsسنوات.
47
161080
2840
أو حتى 99 في المئة منها
خلال 10 سنوات المقبلة.
02:56
What if eliminatingالقضاء
the last one percentنسبه مئويه of accidentsالحوادث
48
164920
3176
ماذا لو كان يتطلب حذف العشر في المئة
المتبقية من الحوادث
03:00
requiresيتطلب 50 more yearsسنوات of researchابحاث?
49
168120
3120
50 سنة أخرى من البحث؟
03:04
Should we not adoptتبنى the technologyتقنية?
50
172400
1800
أليس علينا أن نتبنى التكنولوجيا؟
03:06
That's 60 millionمليون people
deadميت in carسيارة accidentsالحوادث
51
174720
4776
سيكون لدينا 60 مليون حالة وفاة
من حوادث السير
03:11
if we maintainالحفاظ the currentتيار rateمعدل.
52
179520
1760
إذا حافظنا على المعدل الحالي.
03:14
So the pointنقطة is,
53
182760
1216
فالفكرة هنا،
03:16
waitingانتظار for fullممتلئ safetyسلامة is alsoأيضا a choiceخيار,
54
184000
3616
التريث حتى نصل
للسلامة الكاملة هو اختيار أيضا،
03:19
and it alsoأيضا involvesيتضمن trade-offsالمقايضات.
55
187640
2160
ويشمل مقايضات أيضا.
03:23
People onlineعبر الانترنت on socialاجتماعي mediaوسائل الإعلام
have been comingآت up with all sortsأنواع of waysطرق
56
191560
4336
قام الناس على مواقع التواصل الاجتماعية
باختلاق كل الطرق الممكنة
03:27
to not think about this problemمشكلة.
57
195920
2016
لعدم التفكير في هذا المشكل.
03:29
One personشخص suggestedاقترحت
the carسيارة should just swerveانحرف somehowبطريقة ما
58
197960
3216
اقترح شخص أن على السيارة
أن تنحرف في اتجاه ما فحسب
03:33
in betweenما بين the passengersركاب --
59
201200
2136
بين الركاب --
03:35
(Laughterضحك)
60
203360
1016
(ضحك)
03:36
and the bystanderالمارة.
61
204400
1256
والشخص الواقف.
03:37
Of courseدورة if that's what the carسيارة can do,
that's what the carسيارة should do.
62
205680
3360
بالطبع، إن كانت السيارة تستطبع فعل ذلك،
فعليها فعل ذلك.
03:41
We're interestedيستفد in scenariosسيناريوهات
in whichالتي this is not possibleممكن.
63
209920
2840
نحن مهتمون بإيجاد سيناريوهات
حيث لا يكون هذا ممكنا.
03:45
And my personalالشخصية favoriteالمفضل
was a suggestionاقتراح by a bloggerالمدون
64
213280
5416
والاقتراح المفضل لدي شخصيا كان من مدون
03:50
to have an ejectطرد buttonزر in the carسيارة
that you pressصحافة --
65
218720
3016
بأن تضع زر إخراج في السيارة،
حيث يمكنك الضغط عليه --
03:53
(Laughterضحك)
66
221760
1216
(ضحك)
03:55
just before the carسيارة self-destructsيدمر الذات.
67
223000
1667
قبل أن تدمر السيارة نفسها.
03:56
(Laughterضحك)
68
224691
1680
(ضحك)
03:59
So if we acknowledgeاعترف that carsالسيارات
will have to make trade-offsالمقايضات on the roadطريق,
69
227840
5200
إذن حين نعترف أنه من الممكن للسيارات
أن تقوم بمقايضات على الطريق،
04:06
how do we think about those trade-offsالمقايضات,
70
234200
1880
كيف يمكننا التفكير حيال هذه المقايضات،
04:09
and how do we decideقرر?
71
237320
1576
وكيف لنا أن نقرر؟
04:10
Well, maybe we should runيركض a surveyالدراسة الاستقصائية
to find out what societyالمجتمع wants,
72
238920
3136
حسنا، ربما علينا إجراء استقصاء
لنعرف ما الذي يريده المجتمع،
04:14
because ultimatelyفي النهاية,
73
242080
1456
لأنه في النهاية،
04:15
regulationsقوانين and the lawالقانون
are a reflectionانعكاس of societalالمجتمعية valuesالقيم.
74
243560
3960
القوانين هي انعكاس للقيم المجتمعية.
04:20
So this is what we did.
75
248040
1240
إذن فهذا ما قمنا به.
04:21
With my collaboratorsالمتعاونين,
76
249880
1616
مع زملائي،
04:23
Jean-Franجان فرانسواçoisمنظمة المؤتمر الاسلامي BonnefonBonnefon and Azimالعظيم Shariffشريف,
77
251520
2336
جون فرونسوا بونفون وأزيم شريف،
04:25
we ranجرى a surveyالدراسة الاستقصائية
78
253880
1616
أجرينا استقصاءً
04:27
in whichالتي we presentedقدم people
with these typesأنواع of scenariosسيناريوهات.
79
255520
2855
حيث قدمنا للناس هذه الأنواع
من السيناريوهات.
04:30
We gaveأعطى them two optionsخيارات
inspiredربما by two philosophersالفلاسفة:
80
258399
3777
قدمنا لهم احتمالين مستلهمين
من فيلسوفين:
04:34
Jeremyجيرمي Benthamبنثام and Immanuelعمانوئيل Kantكانط.
81
262200
2640
جيرمي بينتام وإيمانويل كانت.
04:37
Benthamبنثام saysيقول the carسيارة
should followإتبع utilitarianالمنفعي ethicsأخلاق:
82
265600
3096
يقول بينتام أن على السيارة
أن تتبع الأخلاقيات النفعية:
04:40
it should take the actionعمل
that will minimizeخفض totalمجموع harmضرر --
83
268720
3416
عليها أن تخطو الخطوة
التي ستقلل مجموع الضرر --
04:44
even if that actionعمل will killقتل a bystanderالمارة
84
272160
2816
حتى وإن كانت ستقتل الرجل الواقف
04:47
and even if that actionعمل
will killقتل the passengerراكب.
85
275000
2440
حتى وإن كانت هذه الخطوة ستقتل الراكب.
04:50
Immanuelعمانوئيل Kantكانط saysيقول the carسيارة
should followإتبع duty-boundواجب ملزم principlesمبادئ,
86
278120
4976
يقول إيمانويل كارت أن على السيارة
أن تتبع مبادئ الواجب الملزم،
04:55
like "Thouأنت shaltترجمه not killقتل."
87
283120
1560
"عليك ألا تقتل."
04:57
So you should not take an actionعمل
that explicitlyصراحة harmsالأضرار a humanبشري beingيجرى,
88
285480
4456
إذن فعليك ألا تتخذ خطوة ستضر بها
عنوة شخصا ما،
05:01
and you should let the carسيارة take its courseدورة
89
289960
2456
وعليك أن تترك السيارة تأخذ مسارها
05:04
even if that's going to harmضرر more people.
90
292440
1960
حتى وإن كانت ستلحق الضرر بأشخاص أكثر.
05:07
What do you think?
91
295640
1200
ماذا تعتقدون؟
05:09
Benthamبنثام or Kantكانط?
92
297360
1520
بيتم أو كانت؟
05:11
Here'sمن هنا what we foundوجدت.
93
299760
1256
إليكم ماوجدنا.
05:13
Mostعظم people sidedالوجهين with Benthamبنثام.
94
301040
1800
معظم الناس وقفوا إلى جانب بينتام.
05:16
So it seemsيبدو that people
want carsالسيارات to be utilitarianالمنفعي,
95
304160
3776
لذا يبدو أن الناس يريدون
أن تكون السيارات نفعية،
05:19
minimizeخفض totalمجموع harmضرر,
96
307960
1416
وتقلل مجموع الضرر،
05:21
and that's what we should all do.
97
309400
1576
وهذا ماعلينا أن نقوم به جميعا.
05:23
Problemمشكلة solvedتم حلها.
98
311000
1200
تم حل المشكلة.
05:25
But there is a little catchقبض على.
99
313240
1480
لكن هناك نقطة صغيرة.
05:27
When we askedطلبت people
whetherسواء they would purchaseشراء suchهذه carsالسيارات,
100
315920
3736
حين سألنا الناس إن كانوا سيشترون
مثل هذه السيارات،
05:31
they said, "Absolutelyإطلاقا not."
101
319680
1616
قالوا "بالطبع لا."
05:33
(Laughterضحك)
102
321320
2296
(ضحك)
05:35
They would like to buyيشترى carsالسيارات
that protectيحمي them at all costsالتكاليف,
103
323640
3896
هم يريدون أن يشتروا سيارات تحميهم بأي ثمن،
05:39
but they want everybodyالجميع elseآخر
to buyيشترى carsالسيارات that minimizeخفض harmضرر.
104
327560
3616
لكنهم يريدون أن يشتري الآخرون سيارات
تقلل من الضرر.
05:43
(Laughterضحك)
105
331200
2520
(ضحك)
05:46
We'veقمنا seenرأيت this problemمشكلة before.
106
334720
1856
لقد رأينا هذا المشكل من قبل.
05:48
It's calledمسمي a socialاجتماعي dilemmaمعضلة.
107
336600
1560
وهو يدعى المعضلة الاجتماعية.
05:51
And to understandتفهم the socialاجتماعي dilemmaمعضلة,
108
339160
1816
ولفهم المعضلة الاجتماعية
05:53
we have to go a little bitقليلا
back in historyالتاريخ.
109
341000
2040
علينا أن نعود قليلا إلى التاريخ.
05:56
In the 1800s,
110
344000
2576
في القرن 19،
05:58
Englishالإنجليزية economistعالم الاقتصاد Williamوليام Forsterفورستر Lloydلويد
publishedنشرت a pamphletكتيب
111
346600
3736
نشر خبير الاقتصاد البريطاني
ويليام فورستر لويد كتيبا
06:02
whichالتي describesيصف the followingالتالية scenarioسيناريو.
112
350360
2216
يصف فيه السيناريو الآتي.
06:04
You have a groupمجموعة of farmersالمزارعين --
113
352600
1656
لديك مجموعة من المزارعين --
06:06
Englishالإنجليزية farmersالمزارعين --
114
354280
1336
مزارعون بريطانيون --
06:07
who are sharingمشاركة a commonمشترك landأرض
for theirهم sheepخروف to grazeخدش.
115
355640
2680
يتقاسمون أرضا مشتركة لترعى بها أغنامهم.
06:11
Now, if eachكل farmerمزارع
bringsتجمع a certainالمؤكد numberرقم of sheepخروف --
116
359520
2576
الآن، إذا قام كل مزارع بجلب
عدد معين من الأغنام --
06:14
let's say threeثلاثة sheepخروف --
117
362120
1496
لنقل ثلاثة أغنام --
06:15
the landأرض will be rejuvenatedتجدد شبابها,
118
363640
2096
ستزدهر الأرض،
06:17
the farmersالمزارعين are happyالسعيدة,
119
365760
1216
وسيفرح المزارعون،
06:19
the sheepخروف are happyالسعيدة,
120
367000
1616
وستفرح الأغنام،
06:20
everything is good.
121
368640
1200
كل شيء على ما يرام.
06:22
Now, if one farmerمزارع bringsتجمع one extraإضافي sheepخروف,
122
370440
2520
الآن، إذا قام مزارع بجلب خروف إضافي،
06:25
that farmerمزارع will do slightlyبعض الشيء better,
and no one elseآخر will be harmedأذى.
123
373800
4720
سيكون ذلك المزارع ناجحا بقدر يسير،
ولن يتضرر أحد من هذا.
06:31
But if everyكل farmerمزارع madeمصنوع
that individuallyبشكل فردي rationalمعقول decisionقرار,
124
379160
3640
لكن إن أخذ كل مزارع
هذا القرار الفردي المنطقي،
06:35
the landأرض will be overrunتجاوز,
and it will be depletedالمنضب
125
383840
2720
سيتم استغلال الأرض بشكل جائر
وستُستنزف
06:39
to the detrimentضرر of all the farmersالمزارعين,
126
387360
2176
ولن يستفيد المزارعون جميعهم.
06:41
and of courseدورة,
to the detrimentضرر of the sheepخروف.
127
389560
2120
وبالتأكيد، لن تستفيد الأغنام.
06:44
We see this problemمشكلة in manyكثير placesأماكن:
128
392720
3680
نرى هذا المشكل في كل مكان:
06:49
in the difficultyصعوبة of managingإدارة overfishingالصيد الجائر,
129
397080
3176
في صعوبة إدلرة الصيد الجائر،
06:52
or in reducingتقليص carbonكربون emissionsانبعاثات
to mitigateتخفيف climateمناخ changeيتغيرون.
130
400280
4560
أو تقليل انبعاث الكربون
للتعامل مع التغير المناخي.
06:59
When it comesيأتي to the regulationاللائحة
of driverlessسائق carsالسيارات,
131
407160
2920
حين يتعلق الأمر بتقنين
السيارات ذاتية القيادة،
07:03
the commonمشترك landأرض now
is basicallyفي الأساس publicعامة safetyسلامة --
132
411080
4336
فالأرض المشتركة الآن هي بالأساس
السلامة العامة --
07:07
that's the commonمشترك good --
133
415440
1240
هذا هو الشيء المشترك --
07:09
and the farmersالمزارعين are the passengersركاب
134
417400
1976
والمزارعون هم الركاب
07:11
or the carسيارة ownersأصحاب who are choosingاختيار
to rideاركب in those carsالسيارات.
135
419400
3600
أو أصحاب السيارات الذيم يختارون
أن يتجولوا بهذه السيارات.
07:16
And by makingصناعة the individuallyبشكل فردي
rationalمعقول choiceخيار
136
424960
2616
وباتخاذ اختيار منطقي فردي
07:19
of prioritizingترتيب الاولويات theirهم ownخاصة safetyسلامة,
137
427600
2816
أو إعطاء الأولوية للسلامة الشخصية،
07:22
they mayقد collectivelyجماعي be
diminishingتناقص the commonمشترك good,
138
430440
3136
فقد يكونون بصدد إلحاق الضرر
بالشيء المشترك،
07:25
whichالتي is minimizingالتقليل totalمجموع harmضرر.
139
433600
2200
والذي هو تقليل مجموع الضرر.
07:30
It's calledمسمي the tragedyمأساة of the commonsالمشاعات,
140
438320
2136
وهذا مايسمى بتراجيديا المشاع،
07:32
traditionallyتقليديا,
141
440480
1296
بشكل تقليدي،
07:33
but I think in the caseقضية
of driverlessسائق carsالسيارات,
142
441800
3096
لكنني أعتقد أنه في حالة السيارات
ذاتية القيادة،
07:36
the problemمشكلة mayقد be
a little bitقليلا more insidiousأخبث
143
444920
2856
فإن المشكلة قد تكون أكثر تعقيدًا
07:39
because there is not necessarilyبالضرورة
an individualفرد humanبشري beingيجرى
144
447800
3496
لأنه ليس هناك بالضرورة شخص واحد
07:43
makingصناعة those decisionsقرارات.
145
451320
1696
يقوم بهذه القرارات.
07:45
So carسيارة manufacturersالمصنعين
mayقد simplyببساطة programبرنامج carsالسيارات
146
453040
3296
إذ يمكن لمصنعي السيارات ببساطة
أن يبرمجوا سيارات
07:48
that will maximizeتحقيق أقصى قدر safetyسلامة
for theirهم clientsعملاء,
147
456360
2520
تعطي حماية قصوى لعملائهم،
07:52
and those carsالسيارات mayقد learnتعلم
automaticallyتلقائيا on theirهم ownخاصة
148
460080
2976
ويمكن لهذه السيارات
أن تتعلم تلقائيا بمفردها
07:55
that doing so requiresيتطلب slightlyبعض الشيء
increasingفي ازدياد riskخطر for pedestriansالمشاة.
149
463080
3520
أن القيام بذلك يتطلب
زيادة الخطر بالنسبة للراجلين.
07:59
So to use the sheepخروف metaphorتشابه مستعار,
150
467520
1416
وباستخدام مثال الأغنام،
08:00
it's like we now have electricكهربائي sheepخروف
that have a mindعقل of theirهم ownخاصة.
151
468960
3616
فهذا أشبه بخروف كهربائي
له عقله الخاص.
08:04
(Laughterضحك)
152
472600
1456
(ضحك)
08:06
And they mayقد go and grazeخدش
even if the farmerمزارع doesn't know it.
153
474080
3080
ويمكنه أن يذهب ويرعى دون أن يدري المزارع.
08:10
So this is what we mayقد call
the tragedyمأساة of the algorithmicالخوارزمية commonsالمشاعات,
154
478640
3976
وهذا مايمكننا أن نسميه
تراجيديا المشاع الخوارزمية،
08:14
and if offersعروض newالجديد typesأنواع of challengesالتحديات.
155
482640
2360
وهي تقدم أنواعا جديدة من التحديات.
08:22
Typicallyعادة, traditionallyتقليديا,
156
490520
1896
عادة، وبشكل تقليدي،
08:24
we solveحل these typesأنواع
of socialاجتماعي dilemmasمعضلات usingاستخدام regulationاللائحة,
157
492440
3336
نحل هذا النوع من المعضلات الاجتماعية
عن طريق القوانين،
08:27
so eitherإما governmentsالحكومات
or communitiesمجتمعات get togetherسويا,
158
495800
2736
حيث تجتمع الحكومات أو المجتمعات
08:30
and they decideقرر collectivelyجماعي
what kindطيب القلب of outcomeنتيجة they want
159
498560
3736
ليقرروا جماعيا ما نوع النتائج
التي يريدونها
08:34
and what sortفرز of constraintsالقيود
on individualفرد behaviorسلوك
160
502320
2656
وما نوع العوائق على مستوى السلوك الفردي
08:37
they need to implementتنفيذ.
161
505000
1200
التي يجب عليهم تنفيذها.
08:39
And then usingاستخدام monitoringمراقبة and enforcementتطبيق,
162
507600
2616
وبعد ذلك، باستخدام المراقبة والفرض،
08:42
they can make sure
that the publicعامة good is preservedمحفوظ.
163
510240
2559
يمكنهم ضمان الحفاظ على الصالح العام.
08:45
So why don't we just,
164
513440
1575
لذا، لم لا نقوم،
08:47
as regulatorsالمنظمين,
165
515039
1496
كواضعي قوانين،
08:48
requireتطلب that all carsالسيارات minimizeخفض harmضرر?
166
516559
2897
بإجبار السيارات على تقليل الضرر؟
08:51
After all, this is
what people say they want.
167
519480
2240
في جميع الأحوال، هذا ما يريده الناس.
08:55
And more importantlyالأهم,
168
523200
1416
والأهم من هذا،
08:56
I can be sure that as an individualفرد,
169
524640
3096
يمكنني أن أكون متأكدا كفرد،
08:59
if I buyيشترى a carسيارة that mayقد
sacrificeتضحية me in a very rareنادر caseقضية,
170
527760
3856
إن اشتريت سيارة يمكنها أن تضحي بي
في حالة نادرة جدا،
09:03
I'm not the only suckerإبله doing that
171
531640
1656
فلن أكون الأبله الوحيد
الذي يقوم بهذا
09:05
while everybodyالجميع elseآخر
enjoysتتمتع unconditionalغير مشروط protectionحماية.
172
533320
2680
بينما يتمتع الجميع بحماية لامحدودة.
09:09
In our surveyالدراسة الاستقصائية, we did askيطلب people
whetherسواء they would supportالدعم regulationاللائحة
173
537120
3336
في استقصائنا، سألنا الناس فيما إن كانوا
سيدعمون القوانين
09:12
and here'sمن هنا what we foundوجدت.
174
540480
1200
وإليكم ماوجدنا.
09:14
First of all, people
said no to regulationاللائحة;
175
542360
3760
أولا، رفض الناس القوانين،
09:19
and secondثانيا, they said,
176
547280
1256
ثانيا، قالوا،
09:20
"Well if you regulateضبط carsالسيارات to do this
and to minimizeخفض totalمجموع harmضرر,
177
548560
3936
"حسنا، إن قننتم السيارات لتقوم بهذا
وتقلل مجموع الضرر،
09:24
I will not buyيشترى those carsالسيارات."
178
552520
1480
فلن أشتري هذه السيارة."
09:27
So ironicallyبسخرية,
179
555400
1376
لذا، من المضحك،
09:28
by regulatingتنظيم carsالسيارات to minimizeخفض harmضرر,
180
556800
3496
أنه بتقنين السيارات لتقليل الضرر،
09:32
we mayقد actuallyفعلا endالنهاية up with more harmضرر
181
560320
1840
ربما سينتهي بنا المطاف
بالمزيد من الضرر
09:35
because people mayقد not
optيختار، يقرر into the saferأكثر أمانا technologyتقنية
182
563040
3656
لأن الناس لن يختاروا التكنولوجيا
الأكثر أمنا
09:38
even if it's much saferأكثر أمانا
than humanبشري driversالسائقين.
183
566720
2080
حتى وإن كانت أكثر أمنا
من الأشخاص السائقين.
09:42
I don't have the finalنهائي
answerإجابة to this riddleلغز,
184
570360
3416
ليست لدي إجابة نهائية لهذا اللغز،
09:45
but I think as a startingابتداء pointنقطة,
185
573800
1576
لكنني أعتقد كبداية،
09:47
we need societyالمجتمع to come togetherسويا
186
575400
3296
نريد أن يجتمع المجتمع
09:50
to decideقرر what trade-offsالمقايضات
we are comfortableمريح with
187
578720
2760
لنقرر ما هي المقايضات التي نرتاح لها
09:54
and to come up with waysطرق
in whichالتي we can enforceفرض those trade-offsالمقايضات.
188
582360
3480
ونجد طرقا يمكننا بها فرض هذه المقايضات.
09:58
As a startingابتداء pointنقطة,
my brilliantمتألق studentsالطلاب,
189
586520
2536
وكنقطة بداية، بنى طلابي الأذكياء،
10:01
Edmondادمون Awadعوض and Sohanسوهان Dsouzaديسوزا,
190
589080
2456
إدموند عواد و سوهان دسوزا،
10:03
builtمبني the Moralأخلاقي Machineآلة websiteموقع الكتروني,
191
591560
1800
موقع Moral Machine،
10:06
whichالتي generatesيولد randomعشوائي scenariosسيناريوهات at you --
192
594200
2680
الذي يخرج سيناريوهات عشوائية لكم --
10:10
basicallyفي الأساس a bunchباقة
of randomعشوائي dilemmasمعضلات in a sequenceتسلسل
193
598080
2456
مجموعة من المعضلات العشوائية بتسلسل
10:12
where you have to chooseأختر what
the carسيارة should do in a givenمعطى scenarioسيناريو.
194
600560
3920
حيث يمكنك أن تختار ما الذي يجب
أن تقوم به السيارة في سيناريو معين.
10:17
And we varyتختلف the agesالأعمار and even
the speciesمحيط of the differentمختلف victimsضحايا.
195
605040
4600
ونقوم بتغيير الأعمار
وأنواع الضحايا المختلفة.
10:23
So farبعيدا we'veقمنا collectedجمع
over fiveخمسة millionمليون decisionsقرارات
196
611040
3696
ولحد الآن فقد جمعنا 5 ملايين قرار
10:26
by over one millionمليون people worldwideفي جميع أنحاء العالم
197
614760
2200
من ما يفوق مليون شخص حول العالم
10:30
from the websiteموقع الكتروني.
198
618400
1200
من الموقع.
10:32
And this is helpingمساعدة us
formشكل an earlyمبكرا pictureصورة
199
620360
2416
وهذا يساعدنا على تكوين صورة مبكرة
10:34
of what trade-offsالمقايضات
people are comfortableمريح with
200
622800
2616
عن ماهية المقايضات التي يرتاح لها الناس
10:37
and what mattersالقضايا to them --
201
625440
1896
وما هي الأشياء المهمة بالنسبة لهم --
10:39
even acrossعبر culturesالثقافات.
202
627360
1440
حتى وإن اختلفت الثقافات.
10:42
But more importantlyالأهم,
203
630240
1496
لكن الأمر الأهم،
10:43
doing this exerciseممارسه الرياضه
is helpingمساعدة people recognizeتعرف
204
631760
3376
يساعد هذا التمرين الناس على التعرف
10:47
the difficultyصعوبة of makingصناعة those choicesاختيارات
205
635160
2816
على صعوبة اتخاذ هذه الاختيارات
10:50
and that the regulatorsالمنظمين
are taskedكلف with impossibleغير ممكن choicesاختيارات.
206
638000
3800
وأن أمام واضعي القوانين مهمة صعبة
ذات اختيارات مستحيلة.
10:55
And maybe this will help us as a societyالمجتمع
understandتفهم the kindsأنواع of trade-offsالمقايضات
207
643360
3576
وهذا سيساعدنا كمجتمع على أن نفهم
أنواع المقايضات
10:58
that will be implementedنفذت
ultimatelyفي النهاية in regulationاللائحة.
208
646960
3056
التس سيتم تطبيقها في النهاية في القوانين.
11:02
And indeedفي الواقع, I was very happyالسعيدة to hearسمع
209
650040
1736
وبالفعل، كنت سعيدا جدا حينما سمعت
11:03
that the first setجلس of regulationsقوانين
210
651800
2016
بأن الدفعة الأول من القوانين
11:05
that cameأتى from
the Department قسم، أقسام of Transportالمواصلات --
211
653840
2136
التي صدرت عن هيئة المواصلات --
11:08
announcedأعلن last weekأسبوع --
212
656000
1376
أُعلِن عنها الأسبوع الماضي --
11:09
includedشمل a 15-point-نقطة checklistقائمة تدقيق
for all carmakersشركات صناعة السيارات to provideتزود,
213
657400
6576
تتضمن لائحة من 15 نقطة
على كل مصنعي السيارات توفيرها،
11:16
and numberرقم 14 was ethicalأخلاقي considerationالاعتبار --
214
664000
3256
والنقطة رقم 14 كانت ذات اعتبار أخلاقي --
11:19
how are you going to dealصفقة with that.
215
667280
1720
كيف ستقوم بالتعامل مع هذا.
11:23
We alsoأيضا have people
reflectتعكس on theirهم ownخاصة decisionsقرارات
216
671800
2656
لقد جعلنا الناس يفكرون في قراراتهم الخاصة
11:26
by givingإعطاء them summariesملخصات
of what they choseاختار.
217
674480
3000
من خلال إعطائهم ملخصات عما اختاروه.
11:30
I'll give you one exampleمثال --
218
678440
1656
سأعطيكم مثالًا --
11:32
I'm just going to warnحذر you
that this is not your typicalنموذجي exampleمثال,
219
680120
3536
وعلي أن أحذركم
أن هذا ليس مثالا اعتدتم عليه،
11:35
your typicalنموذجي userالمستعمل.
220
683680
1376
كمستعمل اعتيادي
11:37
This is the mostعظم sacrificedضحى and the mostعظم
savedتم الحفظ characterحرف for this personشخص.
221
685080
3616
هذه هي الشخصية التي يتم إنقاذها بكثرة
وهذه هي التي يتم التضحية بها
11:40
(Laughterضحك)
222
688720
5200
(ضحك)
11:46
Some of you mayقد agreeيوافق على with him,
223
694680
1896
قد يتفق بعضكم معه،
11:48
or her, we don't know.
224
696600
1640
أو معها، لا ندري.
11:52
But this personشخص alsoأيضا seemsيبدو to slightlyبعض الشيء
preferتفضل passengersركاب over pedestriansالمشاة
225
700480
6136
لكن يبدو أن هذا الشخص يفضل
قليلا الركاب على الراجلين
11:58
in theirهم choicesاختيارات
226
706640
2096
في اختياره
12:00
and is very happyالسعيدة to punishيعاقب jaywalkingjaywalking.
227
708760
2816
وهو سعيد بأن يعاقب
كل من لا يحترم إشارة المرور .
12:03
(Laughterضحك)
228
711600
3040
(ضحك)
12:09
So let's wrapلف up.
229
717320
1216
إذن لنلخص ما سبق.
12:10
We startedبدأت with the questionسؤال --
let's call it the ethicalأخلاقي dilemmaمعضلة --
230
718559
3416
فقد بدأنا بسؤال --
لنسمه المعضلة الأخلاقية --
12:14
of what the carسيارة should do
in a specificمحدد scenarioسيناريو:
231
722000
3056
ما الذي يجب على السيارة أن تقوم به
في حالة معينة:
12:17
swerveانحرف or stayالبقاء?
232
725080
1200
أن تنحرف أو لا؟
12:19
But then we realizedأدرك
that the problemمشكلة was a differentمختلف one.
233
727240
2736
لكن بعدها أدركنا أن المشكل كان مختلفًا.
12:22
It was the problemمشكلة of how to get
societyالمجتمع to agreeيوافق على on and enforceفرض
234
730000
4536
كان المشكل عن كيفية جعل المجتمع
يوافق ويفرض
12:26
the trade-offsالمقايضات they're comfortableمريح with.
235
734560
1936
المقايضات التي يرتاح لها.
12:28
It's a socialاجتماعي dilemmaمعضلة.
236
736520
1256
هذه معضلة اجتماعية.
12:29
In the 1940s, Isaacإسحاق Asimovاسيموف
wroteكتب his famousمشهور lawsقوانين of roboticsالروبوتات --
237
737800
5016
في الأربعينيات، كتب إسحاق عظيموف
قوانينه الشهيرة عن الروبوتات --
12:34
the threeثلاثة lawsقوانين of roboticsالروبوتات.
238
742840
1320
قوانين الروبوتات الثلاث --
12:37
A robotإنسان آلي mayقد not harmضرر a humanبشري beingيجرى,
239
745240
2456
الروبوت لن يضر الإنسان،
12:39
a robotإنسان آلي mayقد not disobeyعصى a humanبشري beingيجرى,
240
747720
2536
الروبوت لن يعصي الإنسان،
12:42
and a robotإنسان آلي mayقد not allowالسماح
itselfبحد ذاتها to come to harmضرر --
241
750280
3256
ولن يسمح الروبوت لنفسه بأن يأتي الضرر --
12:45
in this orderطلب of importanceأهمية.
242
753560
1960
بهذا التسلسل حسب الأهمية.
12:48
But after 40 yearsسنوات or so
243
756360
2136
لكن بعد 40 سنة ونيف
12:50
and after so manyكثير storiesقصص
pushingدفع these lawsقوانين to the limitحد,
244
758520
3736
وبعد العديد من القصص التي دفعت
هذه القوانين لتظهر ضعفها،
12:54
Asimovاسيموف introducedأدخلت the zerothالصفري lawالقانون
245
762280
3696
قدم عظيموف القانون الصفري للترموديناميك
12:58
whichالتي takes precedenceالأولوية aboveفي الاعلى all,
246
766000
2256
والذي كانت له الأولوية قبل كل شيء،
13:00
and it's that a robotإنسان آلي
mayقد not harmضرر humanityإنسانية as a wholeكامل.
247
768280
3280
وهي أن الروبوت لن يضر الإنسانية جمعاء.
13:04
I don't know what this meansيعني
in the contextسياق الكلام of driverlessسائق carsالسيارات
248
772480
4376
لست أدري ما الذي يعنيه هذا
في سياق السيارات ذاتية القيادة
13:08
or any specificمحدد situationموقف,
249
776880
2736
أو أي حالة معينة،
13:11
and I don't know how we can implementتنفيذ it,
250
779640
2216
ولست أدري كيف يمكننا تطبيق هذا،
13:13
but I think that by recognizingالاعتراف
251
781880
1536
لكنني أعتقد أنه من خلال الإدراك
13:15
that the regulationاللائحة of driverlessسائق carsالسيارات
is not only a technologicalالتكنولوجية problemمشكلة
252
783440
6136
أن تقنين السيارات ذاتية القيادة
ليس مشكلا تكنولوجيا فقط
13:21
but alsoأيضا a societalالمجتمعية cooperationتعاون problemمشكلة,
253
789600
3280
ولكنه مشكل تعاون مجتمعي،
13:25
I hopeأمل that we can at leastالأقل beginابدأ
to askيطلب the right questionsالأسئلة.
254
793800
2880
آمل أن يكون بمقدرونا أن نبدأ على الأقل
في طرح الأسئلة المناسبة
13:29
Thank you.
255
797200
1216
شكرا لكم.
13:30
(Applauseتصفيق)
256
798440
2920
(تصفيق)

▲Back to top

ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientist
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.

Why you should listen

Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.

(Photo: Victoriano Izquierdo)

More profile about the speaker
Iyad Rahwan | Speaker | TED.com