Iyad Rahwan: What moral decisions should driverless cars make?
لیاد راووان: ماشینهای خودران چه تصمیمهای اخلاقی باید بگیرند؟
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio
Double-click the English transcript below to play the video.
about technology and society.
تکنولوژی و جامعه صحبت کنم.
estimated that last year
در سال گذشته تخمین زد که
from traffic crashes in the US alone.
به علت تصادفات ترافیکی مردهاند.
die every year in traffic accidents.
به خاطر سوانح ترافیکی میمیرند.
90 percent of those accidents,
۹۰ درصد این تصادفها رو حذف کنیم،
promises to achieve
( بدونِ راننده) وعده میده که بهش به
source of accidents --
in a driverless car in the year 2030,
که در سال ۲۰۳۰ در یک ماشین خودران نشستید،
this vintage TEDxCambridge video.
TEDxCambrdige رو میبینین.
and is unable to stop.
و نمیتونه متوقف شه.
of pedestrians crossing the street,
که در حال عبور از خیابان هستند خواهد زد.
and who should decide?
و چه کسی باید تصمیم بگیره؟
could swerve into a wall,
ماشین بتونه به سمت دیوار منحرف شه،
by the trolley problem,
از مشکل قطار برقی الهام گرفته است،
by philosophers a few decades ago
توسط فلاسفه اختراع شد
about this problem matters.
به این مساله فکر میکنیم مهمه.
not think about it at all.
misses the point
از نکته اصلی غافل میشه
the scenario too literally.
is going to look like this;
to calculate something
a certain group of people,
versus another direction,
نسبت به یک جهت دیگه،
to passengers or other drivers
سرنشینان یا سایر رانندگان
a more complex calculation,
to involve trade-offs,
غالباً نیازمند اخلاقیات هستند.
"Well, let's not worry about this.
"خب، بیا نگران این مساله نباشیم.
is fully ready and 100 percent safe."
کاملاً آماده و صد درصد امن بشه."
eliminate 90 percent of those accidents,
واقعاً ۹۰ درصد این تصادفات رو حذف کنیم،
the last one percent of accidents
باقی مونده از تصادفات
اونوقت تکلیف چیه؟
dead in car accidents
یک گزینه هست،
have been coming up with all sorts of ways
به انواع مختلفی از روشها رسیدن که
the car should just swerve somehow
ماشین باید به سمتی منحرف بشه
that's what the car should do.
باید همین کار رو بکنه.
in which this is not possible.
که نمیشه این کار رو کرد.
was a suggestion by a blogger
پیشنهاد یک بلاگنویس هستش
that you press --
که فشارش بدین --
will have to make trade-offs on the road,
بده-بستانهایی رو در جاده خواهند داشت،
to find out what society wants,
تا ببینیم جامعه چی میخواد،
are a reflection of societal values.
بازتابی از ارزشهای اجتماعی هستند.
with these types of scenarios.
این سناریوها رو نشون میدادیم.
inspired by two philosophers:
الهام گرفته از دو فیلسوف بودن:
should follow utilitarian ethics:
باید از اخلاق سودگرایانه پیروی کنه:
that will minimize total harm --
باعث کشته شدن یک عابر پیاده بشه
will kill the passenger.
should follow duty-bound principles,
از اصول تکلیفی پیروی کنه،
that explicitly harms a human being,
به یک انسان آسیب بزنین،
want cars to be utilitarian,
سودمندگرا باشه،
whether they would purchase such cars,
آیا شما اینجور ماشینها رو میخرین،
that protect them at all costs,
تحت هر شرایطی ازشون محافظت کنه،
to buy cars that minimize harm.
ضرر رو کمینه کنه.
back in history.
published a pamphlet
رسالهای رو منتشر کرد
for their sheep to graze.
برای چروندن گوسفنداشون دارن.
brings a certain number of sheep --
تعداد مشخصی گوسفند بیاره --
یه گوسفند اضافی بیاره،
and no one else will be harmed.
و هیچکس ضرر نمیکنه.
that individually rational decision,
که برای هرکدومشون منطقیه بگیرن،
and it will be depleted
و خراب میشه.
to the detriment of the sheep.
to mitigate climate change.
برای کند کردن روند تغییرات اقلیمی.
of driverless cars,
ماشینهای بدون راننده(خودران) میرسه،
is basically public safety --
همون امنیت عمومی میشه --
to ride in those cars.
rational choice
diminishing the common good,
تخریب مال مشترکشون(زمین چَرا) باشن،
of driverless cars,
ماشینهای بدون راننده(خودران)،
a little bit more insidious
an individual human being
may simply program cars
خودروها رو طوری برنامهریزی کنن،
for their clients,
automatically on their own
به صورت اتوماتیک
increasing risk for pedestrians.
برای عابرین پیاده داره.
that have a mind of their own.
که ذهن خودش رو داره.
even if the farmer doesn't know it.
در حالی که چوپان نمیدونه.
the tragedy of the algorithmic commons,
تراژدی اشتراکات الگورتیمی،
of social dilemmas using regulation,
با استفاده از مقررات حل میکنیم،
or communities get together,
what kind of outcome they want
on individual behavior
رفتارهای فردی
that the public good is preserved.
what people say they want.
ادعا میکنن میخوانش.
sacrifice me in a very rare case,
من رو در یه حالت خیلی خاص قربانی کنه،
enjoys unconditional protection.
محافظت بیقید و شرط لذت میبرن.
از قانون گذاری حمایت میکنن یا نه
whether they would support regulation
said no to regulation;
and to minimize total harm,
که این کار رو بکنن و ضرر رو کمینه کنن،
برای کمینه کردن ضرر،
opt into the safer technology
از تکنولوژی امنتر استفاده کنن
than human drivers.
رانندگان انسانی باشه.
answer to this riddle,
we are comfortable with
رو باهاش کنار میایم
in which we can enforce those trade-offs.
بتونیم اون بده-بستونها رو اجرایی کنیم.
my brilliant students,
دانشجویان فوقالعاده من،
برای شما تولید میکنه
of random dilemmas in a sequence
the car should do in a given scenario.
در سناریو گفته شده چه کار باید بکنه.
the species of the different victims.
over five million decisions
از این سایت برای این سناریوها جمع کردیم
یک تصویر ابتدایی داشته باشیم
form an early picture
people are comfortable with
با چه بده-بستانهایی کنار میان
is helping people recognize
به مردم کمک میکنه که
are tasked with impossible choices.
با تصمیمهای غیرممکن روبرو هستند.
understand the kinds of trade-offs
انواع بده-بستانها رو درک کنیم
ultimately in regulation.
the Department of Transport --
for all carmakers to provide,
برای تمام خودروسازان،
با دادن خلاصهای از آنچه انتخاب کردهاند
reflect on their own decisions
of what they chose.
that this is not your typical example,
این یک مثال عادی نیست،
saved character for this person.
توسط این آدم رو نشون میده.
با نظر این مرد موافق باشین،
prefer passengers over pedestrians
یکم سرنشینها رو نسبت به عابرین پیاده
خیابون خوشحال میشه.
let's call it the ethical dilemma --
دوراهی اخلاقی میذاریم، شروع کردیم --
in a specific scenario:
that the problem was a different one.
society to agree on and enforce
و اجرای بده-بستانهایی بود
wrote his famous laws of robotics --
قوانین مشهورش برای رباتها را نوشت --
itself to come to harm --
که آسیب بزنه --
pushing these laws to the limit,
به این قوانین فشار آوردن،
may not harm humanity as a whole.
کلیت انسانها آسیب بزنه.
in the context of driverless cars
ماشینهای خودران چی میشه
is not only a technological problem
یک مساله مرتبط با تکنولوژی نیست
to ask the right questions.
پرسیدن سوالات درست کنیم.
ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientistIyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.
Why you should listen
Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.
(Photo: Victoriano Izquierdo)
Iyad Rahwan | Speaker | TED.com