Iyad Rahwan: What moral decisions should driverless cars make?
Іяд Ровен: Які моральні рішення мають приймати безпілотні автомобілі?
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio
Double-click the English transcript below to play the video.
about technology and society.
про технології та суспільство.
estimated that last year
що минулого року
from traffic crashes in the US alone.
в автомобільних аваріях лише у США.
die every year in traffic accidents.
помирають щороку в автомобільних аваріях.
90 percent of those accidents,
90 процентів з цих аварій,
promises to achieve
автомобілів обіцяє досягнути
source of accidents --
in a driverless car in the year 2030,
автомобілі у 2030 році,
this vintage TEDxCambridge video.
від TEDxCambridge.
and is unable to stop.
і він не може зупинитись.
of pedestrians crossing the street,
що переходять вулицю,
and who should decide?
та хто має вирішувати?
could swerve into a wall,
міг би повернути у напрямку стіни,
by the trolley problem,
проблема вагонетки,
by philosophers a few decades ago
філософами кілька десятиліть тому
етичної сторони.
about this problem matters.
до цієї проблеми має значення.
not think about it at all.
не думати про це зовсім.
що такий сценарій є нереалістичний,
або просто безглуздий.
misses the point
втрачає головне,
the scenario too literally.
надто буквально.
is going to look like this;
не буде саме такою;
to calculate something
дещо розраховувати,
a certain group of people,
на якусь групу людей,
versus another direction,
замість іншого,
to passengers or other drivers
для пасажирів чи інших водіїв
a more complex calculation,
to involve trade-offs,
"Well, let's not worry about this.
не хвилюватись про це.
is fully ready and 100 percent safe."
буде повністю готова
eliminate 90 percent of those accidents,
усунути 90 процентів тих аварій,
у найближчі 10 років.
the last one percent of accidents
одного проценту аварій
від технології?
dead in car accidents
загиблих у автомобільних аваріях,
це також вибір,
have been coming up with all sorts of ways
пропонували різноманітні шляхи,
the car should just swerve somehow
щоб автомобіль просто вивернув якось
може зробити,
that's what the car should do.
in which this is not possible.
в яких це неможливо.
was a suggestion by a blogger
запропонував блогер:
that you press --
яку ти натискаєш
will have to make trade-offs on the road,
що автомобілі будуть змушені
з приводу цих компромісів,
щоб дізнатися, чого суспільство хоче,
to find out what society wants,
are a reflection of societal values.
це відображення суспільних цінностей.
та Азімом Шаріфом,
with these types of scenarios.
ці види сценаріїв.
inspired by two philosophers:
що були натхненні двома філософами:
має дотримуватися утилітарної етики:
should follow utilitarian ethics:
that will minimize total harm --
що мінімізують загальну шкоду,
will kill the passenger.
should follow duty-bound principles,
має дотримуватись відчуття обов'язку,
that explicitly harms a human being,
що вочевидь шкодить людині,
рухатися своїм шляхом,
більшій кількості людей.
want cars to be utilitarian,
щоб автомобілі були утилітарними,
whether they would purchase such cars,
чи придбали б вони такі автомобілі,
that protect them at all costs,
які б захищали їх за будь-яку ціну,
to buy cars that minimize harm.
купували автомобілі, що мінімізують шкоду.
back in history.
published a pamphlet
Вільям Фостер Лойд опублікував памфлет,
земельну ділянку для випасу їхніх овець.
for their sheep to graze.
brings a certain number of sheep --
виведе певну кількість овець -
виведе ще одну вівцю,
and no one else will be harmed.
і ніхто інший не постраждає.
that individually rational decision,
індивідуально раціональне рішення,
and it will be depleted
to the detriment of the sheep.
to mitigate climate change.
щоб пом'якшити кліматичні зміни.
of driverless cars,
для безпілотних автомобілів,
is basically public safety --
це загальна безпека,
to ride in those cars.
які обирають їздити у цих автомобілях.
rational choice
раціональний вибір
diminishing the common good,
зменшити спільне благо,
of driverless cars,
безпілотних автомобілів,
a little bit more insidious
an individual human being
may simply program cars
просто запрограмувати автомобілі,
for their clients,
для їхніх клієнтів,
automatically on their own
автоматично навчатися,
increasing risk for pedestrians.
підвищити ризик для пішоходів.
метафору з вівцями,
that have a mind of their own.
які мають власний розум.
even if the farmer doesn't know it.
навіть, якщо фермер не знає про це.
the tragedy of the algorithmic commons,
трагедією алгоритмічного спільного,
of social dilemmas using regulation,
за допомогою правил,
or communities get together,
what kind of outcome they want
який результат вони хочуть,
on individual behavior
моніторингу та примушення,
that the public good is preserved.
що суспільне благо зберігається.
мінімізували шкоду?
what people say they want.
хочуть, за їх словами.
sacrifice me in a very rare case,
пожертвувати мною у рідкому випадку,
який це робить,
enjoys unconditional protection.
безумовним захистом.
whether they would support regulation
чи підтримали б вони правила,
said no to regulation;
and to minimize total harm,
робити це і мінімізувати загальну шкоду,
такі автомобілі."
для автомобілів мінімізувати шкоду,
до ще більшої шкоди,
opt into the safer technology
більш безпечну технологію,
безпечніша, ніж люди-водії.
than human drivers.
answer to this riddle,
на цю дилему,
що для початку треба,
we are comfortable with
є комфортними для нас
in which we can enforce those trade-offs.
для втілення цих компромісів.
my brilliant students,
мої блискучі студенти,
of random dilemmas in a sequence
одна за одною,
the car should do in a given scenario.
має зробити у наданому сценарії.
the species of the different victims.
біологічні види різних потерпілих.
over five million decisions
п'яти мільйонів рішень
по всьому світу
form an early picture
отримати первинну картину того,
people are comfortable with
is helping people recognize
допомагає людям усвідомити
are tasked with impossible choices.
постає неможливий вибір.
understand the kinds of trade-offs
як суспільству, зрозуміти ті компроміси,
ultimately in regulation.
зрештою у регулюваннях.
the Department of Transport --
for all carmakers to provide,
всі виробники автомобілів,
reflect on their own decisions
обміркувати їх власні рішення,
of what they chose.
що вони обирали.
that this is not your typical example,
нетиповий приклад,
saved character for this person.
та найбільш врятований персонажі
prefer passengers over pedestrians
переваги пасажирам, ніж пішоходам
let's call it the ethical dilemma --
назвемо це етичною дилемою -
in a specific scenario:
у наданому сценарії:
that the problem was a different one.
що проблема, насправді, у іншому.
society to agree on and enforce
та запровадити
wrote his famous laws of robotics --
свої відомі закони робототехніки -
itself to come to harm --
pushing these laws to the limit,
наполягають на цих трьох законах,
may not harm humanity as a whole.
заподіяти шкоду людству в цілому.
in the context of driverless cars
у контексті безпілотних автомобілів
це реалізувати,
is not only a technological problem
це не лише технологічна проблема,
соціальної співдружності,
to ask the right questions.
почати ставити правильні питання.
ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientistIyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.
Why you should listen
Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.
(Photo: Victoriano Izquierdo)
Iyad Rahwan | Speaker | TED.com