Iyad Rahwan: What moral decisions should driverless cars make?
Ияд Рахван: Какие этические решения должен принимать беспилотный автомобиль?
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio
Double-click the English transcript below to play the video.
about technology and society.
о технологиях и обществе.
estimated that last year
подсчитало, что в прошлом году
from traffic crashes in the US alone.
в автомобильных авариях в США.
die every year in traffic accidents.
погибает в авариях ежегодно.
90 percent of those accidents,
сократить эту цифру на 90%,
promises to achieve
автомобилей обещает это
source of accidents --
основной причины аварий —
in a driverless car in the year 2030,
в беспилотной машине в 2030 году —
this vintage TEDxCambridge video.
TEDxCambridge.
and is unable to stop.
и машина не может затормозить.
of pedestrians crossing the street,
переходящих дорогу.
других пешеходов.
and who should decide?
и кто это решает?
could swerve into a wall,
by the trolley problem,
«Проблемой вагонетки» —
by philosophers a few decades ago
несколько десятилетий назад
about this problem matters.
этот этический вопрос.
not think about it at all.
вообще об этом не задумываться.
не реалистичен,
misses the point
упускает главное
the scenario too literally.
на проблему слишком буквально.
is going to look like this;
чтобы два или три исхода
to calculate something
рассчитывать вероятность
a certain group of people,
versus another direction,
to passengers or other drivers
для пассажиров или других водителей
a more complex calculation,
to involve trade-offs,
включать компромисс,
"Well, let's not worry about this.
не будем об этом думать,
is fully ready and 100 percent safe."
и не станет безопасной на 100%».
eliminate 90 percent of those accidents,
сократить число аварий на 90%,
the last one percent of accidents
dead in car accidents
в автомобильных авариях,
have been coming up with all sorts of ways
обмениваются идеями,
the car should just swerve somehow
что машина должна повернуть так,
that's what the car should do.
машина так и поступит.
in which this is not possible.
где такой исход невозможен.
was a suggestion by a blogger
that you press --
кнопку эвакуации в машине...
will have to make trade-offs on the road,
что компромисс на дорогах неизбежен,
to find out what society wants,
чтобы узнать общественное мнение,
are a reflection of societal values.
общественных ценностей.
with these types of scenarios.
такого рода сценарии
inspired by two philosophers:
навеянные двумя философами,
should follow utilitarian ethics:
следовать утилитарной этике:
that will minimize total harm --
чтобы минимизировать вред,
приведёт к гибели прохожего
will kill the passenger.
should follow duty-bound principles,
действовать по принципу долга:
that explicitly harms a human being,
действие, которое навредит человеку,
погибнет больше людей.
want cars to be utilitarian,
whether they would purchase such cars,
купят ли они такой автомобиль,
that protect them at all costs,
которая их защитит, что бы ни случилось,
to buy cars that minimize harm.
машины, минимизирующие вред.
back in history.
published a pamphlet
опубликовал памфлет,
for their sheep to graze.
на котором пасутся их овцы.
brings a certain number of sheep --
количество овец,
ещё одну овцу,
and no one else will be harmed.
that individually rational decision,
примет такое разумное решение,
and it will be depleted
to the detriment of the sheep.
to mitigate climate change.
для предотвращения изменения климата.
of driverless cars,
для беспилотных автомобилей,
is basically public safety --
общественная безопасность,
to ride in those cars.
которые в них ездят.
rational choice
рациональный для себя,
diminishing the common good,
of driverless cars,
автомобилями, я думаю,
a little bit more insidious
an individual human being
may simply program cars
запрограммировать их так,
for their clients,
безопасность своих клиентов,
automatically on their own
increasing risk for pedestrians.
более рискованно для пешеходов.
that have a mind of their own.
электронная овца со своим разумом.
even if the farmer doesn't know it.
не спрашивая фермера.
the tragedy of the algorithmic commons,
алгоритмических общин»,
of social dilemmas using regulation,
с помощью законов,
or communities get together,
вместе решают,
what kind of outcome they want
on individual behavior
соблюдение этих правил,
that the public good is preserved.
общественного блага.
what people say they want.
sacrifice me in a very rare case,
и в редком случае она мной жертвует,
enjoys unconditional protection.
абсолютную безопасность.
whether they would support regulation
людей, поддержат ли они такой закон,
said no to regulation;
против такого закона,
and to minimize total harm,
минимизировать вред,
opt into the safer technology
более безопасную технологию,
than human drivers.
answer to this riddle,
на эту загадку,
we are comfortable with
приемлемым компромиссом
in which we can enforce those trade-offs.
мои замечательные студенты
my brilliant students,
of random dilemmas in a sequence
the car should do in a given scenario.
сделать в каждом случае.
the species of the different victims.
и даже биологический вид жертв.
over five million decisions
form an early picture
раннее представление
people are comfortable with
is helping people recognize
are tasked with impossible choices.
столкнётся с невыносимым выбором.
understand the kinds of trade-offs
обществу, понять, какого рода компромиссы
ultimately in regulation.
the Department of Transport --
for all carmakers to provide,
автопроизводителей,
reflect on their own decisions
поразмышлять над выбором,
of what they chose.
that this is not your typical example,
saved character for this person.
а ребёнком чаще всего жертвовал.
prefer passengers over pedestrians
let's call it the ethical dilemma --
назовём его этической дилеммой,
in a specific scenario:
в определённом сценарии,
that the problem was a different one.
что проблема не в этом.
society to agree on and enforce
согласия в обществе и как контролировать
wrote his famous laws of robotics --
свои знаменитые законы роботехники,
приказам человека,
itself to come to harm --
о своей безопасности.
pushing these laws to the limit,
проверяющих эти законы,
may not harm humanity as a whole.
человечеству в целом.
in the context of driverless cars
в контексте беспилотных автомобилей
is not only a technological problem
не только проблема технологии,
to ask the right questions.
задавать правильные вопросы.
ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientistIyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.
Why you should listen
Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.
(Photo: Victoriano Izquierdo)
Iyad Rahwan | Speaker | TED.com