Iyad Rahwan: What moral decisions should driverless cars make?
Iyad Rahwan: Welche moralischen Entscheidungen sollten fahrerlose Autos treffen?
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio
Double-click the English transcript below to play the video.
about technology and society.
Technologie und Gesellschaft sprechen.
estimated that last year
dass im letzten Jahr
from traffic crashes in the US alone.
allein in den USA gestorben sind.
die every year in traffic accidents.
Menschen bei Verkehrsunfällen.
90 percent of those accidents,
90 % dieser Unfälle zu vermeiden,
promises to achieve
fahrerloser Autos erreichen möchte,
source of accidents --
für Autounfälle eliminiert –
in a driverless car in the year 2030,
im Jahr 2030 in einem fahrerlosen Auto.
this vintage TEDxCambridge video.
dieses alte TEDxCambridge-Video.
auf und das Auto kann nicht anhalten.
and is unable to stop.
of pedestrians crossing the street,
die gerade die Straße überqueren.
and who should decide?
und wer sollte entscheiden?
could swerve into a wall,
ausweichen und eine Wand treffen könnte
by the trolley problem,
Trolley-Problem inspiriert,
by philosophers a few decades ago
von Philosophen erfunden wurde,
about this problem matters.
das Problem denken, zählt.
not think about it at all.
gar nicht darüber nachdenken.
dass das Szenario unrealistisch,
misses the point
am Thema vorbeigeht,
the scenario too literally.
is going to look like this;
genauso aussehen.
zwei oder drei Optionen,
to calculate something
eine Zahl ausrechnen,
a certain group of people,
eine bestimmte Menschengruppe zu treffen.
versus another direction,
die andere Richtung ausweicht.
to passengers or other drivers
geringfügig höher sein,
a more complex calculation,
to involve trade-offs,
Abwägungen beinhalten
"Well, let's not worry about this.
„Lasst uns keine Sorgen machen.
is fully ready and 100 percent safe."
bereit und zu 100 % sicher ist.“
eliminate 90 percent of those accidents,
90 % dieser Unfälle vermeiden
the last one percent of accidents
der letzen 1 % der Unfälle
bedeuten würde?
dead in car accidents
bei Autounfällen sterben,
eine Möglichkeit wäre,
Abwägungen beinhalten würde.
have been coming up with all sorts of ways
unzählige Möglichkeiten entwickelt,
the car should just swerve somehow
durchschlängeln soll,
that's what the car should do.
das Auto dies machen,
in which this is not possible.
in denen das unmöglich ist.
was a suggestion by a blogger
kam von einem Blogger,
im Auto zu haben, die gedrückt wird,
that you press --
will have to make trade-offs on the road,
auf der Straße abwägen müssen,
to find out what society wants,
in der Gesellschaft machen.
are a reflection of societal values.
ein Spiegel der gesellschaftlichen Werte.
with these types of scenarios.
diese Art von Szenarien zeigten.
inspired by two philosophers:
von zwei Philosophen inspiriert:
should follow utilitarian ethics:
utilitaristischer Ethik folgen sollte:
that will minimize total harm --
die den Gesamtschaden minimiert,
will kill the passenger.
den Passagier tötet.
should follow duty-bound principles,
pflichtgemäßen Prinzipien folgen sollte,
that explicitly harms a human being,
dass es einen Menschen explizit verletzt,
want cars to be utilitarian,
dass Autos utilitaristisch sind
whether they would purchase such cars,
ob sie solche Autos kaufen würden
that protect them at all costs,
die sie um jeden Preis schützen,
to buy cars that minimize harm.
die Schaden minimieren.
back in history.
published a pamphlet
William Forster Lloyd ein Merkblatt,
for their sheep to graze.
auf dem ihre Schafe grasen.
brings a certain number of sheep --
eine bestimmte Anzahl Schafe hat,
ein Schaf mehr hat,
and no one else will be harmed.
und niemand kommt zu Schaden.
that individually rational decision,
individuelle rationale Entscheidung,
and it will be depleted
und wird erschöpft,
to the detriment of the sheep.
to mitigate climate change.
um den Klimawandel einzudämmen.
of driverless cars,
für fahrerlose Autos geht,
is basically public safety --
für die öffentliche Sicherheit –
to ride in those cars.
die in diesen Autos fahren.
rational choice
rationalen Entscheidung,
diminishing the common good,
zusammen vermindern,
of driverless cars,
a little bit more insidious
etwas komplizierter sein,
an individual human being
may simply program cars
Autos so programmieren,
for their clients,
für ihre Kunden gewähren
automatically on their own
automatisch, alleine lernen,
increasing risk for pedestrians.
erhöhten Risiko für Fußgänger einhergeht.
that have a mind of their own.
mit eigener Meinung bedeuten.
even if the farmer doesn't know it.
ohne, dass der Bauer davon weiß.
the tragedy of the algorithmic commons,
Tragik der algorithmischen Allmende sein
ganz neue Probleme.
of social dilemmas using regulation,
mit Vorschriften gelöst.
or communities get together,
oder Gemeinden kommen zusammen
what kind of outcome they want
welches Ergebnis sie möchten
on individual behavior
des individuellen Verhaltens
und Vollstreckung sichergestellt,
that the public good is preserved.
what people say they want.
was Menschen wollen.
sacrifice me in a very rare case,
dass mich im seltenen Fall opfern würde,
enjoys unconditional protection.
bedingungslose Sicherheit genießen.
whether they would support regulation
ob Vorschriften befürwortet werden
said no to regulation;
gegen Vorschriften ausgesprochen.
and to minimize total harm,
und den Schaden minimieren sollen,
so dass sie Schaden minimieren
opt into the safer technology
für sichere Technologie entscheiden,
than human drivers.
als der Mensch ist.
answer to this riddle,
für dieses Rätsel,
zusammen kommen
we are comfortable with
die wir verkraften können
in which we can enforce those trade-offs.
wie wir diese durchsetzen können.
my brilliant students,
meine brillanten Studenten,
of random dilemmas in a sequence
Dilemmas in Folge,
the car should do in a given scenario.
wie das Auto reagiert.
the species of the different victims.
die Spezies der verschiedenen Opfer.
over five million decisions
über fünf Millionen Entscheidungen
form an early picture
von Anfang an zu verstehen,
people are comfortable with
die Menschen leben können
is helping people recognize
zu verstehen,
diese Entscheidungen zu treffen,
are tasked with impossible choices.
unmöglichen Entscheidungen stehen.
understand the kinds of trade-offs
der Gesellschaft zu verstehen,
in Vorschriften enthalten sind.
ultimately in regulation.
the Department of Transport --
for all carmakers to provide,
für alle Autohersteller enthielten
reflect on their own decisions
ihre Angaben reflektieren lassen,
of what they chose.
ihrer Entscheidung gaben.
that this is not your typical example,
dies ist kein typisches Beispiel,
saved character for this person.
der am meisten geschützte Charakter.
prefer passengers over pedestrians
Passagiere über Fußgänger zu stellen
let's call it the ethical dilemma --
wir nennen sie moralisches Dilemma –
in a specific scenario:
spezifischen Szenario verhalten soll:
that the problem was a different one.
dass das Problem ein anderes war.
society to agree on and enforce
dazu bringt, Kompromisse durchzusetzen,
wrote his famous laws of robotics --
die berühmten Robotergesetze –
menschliches Wesen verletzen.
itself to come to harm --
seine Existenz beschützen.
pushing these laws to the limit,
die diese Gesetze an ihre Grenzen bringen,
may not harm humanity as a whole.
die Menschheit nicht verletzen darf.
in the context of driverless cars
mit fahrerlosen Autos bedeutet
wie wir es umsetzen können.
is not only a technological problem
nicht nur ein technologisches Problem,
Kooperationsproblem sind,
to ask the right questions.
die richtigen Fragen zu stellen.
ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientistIyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.
Why you should listen
Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.
(Photo: Victoriano Izquierdo)
Iyad Rahwan | Speaker | TED.com