Iyad Rahwan: What moral decisions should driverless cars make?
Iyad Rahwan: Welke morele keuzes moet een zelfrijdende auto maken?
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio
Double-click the English transcript below to play the video.
about technology and society.
over technologie en maatschappij.
estimated that last year
schatte dat afgelopen jaar
door verkeersongelukken in de VS.
from traffic crashes in the US alone.
die every year in traffic accidents.
1,2 miljoen mensen in verkeersongelukken.
90 percent of those accidents,
om 90% van die ongelukken te voorkomen,
promises to achieve
beloven te doen
menselijke fouten, weg te nemen.
source of accidents --
in a driverless car in the year 2030,
een zelfrijdende auto zit, het is 2030,
vintage TEDxCambridge video.
this vintage TEDxCambridge video.
en de auto kan niet meer stoppen.
and is unable to stop.
of pedestrians crossing the street,
die de straat aan het oversteken zijn.
en een omstander aanrijden,
van de voetgangers zou betekenen.
and who should decide?
en wie moet dat besluiten?
could swerve into a wall,
kan uitwijken naar een muur,
by the trolley problem,
op 'The trolley problem',
by philosophers a few decades ago
een paar decennium geleden
about this problem matters.
denken, is belangrijk.
not think about it at all.
dat dit scenario onrealistisch,
misses the point
dit soort kritiek het punt mist,
the scenario too literally.
te letterlijk neemt.
wat er precies zo uit ziet.
is going to look like this;
of drie mogelijkheden,
to calculate something
gaat de auto iets berekenen.
a certain group of people,
bepaalde groep mensen gaat raken;
versus another direction,
in plaats van de andere;
to passengers or other drivers
of andere bestuurders verhogen
a more complex calculation,
to involve trade-offs,
gemaakt moeten worden.
ethische overwegingen.
om ons er geen zorgen over te maken.
"Well, let's not worry about this.
is fully ready and 100 percent safe."
helemaal klaar en 100% veilig is.
eliminate 90 percent of those accidents,
van de ongelukken kunnen voorkomen,
the last one percent of accidents
dead in car accidents
overlijden in auto-ongelukken,
have been coming up with all sorts of ways
hebben allerlei manieren bedacht
bij dit probleem.
the car should just swerve somehow
tussen de passagiers en de voetgangers
that's what the car should do.
dat doen als dat mogelijk is.
in which this is not possible.
waar dit niet mogelijk is.
was a suggestion by a blogger
een suggestie van een blogger,
that you press --
te hebben die afgaat --
will have to make trade-offs on the road,
afwegingen moeten maken op de weg,
om te bepalen wat men wil,
to find out what society wants,
are a reflection of societal values.
van maatschappelijke waarden.
with these types of scenarios.
dit soort scenario's voorlegden.
inspired by two philosophers:
geïnspireerd door twee filosofen:
should follow utilitarian ethics:
utilitaristisch moet handelen:
that will minimize total harm --
wat het minste letsel veroorzaakt.
dat er een omstander overlijdt
dat de passagier overlijdt.
will kill the passenger.
should follow duty-bound principles,
plichtgebonden moet handelen,
that explicitly harms a human being,
wat expliciet iemand letsel toebrengt
van richting veranderen,
want cars to be utilitarian,
utilitaire auto's willen,
whether they would purchase such cars,
zo'n auto zouden kopen,
that protect them at all costs,
die hen te allen tijde beschermt,
to buy cars that minimize harm.
die de totale schade vermindert.
back in history.
published a pamphlet
William Forster Lloyd een pamflet
werd beschreven.
for their sheep to graze.
om hun schapen te laten grazen.
brings a certain number of sheep --
aantal schapen heeft --
schaap introduceert,
and no one else will be harmed.
en daar heeft niemand last van.
that individually rational decision,
die individueel rationele keuze maakt,
and it will be depleted
en is het niet meer bruikbaar.
to the detriment of the sheep.
to mitigate climate change.
om klimaatverandering tegen te gaan.
of driverless cars,
van autonome voertuigen
is basically public safety --
als het gedeelde land van de boeren --
to ride in those cars.
die ervoor kiezen er in te rijden.
rational choice
rationele keuze te maken,
diminishing the common good,
dat het algemeen goed afneemt,
van het totale letsel is.
of driverless cars,
a little bit more insidious
misschien wat verraderlijk,
an individual human being
een menselijk individu
may simply program cars
auto's zo programmeren
for their clients,
van hun klanten maximaliseren,
automatically on their own
automatisch en zelfstandig
increasing risk for pedestrians.
meer risico lopen.
die zelf kunnen denken.
that have a mind of their own.
even if the farmer doesn't know it.
zonder dat de boer het weet.
the tragedy of the algorithmic commons,
van de algoritmische meent' noemen.
uitdagingen met zich mee.
of social dilemmas using regulation,
sociale dilemmas op met regulaties,
or communities get together,
gemeenschappen komen samen
what kind of outcome they want
wat voor uitkomst men wil
on individual behavior
op individueel vlak daarvoor nodig zijn.
monitoring en handhaving,
that the public good is preserved.
publieke goed beschermd wordt.
letsel verminderen.
what people say they want.
sacrifice me in a very rare case,
in een buitengewoon scenario,
anderen ongelimiteerd beschermd worden.
enjoys unconditional protection.
whether they would support regulation
of ze regulatie zouden steunen
said no to regulation;
zeiden nee tegen regulatie.
and to minimize total harm,
om letsel te verminderen,
om letsel te verminderen,
opt into the safer technology
voor de veiligere technologie,
than human drivers.
answer to this riddle,
voor dit probleem,
we are comfortable with
we comfortabel zijn,
in which we can enforce those trade-offs.
waarop we die kunnen afdwingen.
my brilliant students,
hebben mijn briljante studenten
of random dilemmas in a sequence
random dilemma's op een rij
the car should do in a given scenario.
moet doen in dat scenario.
the species of the different victims.
en zelfs de diersoort van de slachtoffers.
over five million decisions
dan vijf miljoen beslissingen verzameld,
form an early picture
people are comfortable with
waar men comfortabel mee is
is helping people recognize
om dit soort keuzes te maken
are tasked with impossible choices.
om onmogelijke keuzes te maken.
understand the kinds of trade-offs
om verschillende trade-offs te begrijpen
ultimately in regulation.
zullen worden in regulaties.
the Department of Transport --
for all carmakers to provide,
voor alle autofabrikanten bevatten,
op de eigen beslissingen
reflect on their own decisions
of what they chose.
te geven van hun keuzes.
that this is not your typical example,
een typisch voorbeeld is
opgeofferd and gered zijn door de persoon.
saved character for this person.
prefer passengers over pedestrians
hebben voor passagiers boven voetgangers
noem 't het ethisch dilemma --
let's call it the ethical dilemma --
in a specific scenario:
in een bepaald scenario:
dat het om een ander probleem ging.
that the problem was a different one.
society to agree on and enforce
moeten worden over wat ze wil
wrote his famous laws of robotics --
zijn bekende wetten van robotica,
een mens letsel toebrengen;
itself to come to harm --
niet laten beschadigen.
pushing these laws to the limit,
die deze wetten hebben beproefd,
als geheel letsel mag toebrengen.
may not harm humanity as a whole.
in the context of driverless cars
in de context van zelfrijdende auto's
het kunnen implementeren,
is not only a technological problem
niet alleen een technisch probleem is,
to ask the right questions.
kunnen beginnen te stellen.
ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientistIyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.
Why you should listen
Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.
(Photo: Victoriano Izquierdo)
Iyad Rahwan | Speaker | TED.com