Iyad Rahwan: What moral decisions should driverless cars make?
Iyad Rahwan: Milyen morális döntéseket kell a vezető nélküli autóknak hozniuk?
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio
Double-click the English transcript below to play the video.
about technology and society.
és a társadalomról fogok beszélni.
estimated that last year
2015-ös adata szerint
from traffic crashes in the US alone.
halt meg közlekedési balesetben.
die every year in traffic accidents.
90 percent of those accidents,
90%-ának elkerülésére,
promises to achieve
technológiája erre ad reményt,
source of accidents --
in a driverless car in the year 2030,
vezető nélküli autójában,
this vintage TEDxCambridge video.
a TEDxCambridge ősrégi videóját.
and is unable to stop.
de képtelen megállni.
of pedestrians crossing the street,
and who should decide?
could swerve into a wall,
by the trolley problem,
villamoskocsi-dilemma ihlette,
by philosophers a few decades ago
about this problem matters.
not think about it at all.
misses the point
téveszti a lényeget,
the scenario too literally.
is going to look like this;
választási lehetőség adódni,
to calculate something
a certain group of people,
való csapódás valószínűsége,
versus another direction,
to passengers or other drivers
vagy idegen vezetők kockázata
a more complex calculation,
to involve trade-offs,
gyakran erkölcsi kérdés.
"Well, let's not worry about this.
is fully ready and 100 percent safe."
fejlett és biztonságos nem lesz."
eliminate 90 percent of those accidents,
kiküszöbölhetjük a balesetek 90%-át,
the last one percent of accidents
százalék kiküszöbölése
dead in car accidents
have been coming up with all sorts of ways
the car should just swerve somehow
that's what the car should do.
az autó így fog tenni.
in which this is not possible.
érdekelnek, ahol ez nem lehetséges.
was a suggestion by a blogger
that you press --
az autóban, amelyet megnyomunk...
megsemmisítené magát.
will have to make trade-offs on the road,
kompromisszumokat kell kötniük
to find out what society wants,
hogy mit akar a társadalom,
are a reflection of societal values.
a társadalmi értékekhez igazodnak.
és Azim Shariff-fal,
with these types of scenarios.
tártuk a lehetőségeket.
inspired by two philosophers:
két lehetőséget adtunk meg.
should follow utilitarian ethics:
haszonelvű etikát kell követnie:
that will minimize total harm --
minimális kár keletkezzék,
will kill the passenger.
should follow duty-bound principles,
kötelességelvű etikát kell követnie:
that explicitly harms a human being,
ami kárt okoz egy emberi lénynek,
want cars to be utilitarian,
inkább haszonelvűek,
whether they would purchase such cars,
"Vennének-e ilyen autót?",
that protect them at all costs,
amely mindenáron megvédi őket,
to buy cars that minimize harm.
a kárt minimalizálót vegyenek.
back in history.
published a pamphlet
jelentette meg.
hogy birkáik legelhessenek.
for their sheep to graze.
brings a certain number of sheep --
még egy birkát odavisz,
and no one else will be harmed.
és senki sem károsodik.
that individually rational decision,
az egyénileg észszerű döntést hozná,
and it will be depleted
to the detriment of the sheep.
to mitigate climate change.
a CO₂-kibocsátás csökkentésénél.
of driverless cars,
is basically public safety --
to ride in those cars.
aki az autóban utazik.
rational choice
diminishing the common good,
of driverless cars,
a little bit more insidious
an individual human being
may simply program cars
egyszerűen beprogramozhatják,
for their clients,
ügyfeleik biztonságát,
automatically on their own
önállóan tanulhatnak,
increasing risk for pedestrians.
a gyalogosok kockázatát.
that have a mind of their own.
elektromos birkáink vannak.
even if the farmer doesn't know it.
bemehetnek a legelőre.
the tragedy of the algorithmic commons,
közbirtok tragédiájának,
of social dilemmas using regulation,
or communities get together,
megvitatják őket,
what kind of outcome they want
milyen eredményt szeretnének,
on individual behavior
és végrehajtási intézkedésekkel
that the public good is preserved.
minimalizálni a kárt!
what people say they want.
sacrifice me in a very rare case,
és kivételes esetben engem föláldoz,
enjoys unconditional protection.
a feltétlen biztonságot.
whether they would support regulation
íme, az eredmény.
said no to regulation;
and to minimize total harm,
hogy minimalizálják a kárt,
opt into the safer technology
technológiát választják,
than human drivers.
answer to this riddle,
we are comfortable with
in which we can enforce those trade-offs.
my brilliant students,
generál baleseti helyzeteket,
of random dilemmas in a sequence
the car should do in a given scenario.
mit tegyen az autó.
the species of the different victims.
és fajtáját változtatjuk.
over five million decisions
gyűjtöttünk össze világszerte,
form an early picture
milyen kompromisszummal
people are comfortable with
is helping people recognize
megértetik az emberekkel,
are tasked with impossible choices.
lehetetlen döntésekre kényszerülnek.
understand the kinds of trade-offs
megértse a kompromisszum szerepét
ultimately in regulation.
the Department of Transport --
for all carmakers to provide,
álló követelménylistát tartalmaz;
hogy gondolkozzanak el döntéseiken
reflect on their own decisions
of what they chose.
that this is not your typical example,
saved character for this person.
és föl szokta áldozni a gyerekeket.
prefer passengers over pedestrians
kedvez döntései során,
gyalogosokat.
let's call it the ethical dilemma --
hívjuk erkölcsi dilemmának,
in a specific scenario:
that the problem was a different one.
society to agree on and enforce
kompromisszum betartására?
wrote his famous laws of robotics --
a híres robotikai törvényeit,
itself to come to harm --
pushing these laws to the limit,
amelyek kipróbálták a törvényeket,
may not harm humanity as a whole.
az egész emberiségnek.
in the context of driverless cars
a vezető nélküli autóra
is not only a technological problem
szabályozás nem csak technológiai,
probléma is, remélem,
to ask the right questions.
a helyes kérdések föltevéséhez.
ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientistIyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.
Why you should listen
Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.
(Photo: Victoriano Izquierdo)
Iyad Rahwan | Speaker | TED.com