Iyad Rahwan: What moral decisions should driverless cars make?
Iyad Rahwan: Quali decisioni morali dovrebbero prendere le auto a guida autonoma?
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio
Double-click the English transcript below to play the video.
about technology and society.
estimated that last year
ha stimato che lo scorso anno
from traffic crashes in the US alone.
di incidenti stradali, negli Stati Uniti.
die every year in traffic accidents.
ogni anno a causa di incidenti stradali.
90 percent of those accidents,
il 90 percento di questi incidenti,
promises to achieve
delle auto a guida autonoma si prefigge,
source of accidents --
causa di incidenti --
in a driverless car in the year 2030,
a guida autonoma nell'anno 2030,
this vintage TEDxCambridge video.
questo video vintage di TEDxCambridge.
and is unable to stop.
e non riesce più a fermarsi.
of pedestrians crossing the street,
di pedoni che attraversano la strada,
and who should decide?
e chi dovrebbe decidere?
could swerve into a wall,
potesse sterzare contro un muro,
il passeggero,
by the trolley problem,
dal dilemma del carrello,
by philosophers a few decades ago
da filosofi qualche decennio fa
about this problem matters.
a questo problema importa.
not think about it at all.
non pensarci affatto.
che questo scenario è irrealistico,
o semplicemente sciocco.
misses the point
non colga il punto,
the scenario too literally.
lo scenario letteralmente.
is going to look like this;
assomiglierà a questo;
to calculate something
a certain group of people,
un certo gruppo di persone
versus another direction,
anziché nell'altra,
to passengers or other drivers
per i passeggeri o per gli altri autisti,
a more complex calculation,
to involve trade-offs,
prevede una scelta,
"Well, let's not worry about this.
"Beh, non preoccupiamoci di questo.
is fully ready and 100 percent safe."
sarà pronta e al 100 percento sicura."
il 90 percento di questi incidenti,
eliminate 90 percent of those accidents,
nei prossimi 10 anni.
the last one percent of accidents
un per cento di questi incidenti
usare questa tecnologia?
dead in car accidents
in incidenti automobilistici
è anch'essa una scelta,
have been coming up with all sorts of ways
hanno trovato tutti i modi
the car should just swerve somehow
dovrebbe sterzare in qualche modo
that's what the car should do.
la macchina deve farlo.
in which this is not possible.
dove non è possibile.
was a suggestion by a blogger
è stato il suggerimento di un blogger
that you press --
che puoi premere --
will have to make trade-offs on the road,
debbano fare delle scelte in strada,
to find out what society wants,
un questionario su cosa vuole la società,
are a reflection of societal values.
dei valori della società.
che abbiamo fatto.
with these types of scenarios.
questi tipi di scenario.
inspired by two philosophers:
ispirate da due filosofi:
should follow utilitarian ethics:
seguire un'etica utilitaristica:
that will minimize total harm --
che minimizza il danno totale --
può uccidere un passante
ucciderà il passeggero.
will kill the passenger.
i principi dell'imperativo categorico,
should follow duty-bound principles,
that explicitly harms a human being,
che rechino palese danno
faccia il suo corso
è d'accordo con Bentham.
want cars to be utilitarian,
macchine utilitaristiche,
whether they would purchase such cars,
se avrebbero acquistato una macchina così,
"Assolutamente no".
that protect them at all costs,
che li proteggano ad ogni costo,
to buy cars that minimize harm.
acquistino auto che minimizzino i danni.
back in history.
un po' indietro nella storia.
published a pamphlet
ha pubblicato un opuscolo
for their sheep to graze.
dove pascolano le loro pecore.
brings a certain number of sheep --
un certo numero di pecore --
porta una pecora aggiuntiva,
and no one else will be harmed.
e nessun altro ne avrà un danno.
that individually rational decision,
questa razionale arbitraria decisione,
and it will be depleted
to the detriment of the sheep.
to mitigate climate change.
per mitigare il cambiamento climatico.
of driverless cars,
di veicoli a guida autonoma,
is basically public safety --
la sicurezza pubblica --
to ride in those cars.
di guidare questa macchine.
rational choice
arbitraria e razionale
diminishing the common good,
il bene comune,
of driverless cars,
dei veicoli a guida autonoma,
a little bit more insidious
un po' più insidioso
an individual human being
un essere umano
may simply program cars
potrebbero programmare le loro auto
for their clients,
la sicurezza dei loro clienti,
automatically on their own
imparare automaticamente, loro stesse,
leggermente il rischio per i pedoni.
increasing risk for pedestrians.
that have a mind of their own.
dotate di una propria mente.
even if the farmer doesn't know it.
senza che l'agricoltore lo sappia.
the tragedy of the algorithmic commons,
la tragedia degli "algoritmi comuni"
of social dilemmas using regulation,
di dilemmi sociali
or communities get together,
che le comunità si uniscono,
what kind of outcome they want
quale tipo di risultato vogliono
on individual behavior
sul comportamento individuale
che il bene pubblico sia preservato.
that the public good is preserved.
minimizzino il danno?
what people say they want.
che le persone dicono di volere.
sacrifice me in a very rare case,
che potrebbe sacrificarmi in rari casi,
enjoys unconditional protection.
la loro protezione incondizionata.
whether they would support regulation
abbiamo domandato alle persone
e abbiamo scoperto
said no to regulation;
hanno detto no alla regolamentazione;
and to minimize total harm,
a minimizzare il danno totale,
a minimizzare il danno
opt into the safer technology
non scegliere la tecnologia più sicura,
than human drivers.
degli autisti umani.
answer to this riddle,
a questo rompicapo,
we are comfortable with
con cui siamo più a nostro agio
in which we can enforce those trade-offs.
applicare questi compromessi.
my brilliant students,
i miei brillanti studenti,
della Macchina Morale,
of random dilemmas in a sequence
di dilemmi in sequenza
the car should do in a given scenario.
la macchina in uno specifico scenario.
the species of the different victims.
e anche la specie delle vittime.
over five million decisions
più di cinque milioni di decisioni
nel mondo
form an early picture
ad avere un'idea iniziale
people are comfortable with
le persone sono a loro agio,
is helping people recognize
le persone a riconoscere
è complesso
are tasked with impossible choices.
è incaricato di scelte impossibili.
understand the kinds of trade-offs
a riconoscere l'importanza delle decisioni
ultimately in regulation.
diventare regolamentazione.
felice di sentire
the Department of Transport --
for all carmakers to provide,
che ogni produttore di auto deve fornire,
una considerazione etica --
reflect on their own decisions
che riflettono sulle loro decisioni
of what they chose.
that this is not your typical example,
che non è il tipico esempio,
saved character for this person.
il più salvabile soggetto
essere d'accordo con lui,
prefer passengers over pedestrians
preferire i passeggeri ai pedoni,
chi attraversa distrattamente.
let's call it the ethical dilemma --
chiamiamolo, dilemma etico --
in a specific scenario:
in uno scenario specifico:
that the problem was a different one.
che il problema era differente.
society to agree on and enforce
far accettare alla società, e applicare
wrote his famous laws of robotics --
le sue famose leggi sulla robotica --
a un essere umano,
agli ordini degli esseri umani,
itself to come to harm --
la propria esistenza --
pushing these laws to the limit,
queste leggi fino ai massimi limiti,
may not harm humanity as a whole.
recare danno all'umanità intera.
in the context of driverless cars
nel contesto delle auto a guida autonoma
is not only a technological problem
delle auto a guida autonoma
di cooperazione sociale,
to ask the right questions.
iniziare a farci le giuste domande.
ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientistIyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.
Why you should listen
Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.
(Photo: Victoriano Izquierdo)
Iyad Rahwan | Speaker | TED.com