Iyad Rahwan: What moral decisions should driverless cars make?
Iyad Rahwan: Quais decisões morais os carros autônomos devem tomar?
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio
Double-click the English transcript below to play the video.
about technology and society.
sobre tecnologia e sociedade.
estimated that last year
estimou que, no ano passado,
from traffic crashes in the US alone.
de trânsito, somente nos EUA.
die every year in traffic accidents.
morrem por ano em acidentes de trânsito.
90 percent of those accidents,
90% desses acidentes, você a apoiaria?
promises to achieve
de carro autônomo promete realizar,
source of accidents --
de acidentes, o erro humano.
in a driverless car in the year 2030,
sem motorista, no ano de 2030,
this vintage TEDxCambridge video.
vintage do TEDxCambridge.
mecânica e não consegue parar.
and is unable to stop.
of pedestrians crossing the street,
que está atravessando a rua,
atingindo um transeunte,
and who should decide?
e quem deve decidir?
could swerve into a wall,
pudesse desviar para uma parede,
que é você, para salvar os pedestres?
by the trolley problem,
no problema do bonde,
by philosophers a few decades ago
décadas, para se refletir sobre ética.
about this problem matters.
nesse problema é importante.
not think about it at all.
simplesmente não pensar nisso.
misses the point
the scenario too literally.
de forma muito literal.
is going to look like this;
vai se parecer com esse;
to calculate something
vai fazer alguns cálculos,
a certain group of people,
um certo grupo de pessoas,
versus another direction,
numa ou noutra direção,
to passengers or other drivers
aos passageiros ou a outros motoristas,
a more complex calculation,
to involve trade-offs,
frequentemente requerem ética.
"Well, let's not worry about this.
nos preocupar com isso.
is fully ready and 100 percent safe."
totalmente desenvolvida e 100% segura".
eliminate 90 percent of those accidents,
eliminar 90% desses acidentes,
the last one percent of accidents
o último 1% dos acidentes
dead in car accidents
mortas em acidentes de carro,
total também é uma escolha,
have been coming up with all sorts of ways
aparecem com todo tipo de desculpas
the car should just swerve somehow
simplesmente passar entre os pedestres
that's what the car should do.
é o que o carro deve fazer.
in which this is not possible.
em que isso não é possível.
was a suggestion by a blogger
a sugestão de um blogueiro:
that you press --
no carro, que você pressiona,
will have to make trade-offs on the road,
terão que tomar decisões nas ruas,
to find out what society wants,
a posição da sociedade,
are a reflection of societal values.
um reflexo dos valores da sociedade.
Shariff, fizemos uma pesquisa
with these types of scenarios.
às pessoas esses tipos de cenários.
inspired by two philosophers:
inspiradas por dois filósofos:
should follow utilitarian ethics:
deveria seguir a ética prática:
that will minimize total harm --
e mesmo que isso mate o passageiro.
will kill the passenger.
should follow duty-bound principles,
deve seguir princípios morais,
that explicitly harms a human being,
especificamente um ser humano
mesmo que isso prejudique mais pessoas.
want cars to be utilitarian,
que os carros sejam práticos,
e é o que todos deveríamos fazer.
whether they would purchase such cars,
se comprariam esses carros,
that protect them at all costs,
carros que os protejam totalmente,
to buy cars that minimize harm.
os carros que minimizem os danos.
back in history.
published a pamphlet
Forster Lloyd publicou um folheto
for their sheep to graze.
para suas ovelhas pastarem.
brings a certain number of sheep --
um certo número de ovelhas,
a terra seria revitalizada,
ficariam felizes,
trouxesse uma ovelha a mais,
and no one else will be harmed.
e ninguém mais seria prejudicado.
that individually rational decision,
tomasse essa decisão racional,
and it will be depleted
e, naturalmente, das ovelhas.
to the detriment of the sheep.
a pesca excessiva,
to mitigate climate change.
para mitigar as mudanças climáticas.
of driverless cars,
de carros autônomos,
is basically public safety --
a segurança pública, que é o bem comum,
to ride in those cars.
usar aquele tipo de veículo.
rational choice
de priorizar sua própria segurança,
diminishing the common good,
depreciando o bem comum,
chamado de tragédia compartilhada,
of driverless cars,
dos carros autônomos,
a little bit more insidious
um pouco mais capcioso,
an individual human being
necessariamente um ser humano
may simply program cars
simplesmente programar os carros
for their clients,
a segurança de seus clientes,
automatically on their own
aprender por conta própria
increasing risk for pedestrians.
ligeiramente maior para os pedestres.
that have a mind of their own.
elétrica tomando decisões próprias.
even if the farmer doesn't know it.
sem o agricultor saber.
the tragedy of the algorithmic commons,
dos algorítmicos compartilhados,
of social dilemmas using regulation,
sociais com a regulamentação,
or communities get together,
ou as próprias comunidades,
what kind of outcome they want
on individual behavior
individuais são necessárias.
that the public good is preserved.
a preservação do bem público.
como regulamentadores,
minimizem os prejuízos?
what people say they want.
ter certeza que, como indivíduo,
sacrifice me in a very rare case,
me prejudicar muito raramente,
enjoys unconditional protection.
teriam proteção incondicional.
whether they would support regulation
apoiariam a regulamentação
said no to regulation;
elas disseram não à regulamentação;
and to minimize total harm,
para fazer isso e minimizar danos totais,
para minimizarem os danos,
opt into the safer technology
não optar pela tecnologia mais segura,
than human drivers.
que motoristas humanos.
answer to this riddle,
definitiva para este enigma,
de uma resposta da sociedade,
we are comfortable with
os compromissos mais adequados
in which we can enforce those trade-offs.
de impor esses compromissos.
my brilliant students,
meus alunos brilhantes,
criaram o site chamado Moral Machine,
of random dilemmas in a sequence
aleatórios em sequência,
the car should do in a given scenario.
o carro deve tomar numa certa situação.
the species of the different victims.
os tipos das diferentes vítimas.
over five million decisions
mais de 5 milhões de respostas,
de pessoas no mundo todo,
form an early picture
a formar um quadro inicial
people are comfortable with
mesmo em outras culturas.
is helping people recognize
é ajudar as pessoas a reconhecer
are tasked with impossible choices.
com essas alternativas impossíveis.
understand the kinds of trade-offs
a entender os tipos de compromissos
ultimately in regulation.
que o primeiro conjunto de regulamentos,
the Department of Transport --
de Transportes, na semana passada,
for all carmakers to provide,
ética, de como se vai lidar com isso.
reflect on their own decisions
sobre suas próprias decisões,
of what they chose.
de suas próprias escolhas.
that this is not your typical example,
um exemplo de um usuário típico.
saved character for this person.
e mais salvo para essa pessoa.
prefer passengers over pedestrians
ligeiramente passageiros do que pedestres
pedestres imprudentes.
let's call it the ethical dilemma --
vamos chamá-la de dilema ético,
in a specific scenario:
fazer num cenário específico:
that the problem was a different one.
que o problema é diferente.
society to agree on and enforce
que a sociedade concorde e respeite
confortáveis. É um dilema social.
wrote his famous laws of robotics --
escreveu suas famosas leis da robótica,
desobedecer um ser humano,
itself to come to harm --
pushing these laws to the limit,
levando essas leis ao limite,
may not harm humanity as a whole.
não pode fazer mal à humanidade.
in the context of driverless cars
no contexto dos carros autônomos,
mas acredito que, ao reconhecer
is not only a technological problem
não é apenas um problema tecnológico,
de cooperação social,
to ask the right questions.
a fazer as perguntas certas.
ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientistIyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.
Why you should listen
Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.
(Photo: Victoriano Izquierdo)
Iyad Rahwan | Speaker | TED.com