Iyad Rahwan: What moral decisions should driverless cars make?
Iyad Rahwan: ¿Qué decisiones morales deberían tomar los vehículos autónomos?
Iyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence. Full bio
Double-click the English transcript below to play the video.
about technology and society.
y de la sociedad.
estimated that last year
estimó que, el año pasado,
from traffic crashes in the US alone.
en accidentes de auto, tan solo en EE.UU.
die every year in traffic accidents.
de personas por año en accidentes de auto.
90 percent of those accidents,
el 90 % de esos accidentes,
promises to achieve
la tecnología de vehículos autónomos,
source of accidents --
de accidentes:
in a driverless car in the year 2030,
viajando en un vehículo autónomo,
this vintage TEDxCambridge video.
de un evento TEDxCambridge.
and is unable to stop.
y no puede detenerse.
of pedestrians crossing the street,
de peatones que cruza la calle.
and who should decide?
y quién debería decidir?
could swerve into a wall,
pudiera irse contra una pared,
by the trolley problem,
en el dilema del tranvía,
by philosophers a few decades ago
hace unas décadas
about this problem matters.
cómo pensamos en este problema.
not think about it at all.
no pensar en esto en absoluto.
es poco realista,
o simplemente absurda.
misses the point
pierde de vista el problema,
the scenario too literally.
muy al pie de la letra.
is going to look like this;
es exactamente así;
to calculate something
es que el auto va a calcular algo,
a certain group of people,
a un determinado grupo de personas
versus another direction,
to passengers or other drivers
de los pasajeros y conductores,
a more complex calculation,
to involve trade-offs,
hacer concesiones,
requieren una ética.
"Well, let's not worry about this.
no nos preocupemos por esto.
is fully ready and 100 percent safe."
totalmente preparada y sea 100 % segura".
eliminate 90 percent of those accidents,
eliminar el 90 % de esos accidentes,
the last one percent of accidents
de los accidentes restante
dead in car accidents
de muertos en accidentes de auto
también es una elección
have been coming up with all sorts of ways
ha estado proponiendo todo tipo de ideas
the car should just swerve somehow
debería zigzaguear de alguna forma
that's what the car should do.
de hacer eso, debería hacerlo.
in which this is not possible.
donde esto no es posible.
was a suggestion by a blogger
that you press --
que se presiona justo antes...
will have to make trade-offs on the road,
van a tener que hacer concesiones,
to find out what society wants,
y ver qué quiere la sociedad,
are a reflection of societal values.
son el reflejo de los valores sociales.
with these types of scenarios.
este tipo de situaciones.
inspired by two philosophers:
inspiradas en dos filósofos:
should follow utilitarian ethics:
debería seguir la ética del utilitarismo:
that will minimize total harm --
que minimice el daño total,
will kill the passenger.
should follow duty-bound principles,
debería seguir la ética del deber,
that explicitly harms a human being,
que implique hacerle daño a un ser humano,
want cars to be utilitarian,
que los autos sean utilitarios,
whether they would purchase such cars,
si comprarían estos autos,
that protect them at all costs,
que los proteja a ellos a toda costa,
to buy cars that minimize harm.
que minimicen el daño.
back in history.
un poco en la historia.
published a pamphlet
publicó un folleto
for their sheep to graze.
donde pastan sus ovejas.
brings a certain number of sheep --
trae una cierta cantidad de ovejas,
trae una oveja extra,
and no one else will be harmed.
y nadie más va a salir perjudicado.
that individually rational decision,
individualmente racional,
and it will be depleted
y el pasto se agotaría,
to the detriment of the sheep.
en detrimento de las ovejas.
controlar la sobrepesca,
to mitigate climate change.
para contrarrestar el cambio climático.
of driverless cars,
de vehículos autónomos,
is basically public safety --
básicamente la seguridad pública;
to ride in those cars.
eligen viajar en esos vehículos.
rational choice
individualmente racional
diminishing the common good,
colectivamente el bien común,
of driverless cars,
de los vehículos autónomos,
a little bit more insidious
un poquito más traicionero
an individual human being
un ser humano
may simply program cars
simplemente programar los autos
for their clients,
de sus clientes.
automatically on their own
automáticamente y por su cuenta,
increasing risk for pedestrians.
levemente el riesgo de los peatones.
that have a mind of their own.
ovejas eléctricas que piensan solas.
even if the farmer doesn't know it.
aunque el pastor no lo sepa.
the tragedy of the algorithmic commons,
"la tragedia de los comunes algorítmicos",
of social dilemmas using regulation,
se resuelven implementando regulación.
or communities get together,
o la comunidad, se juntan
what kind of outcome they want
qué resultado quieren obtener,
on individual behavior
a la conducta individual
y la imposición de normas,
that the public good is preserved.
la preservación del bien común.
tienen que minimizar el daño?
what people say they want.
lo que la gente dice que quiere.
sacrifice me in a very rare case,
muy extremo podría llegar a sacrificarme,
enjoys unconditional protection.
gozan de protección ilimitada.
whether they would support regulation
acerca de la idea de la regulación,
said no to regulation;
"no" a la regulación;
and to minimize total harm,
para actuar así y minimizar el daño total,
para minimizar el daño,
opt into the safer technology
esta nueva tecnología
than human drivers.
que los conductores humanos.
answer to this riddle,
a este acertijo,
se ponga de acuerdo
we are comfortable with
que está dispuesta a aceptar,
in which we can enforce those trade-offs.
de imponer esas concesiones.
my brilliant students,
mis brillantes alumnos,
situaciones hipotéticas al azar;
of random dilemmas in a sequence
aleatoria de dilemas
the car should do in a given scenario.
qué debería hacer el auto en cada caso.
the species of the different victims.
de las distintas víctimas.
over five million decisions
más de 5 millones de decisiones,
en todo el mundo
form an early picture
a pintar un panorama inicial
people are comfortable with
que la gente está dispuesta a hacer
is helping people recognize
a la gente a comprender
are tasked with impossible choices.
se enfrentan con decisiones imposibles.
understand the kinds of trade-offs
a entender el tipo de concesiones
ultimately in regulation.
en última instancia, como normativa.
the Department of Transport --
for all carmakers to provide,
que deben presentar los fabricantes,
es "consideraciones éticas";
reflect on their own decisions
puede reflexionar sobre sus decisiones
of what they chose.
de las opciones que eligieron.
that this is not your typical example,
saved character for this person.
más salvó y más sacrificó.
prefer passengers over pedestrians
más a favor del pasajero que del peatón,
en castigar al peatón imprudente.
let's call it the ethical dilemma --
llamémosle dilema ético,
in a specific scenario:
en una situación específica:
that the problem was a different one.
de que el problema es otro.
society to agree on and enforce
se ponga de acuerdo
y cómo imponerlas.
wrote his famous laws of robotics --
sus famosas leyes de la robótica;
itself to come to harm --
pushing these laws to the limit,
que llevaron estas leyes al límite,
may not harm humanity as a whole.
no hará daño a la Humanidad.
in the context of driverless cars
en el contexto de los vehículos autónomos,
is not only a technological problem
no es solo un problema tecnológico
de cooperación social,
to ask the right questions.
a hacer las preguntas adecuadas.
ABOUT THE SPEAKER
Iyad Rahwan - Computational social scientistIyad Rahwan's work lies at the intersection of the computer and social sciences, with a focus on collective intelligence, large-scale cooperation and the social aspects of artificial intelligence.
Why you should listen
Iyad Rahwan is the AT&T Career Development Professor and an associate professor of media arts & sciences at the MIT Media Lab, where he leads the Scalable Cooperation group. A native of Aleppo, Syria, Rahwan holds a PhD. from the University of Melbourne, Australia and is an affiliate faculty at the MIT Institute of Data, Systems and Society (IDSS). He led the winning team in the US State Department's Tag Challenge, using social media to locate individuals in remote cities within 12 hours using only their mug shots. Recently he crowdsourced 30 million decisions from people worldwide about the ethics of AI systems. Rahwan's work appeared in major academic journals, including Science and PNAS, and features regularly in major media outlets, including the New York Times, The Economist and the Wall Street Journal.
(Photo: Victoriano Izquierdo)
Iyad Rahwan | Speaker | TED.com