Zeynep Tufekci: Machine intelligence makes human morals more important
Zeynep Tufekci: La inteligencia artificial hace que la moral humana sea más importante
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
as a computer programmer
como programadora informática
came down to where I was,
bajó a donde yo estaba,
And why are we whispering?"
¿Y por qué estamos susurrando?"
at the computer in the room.
en la habitación.
an affair with the receptionist.
una aventura con la recepcionista.
if you're lying."
si Ud. está mintiendo".
the laugh's on me.
en realidad, me reía de mí.
emotional states and even lying
estados emocionales e incluso mentir
de rostros humanos.
are very interested.
hay gobiernos muy interesados.
programadora informática
crazy about math and science.
locas por las matemáticas y la ciencia.
aprendido sobre las armas nucleares,
I'd learned about nuclear weapons,
with the ethics of science.
preocuparme por la ética de la ciencia.
por circunstancias familiares,
as soon as possible.
a trabajar lo antes posible.
let me pick a technical field
vamos a elegir un campo técnico
with any troublesome questions of ethics.
con preguntas molestas sobre ética.
All the laughs are on me.
Todas las risas a mi costa.
are building platforms
construyen plataformas
people see every day.
de personas ven todos los días.
that could decide who to run over.
podrían decidir a quién atropellar.
máquinas, armas,
a seres humanos en la guerra.
to make all sort of decisions,
para tomar todo tipo de decisiones,
que no tienen respuestas
that have no single right answers,
por ser subjetivas
should you be shown?"
debe mostrarse?"
likely to reoffend?"
más probabilidades de reincidir?"
should be recommended to people?"
se deben recomendar a la gente?"
computers for a while,
computadoras hace tiempo,
for such subjective decisions
para este tipo de decisiones subjetivas
for flying airplanes, building bridges,
pilotar aviones, construir puentes
Did the bridge sway and fall?
¿Se balanceó el puente y cayó?
fairly clear benchmarks,
de referencia bastante claros,
la naturaleza que nos guían.
y puntos de referencia
humanas desordenadas.
our software is getting more powerful,
nuestro software es cada vez más potente,
transparent and more complex.
menos transparente y más complejo.
have made great strides.
han hecho grandes progresos.
el fraude de tarjetas de crédito
en imágenes médicas.
en el ajedrez y en el go.
from a method called "machine learning."
método llamado "aprendizaje automático".
diferente a la programación tradicional,
than traditional programming,
detailed, exact, painstaking instructions.
exactas, detalladas y meticulosas.
and you feed it lots of data,
con una gran cantidad de datos,
in our digital lives.
en nuestras vidas digitales.
by churning through this data.
under a single-answer logic.
bajo una lógica de una sola respuesta.
it's more probabilistic:
es más probabilístico:
what you're looking for."
a lo que estás buscando".
este método es muy potente.
this method is really powerful.
artificial de Google lo llama:
what the system learned.
lo que aprendió el sistema.
instructions to a computer;
a una computadora;
a puppy-machine-creature
de una criatura cachorro máquina
un problema cuando el sistema
intelligence system gets things wrong.
hace cosas erróneas.
when it gets things right,
cuando hace bien las cosas,
cuando se trata de un problema subjetivo.
when it's a subjective problem.
un algoritmo de contratación,
using machine-learning systems.
usa sistemas de aprendizaje automático.
on previous employees' data
con anteriores datos de empleados
de encontrar y contratar
high performers in the company.
existentes en la empresa.
de recursos humanos y ejecutivos,
human resources managers and executives,
en la contratación.
more objective, less biased,
más objetiva, menos tendenciosa,
and minorities a better shot
mejores oportunidades
humanos tendenciosos.
as a programmer,
trabajos como programadora,
come down to where I was
allí donde yo estaba
or really late in the afternoon,
o muy tarde por la tarde,
let's go to lunch!"
momento extraño de preguntar.
ante un almuerzo gratis, siempre fui.
de lo que estaba ocurriendo.
had not confessed to their higher-ups
confesado a sus altos mandos
un trabajo serio era una adolescente
for a serious job was a teen girl
y zapatillas de deporte en el trabajo.
solo que no encajaba
I just looked wrong
independiente del género y de la raza
it is more complicated, and here's why:
es más complicado, y he aquí por qué:
can infer all sorts of things about you
deducir todo tipo de cosas sobre Uds.
disclosed those things.
with high levels of accuracy.
con altos niveles de precisión.
ni siquiera han dado a conocer.
you haven't even disclosed.
such computational systems
este tipo de sistemas informáticos
of clinical or postpartum depression
de depresión clínica o posparto
the likelihood of depression
la probabilidad de depresión
de cualquier síntoma,
for early intervention. Great!
la intervención temprana. ¡Estupendo!
contexto de la contratación.
managers conference,
de recursos humanos,
in a very large company,
de una empresa muy grande,
what if, unbeknownst to you,
sin su conocimiento,
with high future likelihood of depression?
alta probabilidad futura de la depresión?
just maybe in the future, more likely.
quizá en el futuro, sea probable.
probabilidades de estar embarazadas
more likely to be pregnant
pero no está embarazada ahora?
but aren't pregnant now?
because that's your workplace culture?"
porque esa es su cultura de trabajo?"
at gender breakdowns.
mirando un desglose por sexos.
no la programación tradicional,
not traditional coding,
labeled "higher risk of depression,"
como "mayor riesgo de depresión",
what your system is selecting on,
su sistema selecciona,
where to begin to look.
por dónde empezar a buscar.
but you don't understand it.
pero uno no lo entiende.
isn't doing something shady?"
no hace algo perjudicial?"
just stepped on 10 puppy tails.
de romper algo valioso.
another word about this."
isn't my problem, go away, death stare.
mi problema, vete, encara la muerte.
puede ser incluso menos sesgado
may even be less biased
en algunos aspectos.
shutting out of the job market
del mercado de trabajo
con mayor riesgo de depresión.
la que queremos construir,
we want to build,
to machines we don't totally understand?
de máquinas que no entendemos totalmente?
on data generated by our actions,
entrenados con datos generados
por huellas humanas.
reflecting our biases,
nuestros prejuicios,
could be picking up on our biases
de nuestros prejuicios
neutral computation."
que en Google las mujeres tienen
to be shown job ads for high-paying jobs.
de trabajo bien remunerados.
suggesting criminal history,
que sugieren antecedentes penales,
and black-box algorithms
y algoritmos de la caja negra
but sometimes we don't know,
a veces, pero a veces no,
que cambian la vida.
was sentenced to six years in prison
fue condenado a seis años de prisión
se usan cada vez más
in parole and sentencing decisions.
libertad condicional y de sentencia.
How is this score calculated?
¿Cómo se calcula la puntuación?
be challenged in open court.
su algoritmo en audiencia pública.
no lucrativa de investigación,
nonprofit, audited that very algorithm
con los datos públicos que encontró,
estaban sesgados
was dismal, barely better than chance,
apenas mejor que el azar,
black defendants as future criminals
acusados negros como futuros criminales
que a los acusados blancos.
picking up her godsister
recoger a la hija de su madrina
el condado de Broward, Florida,
with a friend of hers.
and a scooter on a porch
y una moto en un porche
a woman came out and said,
una mujer salió y dijo,
but they were arrested.
pero fueron detenidas.
but she was also just 18.
pero también tenía solo 18 años.
for shoplifting in Home Depot --
por hurto en Home Depot,
a similar petty crime.
un delito menor similar.
armed robbery convictions.
por robo a mano armada.
as high risk, and not him.
a ella como de alto riesgo, y no a él.
que ella no había vuelto a delinquir.
that she had not reoffended.
con sus antecedentes registrados.
for her with her record.
prison term for a later crime.
de prisión por un delito posterior.
auditar nuestras cajas negras
this kind of unchecked power.
este tipo de poder sin control.
but they don't solve all our problems.
pero no resuelven todos los problemas.
news feed algorithm --
de noticias de Facebook,
and decides what to show you
for engagement on the site:
que se participe en el sitio:
y con Comentarios.
en Ferguson, Missouri,
teenager by a white police officer,
afroestadounidense por un policía blanco,
unfiltered Twitter feed,
algorítmicamente sin filtrar
quiere seguir manteniéndonos
keeps wanting to make you
were talking about it.
estaban hablando de ello.
wasn't showing it to me.
this was a widespread problem.
que era un problema generalizado.
wasn't algorithm-friendly.
compatible con el algoritmo.
to even fewer people,
mostrarse a aún menos personas,
oportunidad de ver esto.
el desafío del cubo de hielo.
donate to charity, fine.
donar a la caridad, bien.
con el algoritmo.
esta decisión por nosotros.
but difficult conversation
muy importante pero difícil
can also be wrong
pueden también equivocarse
de inteligencia artificial de IBM
IBM's machine-intelligence system
with human contestants on Jeopardy?
humanos en Jeopardy?
a Watson se le hizo esta pregunta:
Watson was asked this question:
de un héroe de la 2ª Guerra Mundial,
for a World War II hero,
for a World War II battle."
de la 2ª Guerra Mundial".
answered "Toronto" --
respondió "Toronto"
también cometió un error
a second-grader wouldn't make.
un estudiante de segundo grado tampoco.
los patrones de error de los humanos,
error patterns of humans,
and be prepared for.
y para las que no estamos preparados.
one is qualified for,
una vez que uno se cualifica para ello,
if it was because of stack overflow
si fue por un desbordamiento de pila
fueled by a feedback loop
por un circuito de retroalimentación
of value in 36 minutes.
lo que significa "error"
what "error" means
autonomous weapons.
las armas autónomas letales.
hemos tenido prejuicios.
en la actualidad, en la guerra...
but that's exactly my point.
es exactamente mi tema.
these difficult questions.
a estas preguntas difíciles.
our responsibilities to machines.
responsabilidad a las máquinas.
a "Get out of ethics free" card.
no nos da una tarjeta libre de ética.
llama "mathwashing" o lavado matemático.
calls this math-washing.
scrutiny and investigation.
de sospecha, escrutinio e investigación.
algorithmic accountability,
responsabilidad algorítmica,
that bringing math and computation
las matemáticas y la computación
desordenados y cargados de valores
invades the algorithms.
humanos invaden los algoritmos.
usar la computación
to our moral responsibility to judgment,
nuestra responsabilidad moral de juicio,
and outsource our responsibilities
y delegar nuestras responsabilidades
ajustarla cada vez más
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com