Zeynep Tufekci: We're building a dystopia just to make people click on ads
Zeynep Tufekci: Estamos construyendo una distopía solo para que la gente cliquee en los anuncios
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
of artificial intelligence,
por la inteligencia artificial,
of humanoid robots run amok.
de robots humanoides enloquecidos.
something to consider,
por la vigilancia electrónica
for the 21st century.
correcta para el siglo XXI.
will do to us on its own,
nos hará por sí misma,
will use artificial intelligence
usará la inteligencia artificial
and our dignity in the near-term future
y dignidad en un futuro cercano
and selling our data and our attention
nuestra información y nuestra atención
bolstering their business as well.
a respaldar esos negocios también.
like artificial intelligence
a los anuncios en línea.
of many areas of study and research.
de estudio e investigación.
a famous Hollywood philosopher,
filósofo hollywoodense,
comes prodigious risk."
viene con un enorme riesgo".
of our digital lives, online ads.
de nuestra vida digital: los anuncios.
of being followed on the web
de ser perseguidos en la web
we searched or read.
que buscamos o leímos.
you around everywhere you go.
te siguen a todos lados donde vayas.
they're still following you around.
a comprarlas, te continúan siguiendo.
of basic, cheap manipulation.
de manipulación simple y barata.
"You know what? These things don't work."
"¿Sabes qué? Esto no funciona".
no son solo anuncios.
let's think of a physical world example.
en un ejemplo del mundo físico.
at supermarkets, near the cashier,
del supermercado, cerca del cajero,
at the eye level of kids?
a la altura de los ojos de los niños?
whine at their parents
rogar a sus padres
are about to sort of check out.
in every supermarket.
es un poco limitada,
are kind of limited,
so many things by the cashier. Right?
unas cuantas cosas cerca de la caja, ¿no?
it's the same for everyone,
son iguales para todos,
whiny little humans beside them.
de personitas caprichosas.
we live with those limitations.
vivimos con esas limitantes.
can be built at the scale of billions
pueden tener miles de millones de opciones
to everyone's phone private screen,
a la pantalla personal de cada teléfono,
that artificial intelligence can do.
la inteligencia artificial.
boletos de avión a Las Vegas.
plane tickets to Vegas. Right?
of some demographics to target
a ciertos sectores demográficos
and what you can guess.
y lo que podían suponer.
a high limit on their credit card,
en la tarjeta de crédito,
that Facebook has on you:
que Facebook tiene sobre Uds.:
que jamás hayan escrito,
that you uploaded there.
and change your mind and delete it,
porque cambiaron de opinión;
and analyzes them, too.
to match you with your offline data.
a los datos de tu vida fuera de línea.
a lot of data from data brokers.
de los corredores de datos.
from your financial records
desde registros financieros
de tu historial de búsqueda.
such data is routinely collected,
son habitualmente recolectados,
these machine-learning algorithms --
esos algoritmos de aprendizaje automático,
learning algorithms --
algoritmos de aprendizaje,
the characteristics of people
las características de la gente
a Las Vegas anteriormente.
de los datos existentes,
how to apply this to new people.
a un nuevo grupo de gente.
con una persona nueva,
is likely to buy a ticket to Vegas or not.
compraría un boleto a Las Vegas o no.
an offer to buy tickets to Vegas.
boletos a Las Vegas... Puedo ignorarlo".
how these complex algorithms work.
cómo funcionan estos algoritmos complejos.
how they're doing this categorization.
thousands of rows and columns,
miles de filas y columnas,
how exactly it's operating
what I was thinking right now
lo que estoy pensado en este momento
a cross section of my brain.
una disección de mi cerebro.
that we don't truly understand.
que no comprendemos totalmente.
if there's an enormous amount of data,
con una enorme cantidad de datos,
deep surveillance on all of us
vigilancia profunda de todos nosotros
de aprendizaje funcionen.
algorithms can work.
todos los datos que pueda sobre Uds.
to collect all the data it can about you.
con el ejemplo de Las Vegas.
that we do not understand
que no entendemos
to sell Vegas tickets
venderle boletos a Las Vegas
and about to enter the manic phase.
en un episodio maníaco?
overspenders, compulsive gamblers.
y a apostar compulsivamente.
that's what they were picking up on.
ni idea de que se fijaron en eso.
to a bunch of computer scientists once
de científicos de la computación
"That's why I couldn't publish it."
"Por eso no pude publicarlo".
figure out the onset of mania
se podría predecir el arranque maníaco
before clinical symptoms,
antes de los síntomas clínicos,
or what it was picking up on.
o qué había descubierto.
if he doesn't publish it,
si él no lo publica,
this kind of technology,
este tipo de tecnología,
is just off the shelf.
ya están a la venta.
meaning to watch one video
para ver un video en específico
has this column on the right
una columna a la derecha
y que quizá no encuentren por sí mismos.
that you might be interested in
and what people like you have watched,
y lo que la gente como Uds. ha mirado,
what you're interested in,
lo que les interesa,
and useful feature,
of then-candidate Donald Trump
del entonces candidato Donald Trump
the movement supporting him.
el movimiento que lo apoyaba.
so I was studying it, too.
así que por eso lo estudiaba también.
about one of his rallies,
sobre uno de sus actos,
white supremacist videos
de supremacistas blancos
or Bernie Sanders content,
Hillary Clinton o Bernie Sanders,
and autoplays conspiracy left,
conspiraciones de izquierda,
this is politics, but it's not.
que se trata de política, pero no.
figuring out human behavior.
entendiendo la conducta humana.
about vegetarianism on YouTube
sobre el vegetarianismo en YouTube
and autoplayed a video about being vegan.
un video sobre veganismo.
hardcore enough for YouTube.
extremo para YouTube.
show them something more hardcore,
mostrarles algo más extremo,
going down that rabbit hole
adentrándose en el agujero de conejo
the ethics of the store,
la ética de la tienda,
anti-Semitic content,
antisemita explícito,
anti-Semitic content on their profile
antisemita explícito en su perfil,
may be susceptible to such messages,
como susceptible a esos mensajes,
like an implausible example,
como un ejemplo inverosímil,
do this on Facebook,
se puede hacer esto en Facebook,
offered up suggestions
nos ofreció sugerencias
and very quickly they found,
que se puede hacer en Google también.
spent about 30 dollars
gastó alrededor de 30 dólares
social media manager disclosed
de Donald Trump reveló
to demobilize people,
en Facebook para desmovilizar gente.
they targeted specifically,
se dirigieron a grupos específicos,
in key cities like Philadelphia,
en ciudades clave como Filadelfia,
exactly what he said.
we want to see it see it.
que queremos pueda verlas".
to turn these people out."
de ella para llevar votantes a las urnas".
de página oculta?
arranges the posts
con un algoritmo las publicaciones
or the pages you follow.
o las páginas que seguimos.
everything chronologically.
that the algorithm thinks will entice you
piensa que nos va a persuadir
somebody is snubbing you on Facebook.
los está desairando en Facebook.
be showing your post to them.
les muestra su publicación a ellos.
some of them and burying the others.
algunas publicaciones e ignora otras.
can affect your emotions.
para mostrar, puede afectar las emociones.
a mitad de legislatura,
on 61 million people in the US
con 61 millones de personas en EE. UU.
"Today is election day,"
la publicación "Hoy es día de votación",
the one with that tiny tweak
la que tiene esa pequeña modificación,
fueron el único cambio,
que fue mostrada solo una vez
they repeated the same experiment.
US presidential election
presidencial de 2016 en EE. UU.
very easily infer what your politics are,
muy fácilmente sus opiniones políticas,
disclosed them on the site.
can do that quite easily.
lograrlo de manera sencilla.
con ese tipo de poder
of one candidate over the other?
para un candidato y no para el otro?
seemingly innocuous --
aparentemente inocuo,
siguiéndonos a todas partes,
if we're seeing the same information
la misma información
se está volviendo imposible,
the beginning stages of this.
en las etapas iniciales de esto.
las ideas religiosas y políticas,
personality traits,
use of addictive substances,
el uso de sustancias adictivas,
la edad y género,
identificar manifestantes
are partially concealed.
parcialmente cubiertas.
to detect people's sexual orientation
la orientación sexual de la gente
to be 100 percent right,
the temptation to use these technologies
de usar estas tecnologías
some false positives,
a whole other layer of problems.
otra oleada de problemas.
it has on its citizens.
que tiene de sus ciudadanos.
face detection technology
tecnología de detección de rostros
of surveillance authoritarianism
de vigilancia y autoritarismo
más clics en los anuncios.
Orwell's authoritarianism.
is using overt fear to terrorize us,
el miedo para aterrorizarnos,
pero lo sabremos,
are using these algorithms
está usando estos algoritmos
the troublemakers and the rebels,
a los agitadores y a los rebeldes,
architectures at scale
de persuasión a escala
weaknesses and vulnerabilities,
personales e individuales de cada uno,
and neighbors are seeing,
compañeros ciudadanos y vecinos,
will envelop us like a spider's web
como una telaraña
que estamos en ella.
de mercado de Facebook
as a persuasion architecture.
como arquitectura de persuasión.
utilizados en nosotros
a los anuncios,
personal and social information flows,
de información política, social y personal
because they provide us with great value.
porque nos ofrecen muchísimo.
with friends and family around the world.
con amigos y familia alrededor del mundo.
social media is for social movements.
las redes para los movimientos sociales.
these technologies can be used
usarse estas tecnologías
you know, Facebook or Google
que administra Facebook o Google
or the world more polarized
well-intentioned statements
bien intencionadas afirmaciones
people in technology make that matter,
ni las afirmaciones lo que importa,
and business models they're building.
que están construyendo.
of half a trillion dollars
de medio billón de dólares,
as a persuasion architecture,
arquitectura de persuasión,
is of great concern.
es altamente preocupante.
digital technology operates.
nuestra tecnología digital.
technology is developed
en que se desarrolla la tecnología
economic and otherwise,
económicos y demás,
con la falta de transparencia
created by the proprietary algorithms,
of machine learning's opacity,
del aprendizaje automático,
that's being collected about us.
recolectados indiscriminadamente.
artificial intelligence
inteligencia artificial
by our human values.
por nuestros valores humanos.
on what those terms mean.
qué significan esos términos.
depend on for so much operate,
de los que dependemos para tantas cosas,
this conversation anymore.
posponiendo esta conversación.
financiadas por anuncios
that we are the product that's being sold.
que nosotros somos el producto de venta.
authoritarian or demagogue.
o demagogo que pague más.
that Hollywood paraphrase,
a la paráfrasis de Hollywood:
and digital technology to blossom,
y la tecnología digital florezca,
this prodigious menace,
esta enorme amenaza,
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com