Zeynep Tufekci: We're building a dystopia just to make people click on ads
Zeynep Tufekci: Estem construint una distòpia només per fer que la gent cliqui anuncis.
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
of artificial intelligence,
a la intel·ligència artificial,
of humanoid robots run amok.
robots humanoides fora de control.
something to consider,
en consideraciò,
dels més venuts.
for the 21st century.
pel segle XXI.
will do to us on its own,
ens farà per si sola,
will use artificial intelligence
emprarà la intel·ligència artificial
and our dignity in the near-term future
i la nostra dignitat en un futur proper
and selling our data and our attention
la nostra informació i la nostra atenció
bolstering their business as well.
també ha començat a reforçar-se.
like artificial intelligence
que la intel·ligència artificial
of many areas of study and research.
sobre moltes àrees d'estudi i recerca.
a famous Hollywood philosopher,
de Hollywood,
comes prodigious risk."
porta un risc prodigiós."
of our digital lives, online ads.
vides digitals, els anuncis en línea.
of being followed on the web
de ser seguits per la web
we searched or read.
que buscàrem o llegírem.
you around everywhere you go.
et segueixen per tot arreu.
they're still following you around.
i comprar-les, encara et segueixen.
of basic, cheap manipulation.
a aquesta manipulació bàsica i barata.
"You know what? These things don't work."
"Saps què? Aquestes coses no funcionen."
no només són anuncis.
let's think of a physical world example.
un exemple del món físic.
at supermarkets, near the cashier,
dels supermercats, devora el caixer,
at the eye level of kids?
a l'alçada visual dels nens?
whine at their parents
demanin als pares
are about to sort of check out.
estàn acabant de pagar.
in every supermarket.
are kind of limited,
són limitades,
so many things by the cashier. Right?
de coses al costat del caixer, no?
it's the same for everyone,
són iguals per a tothom,
whiny little humans beside them.
i consentits al seu costat.
we live with those limitations.
vivim amb aquestes limitacions.
can be built at the scale of billions
es construeixen en magnituts de bilions
to everyone's phone private screen,
de qualsevol mòbil,
that artificial intelligence can do.
que la intel·ligència artificial fa.
plane tickets to Vegas. Right?
bitllets d'avió a Las Vegas.
of some demographics to target
alguns sectors demogràfics que abordar
and what you can guess.
i en el que pots adivinar.
a high limit on their credit card,
a la targeta de crèdit,
i l'aprenentatge automàtic,
that Facebook has on you:
que Facebook té de tu:
que hagis teclejat,
that you uploaded there.
and change your mind and delete it,
i canvies d'opinió i ho esborres,
and analyzes them, too.
to match you with your offline data.
amb la teva informació fora de línea.
a lot of data from data brokers.
dels recol·lectors d'informació.
from your financial records
des del teu historial financer
such data is routinely collected,
és recopilada rutinàriament,
these machine-learning algorithms --
els algoritmes d'aprenentatge automàtic --
learning algorithms --
algoritmes d'aprenentatge --
the characteristics of people
les característiques de la gent
bitllets a Las Vegas anteriorment.
how to apply this to new people.
a aplicar-ho a gent nova.
amb una persona nova,
is likely to buy a ticket to Vegas or not.
persona compri bitllets a Las Vegas o no.
an offer to buy tickets to Vegas.
per comprar bitllets a Las Vegas,
how these complex algorithms work.
aquests algoritmes tan complexes.
how they're doing this categorization.
aquesta categorització.
thousands of rows and columns,
milers de files i columnes,
how exactly it's operating
what I was thinking right now
del que ara estic pensant
a cross section of my brain.
representativa del meu cervell.
that we don't truly understand.
que ja no acabem d'entendre.
if there's an enormous amount of data,
hi ha una enorme quantitat d'informació,
deep surveillance on all of us
que ens vigilin a tots minuciosament,
algorithms can work.
funcionin.
to collect all the data it can about you.
tota la informació que pugui.
de Las Vegas una mica.
that we do not understand
to sell Vegas tickets
vendre bitllets a Las Vegas
and about to enter the manic phase.
en fase de mania?
overspenders, compulsive gamblers.
malgastadora, jugadors compulsius.
that's what they were picking up on.
ni idea que s'estan basant en això.
to a bunch of computer scientists once
aquest exemple a un grup d'informàtics
"That's why I couldn't publish it."
"Per això no ho podia publicar."
figure out the onset of mania
si es pot descobrir l'inici de la mania
before clinical symptoms,
abans que amb símptomes clínics,
or what it was picking up on.
funcionava o en què es fixaven.
if he doesn't publish it,
encara que no ho publiqui,
this kind of technology,
aquest tipus de tecnologia,
is just off the shelf.
meaning to watch one video
a mirar un vídeo
has this column on the right
that you might be interested in
and what people like you have watched,
i el que la gent com tu ha mirat,
what you're interested in,
deu ser el que t'interessa,
and useful feature,
of then-candidate Donald Trump
mítings del candidat Donald Trump
the movement supporting him.
el moviment de suport.
so I was studying it, too.
així que també ho vaig estudiar.
about one of his rallies,
alguna cosa sobre un dels seus mítings,
white supremacist videos
or Bernie Sanders content,
o Bernie Sanders,
and autoplays conspiracy left,
conspiració d'esquerres,
this is politics, but it's not.
però no ho és.
figuring out human behavior.
el comportament humà.
about vegetarianism on YouTube
sobre vegetarianisme al YouTube
and autoplayed a video about being vegan.
reproduir un vídeo sobre ser vegà.
hardcore enough for YouTube.
mai fossis suficientment radical.
show them something more hardcore,
going down that rabbit hole
caiguent pel forat del conill
the ethics of the store,
per l'ètica del lloc,
crear perfils de persones
anti-Semitic content,
explícitament antisemita,
anti-Semitic content on their profile
tan explícit en el seu perfil
may be susceptible to such messages,
susceptibles a aquest tipus de missatges,
like an implausible example,
do this on Facebook,
fer això a Facebook,
offered up suggestions
de bona voluntat suggerències
and very quickly they found,
i tot d'una varen veure,
spent about 30 dollars
va gastar uns 30 dòlars
social media manager disclosed
xarxes socials de Donald Trump va revelar
to demobilize people,
de Facebook per desmobilitzar a la gent,
they targeted specifically,
in key cities like Philadelphia,
en ciutats importants com Filadèlfia,
exactly what he said.
la campanya controla
we want to see it see it.
que ho vegi, ho vegi.
to turn these people out."
perquè participi aquesta gent."
aquestes publicacions amagades?
arranges the posts
algorítmicament les publicacions
or the pages you follow.
o de les pàgines que segueixes.
everything chronologically.
that the algorithm thinks will entice you
creu que et pot convèncer
somebody is snubbing you on Facebook.
us està ignorant a Facebook.
be showing your post to them.
mai la teva publicació.
some of them and burying the others.
i n'amaga d'altres.
can affect your emotions.
pot afectar les teves emocions.
on 61 million people in the US
a 61 milions de persones al Estats Units
"Today is election day,"
"Avui són les eleccions,"
the one with that tiny tweak
un amb la lleugera modificació
they repeated the same experiment.
el mateix experiment.
mostrat només una vegada
US presidential election
presidencials als Estats Units de 2016
very easily infer what your politics are,
la teva orientació política,
disclosed them on the site.
l'hagis revelat a la pàgina.
can do that quite easily.
amb aquest tipus de poder
of one candidate over the other?
d'un candidat que de l'altre?
seemingly innocuous --
aparentment innocu --
if we're seeing the same information
la mateixa informació
the beginning stages of this.
les fases inicials de tot això.
personality traits,
trets personals,
use of addictive substances,
ús de substàncies addictives,
els manifestants
are partially concealed.
estiguin parcialment cobertes.
to detect people's sexual orientation
de detectar l'orientació sexual de la gent
de les seves cites.
to be 100 percent right,
the temptation to use these technologies
la temptació d'usar aquestes tecnologies
some false positives,
a whole other layer of problems.
una altra capa als problemes.
it has on its citizens.
que té dels ciutadans.
face detection technology
tecnologia de detecció facial
of surveillance authoritarianism
de vigilància autoritària
que la gent cliqui anuncis.
Orwell's authoritarianism.
is using overt fear to terrorize us,
la por per espantar-nos,
are using these algorithms
empra aquests algoritmes
the troublemakers and the rebels,
els problemàtics i els rebels,
architectures at scale
de persuassió a escala
weaknesses and vulnerabilities,
i vulnerabilitats personals i individuals,
and neighbors are seeing,
i veïns estan veient,
will envelop us like a spider's web
ens envoltarà com una teranyina
per part de Facebook
as a persuasion architecture.
com a arquitectura persuasiva.
per part dels anuncis
personal and social information flows,
d'informació política, personal i social,
because they provide us with great value.
perquè ens aporten molt.
with friends and family around the world.
amb amics i família arreu del món.
social media is for social movements.
socials en els moviments socials.
these technologies can be used
es podem emprar
you know, Facebook or Google
de Facebook o Google
maliciosament i deliberadament
or the world more polarized
well-intentioned statements
ben intencionades
people in technology make that matter,
de la gent a la tecnologia el que importa,
and business models they're building.
que estan construint.
of half a trillion dollars
d'un trilió i mig de dòlars
as a persuasion architecture,
is of great concern.
ens hauria de preocupar.
digital technology operates.
la tecnologia digital opera.
technology is developed
la tecnologia es desenvolupa
economic and otherwise,
tant econòmics com d'altres,
created by the proprietary algorithms,
pels algoritmes patentats,
of machine learning's opacity,
de l'aprenentatge automàtic,
that's being collected about us.
que estan recollint.
artificial intelligence
intel·ligència artificial
by our human values.
pels nostres valors humans.
on what those terms mean.
amb facilitat sobre aquest termes.
depend on for so much operate,
dels que depenem tant, funcionen
this conversation anymore.
posposant aquesta conversació.
finançades per anuncis,
that we are the product that's being sold.
som el producte que s'està venent.
i la nostra atenció
authoritarian or demagogue.
o al demagog que aposti més fort.
that Hollywood paraphrase,
a la paràfrasi de Hollywood,
and digital technology to blossom,
i tecnologia que floreixi,
this prodigious menace,
aquesta amenaça prodigiosa,
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com