Zeynep Tufekci: We're building a dystopia just to make people click on ads
Zeynep Tufekci: Estamos a criar uma distopia apenas para fazer as pessoas clicar em anúncios
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
of artificial intelligence,
dos seus medos da inteligência artificial,
of humanoid robots run amok.
de robôs humanoides fora de controlo.
something to consider,
com a vigilância digital
for the 21st century.
para o século XXI.
will do to us on its own,
nos vai fazer por si própria,
vão usar a inteligência artificial
will use artificial intelligence
and our dignity in the near-term future
e a nossa dignidade, no futuro próximo
and selling our data and our attention
bolstering their business as well.
a reforçar os seus negócios.
a inteligência artificial
like artificial intelligence
of many areas of study and research.
a famous Hollywood philosopher,
um famoso filósofo de Hollywood,
comes prodigious risk."
vem um prodigioso risco."
da nossa vida digital,
of our digital lives, online ads.
of being followed on the web
de sermos perseguidos na Internet
que pesquisámos ou lemos.
we searched or read.
you around everywhere you go.
perseguem-nos, aonde quer que vamos.
they're still following you around.
e as termos comprado, ainda nos perseguem.
de manipulação, básica e barata.
of basic, cheap manipulation.
"You know what? These things don't work."
Estas coisas não funcionam."
não são apenas os anúncios.
let's think of a physical world example.
num exemplo do mundo físico.
at supermarkets, near the cashier,
do supermercado, ao pé das caixas,
at the eye level of kids?
do olhar das crianças?
whine at their parents
choramingar para os pais,
are about to sort of check out.
a pagar e sair.
in every supermarket.
em todos os supermercados.
are kind of limited,
são um pouco limitadas,
so many things by the cashier. Right?
ao pé da caixa, certo?
it's the same for everyone,
são os mesmos para toda a gente,
whiny little humans beside them.
aqueles seres birrentos ao lado.
we live with those limitations.
com estas limitações.
as arquiteturas de persuasão
can be built at the scale of billions
à escala de milhares de milhões
em indivíduos, um a um,
to everyone's phone private screen,
do telefone privado de cada pessoa
that artificial intelligence can do.
que a inteligência artificial faz.
bilhetes de avião para Las Vegas.
plane tickets to Vegas. Right?
of some demographics to target
nalgumas demografias como alvo
and what you can guess.
para homens entre os 25 e os 35 anos,
a high limit on their credit card,
um limite elevado no cartão de crédito,
e a aprendizagem de máquinas,
that Facebook has on you:
que o Facebook tem sobre nós:
que escrevemos,
that you uploaded there.
para a plataforma.
and change your mind and delete it,
e mudamos de ideias e a apagamos
and analyzes them, too.
e também as analisa.
fazer a correspondência
to match you with your offline data.
informações "offline".
a lot of data from data brokers.
a corretores de dados.
from your financial records
desde registos financeiros,
do nosso histórico da Internet.
such data is routinely collected,
são rotineiramente recolhidas,
ao remexer em todas estas informações
these machine-learning algorithms --
destas máquinas,
learning algorithms --
algoritmos de aprendizagem —
the characteristics of people
as características das pessoas
bilhetes para Las Vegas antes.
de informações já existentes,
how to apply this to new people.
como o aplicar a novas pessoas.
is likely to buy a ticket to Vegas or not.
para Las Vegas ou não.
an offer to buy tickets to Vegas.
um bilhete para Las Vegas?
como funcionam estes algoritmos complexos.
how these complex algorithms work.
how they're doing this categorization.
a fazer essa categorização.
thousands of rows and columns,
milhares de linhas e colunas,
how exactly it's operating
é que aquilo funciona,
what I was thinking right now
em que é que eu estou a pensar agora,
a cross section of my brain.
transversal do meu cérebro.
that we don't truly understand.
que já não percebemos verdadeiramente.
if there's an enormous amount of data,
quantidades enormes de informações.
deep surveillance on all of us
uma forte vigilância sobre todos nós
algorithms can work.
de aprendizagem funcionem.
to collect all the data it can about you.
todas as informações possíveis.
o exemplo de Las Vegas.
that we do not understand
que nós não compreendemos,
to sell Vegas tickets
vender bilhetes para Las Vegas
and about to enter the manic phase.
overspenders, compulsive gamblers.
e a serem jogadores compulsivos.
that's what they were picking up on.
e nós não faríamos a ideia
que estariam a usar.
to a bunch of computer scientists once
a um grupo de cientistas informáticos
"That's why I couldn't publish it."
figure out the onset of mania
perceber se seria possível
de uma fase de mania
antes de haver sintomas clínicos,
before clinical symptoms,
or what it was picking up on.
de como é que tinha funcionado
if he doesn't publish it,
se ele não o publicar,
a desenvolver este tipo de tecnologia,
this kind of technology,
is just off the shelf.
meaning to watch one video
com intenção de ver um vídeo
has this column on the right
aquela coluna à direita,
o que acha que nos pode interessar
that you might be interested in
É o que os algoritmos fazem.
and what people like you have watched,
como nós já viram,
what you're interested in,
do nosso interesse,
e mostra-nos mais.
and useful feature,
of then-candidate Donald Trump
do então candidato, Donald Trump
the movement supporting him.
o movimento que o apoiava.
so I was studying it, too.
então estava a estudar isso também.
about one of his rallies,
sobre um dos comícios dele,
white supremacist videos
vídeos de supremacia da raça branca
or Bernie Sanders content,
ou de Bernie Sanders,
vídeos de conspirações de esquerda,
and autoplays conspiracy left,
this is politics, but it's not.
mas não é.
figuring out human behavior.
o comportamento humano.
about vegetarianism on YouTube
sobre vegetarianismo no YouTube
and autoplayed a video about being vegan.
um vídeo sobre ser vegan.
hardcore enough for YouTube.
duros o suficiente para o YouTube.
que se está a passar:
show them something more hardcore,
algo ainda mais forte,
se mantenham no "site"
going down that rabbit hole
indo pela espiral abaixo,
the ethics of the store,
com a ética da loja,
o perfil das pessoas
anti-Semitic content,
explícitos antissemíticos
audiências semelhantes para nós,
anti-Semitic content on their profile
antissemíticos explícitos no seu perfil
may be susceptible to such messages,
possivelmente suscetíveis a tais mensagens
alvos desses anúncios.
like an implausible example,
pouco plausível,
do this on Facebook,
fazer isto no Facebook.
offered up suggestions
oferecia sugestões
and very quickly they found,
e rapidamente descobriram
spent about 30 dollars
gastou cerca de 30 dólares
social media manager disclosed
das redes sociais de Donald Trump
"publicações negras" do Facebook
to demobilize people,
e não para as persuadir,
they targeted specifically,
in key cities like Philadelphia,
de cidades-chave, como Filadélfia.
exactly what he said.
publicações não públicas
são controladas pela campanha,
we want to see it see it.
que nós queremos que vejam, as vejam.
to turn these people out."
de afastar essas pessoas".
arranges the posts
algoritmicamente essas publicações
ou nas páginas que nós seguimos.
or the pages you follow.
everything chronologically.
por ordem cronológica.
that the algorithm thinks will entice you
que o algoritmo acha
a ficar mais tempo no "site".
somebody is snubbing you on Facebook.
nos está a ignorar no Facebook.
be showing your post to them.
a mostrar as nossas publicações.
some of them and burying the others.
a algumas e a enterrar as outras.
can affect your emotions.
pode afetar as nossas emoções.
on 61 million people in the US
em 61 milhões de pessoas nos EUA
"Today is election day,"
"Hoje é dia de eleições",
the one with that tiny tweak
com aquela barrinha
que tinham clicado em "Eu votei".
mostrada apenas uma vez
pelos registos eleitorais.
they repeated the same experiment.
repetiram a mesma experiência.
mostrada apenas uma vez,
US presidential election
presidenciais de 2016 nos EUA
por cerca de 100 mil votos.
very easily infer what your politics are,
quais são os nossos ideais políticos,
disclosed them on the site.
revelado no "site".
can do that quite easily.
fazer isso muito facilmente.
com este tipo de poder
of one candidate over the other?
de um candidato mais que de outro?
conhecimento disso?
seemingly innocuous --
supostamente inócuo
completamente diferente.
as mesmas informações
if we're seeing the same information
torna-se impossível,
the beginning stages of this.
com bastante facilidade,
traços de personalidade.
personality traits,
use of addictive substances,
uso de substâncias aditivas,
identificar manifestantes
are partially concealed.
parcialmente escondidas.
to detect people's sexual orientation
detetar a orientação sexual duma pessoa
do perfil de encontros.
to be 100 percent right,
the temptation to use these technologies
à tentação de usar estas tecnologias
some false positives,
a whole other layer of problems.
toda uma outra camada de problemas.
it has on its citizens.
que tiver dos seus cidadãos.
face detection technology
de reconhecimento facial.
of surveillance authoritarianism
de vigilância autoritária
clicar em anúncios.
Orwell's authoritarianism.
o autoritarismo de Orwell.
is using overt fear to terrorize us,
para nos aterrorizar
mas temos consciência disso,
are using these algorithms
usarem estes algoritmos
e para nos influenciarem,
the troublemakers and the rebels,
os desordeiros e os rebeldes,
architectures at scale
de persuação em larga escala
um por um,
weaknesses and vulnerabilities,
individuais e pessoais,
and neighbors are seeing,
e vizinhos estão a ver,
will envelop us like a spider's web
como uma teia de aranha
de que estamos nela.
de meio bilião de dólares.
as a persuasion architecture.
como arquitetura de persuasão.
o que quer connosco,
mais vulveráveis a anúncios,
das nossas informações
personal and social information flows,
because they provide us with great value.
porque são valiosas para nós.
em contacto
with friends and family around the world.
social media is for social movements.
são as redes sociais
these technologies can be used
podem ser usadas
you know, Facebook or Google
o Facebook e o Google
mais polarizado
or the world more polarized
well-intentioned statements
people in technology make that matter,
que as pessoas da tecnologia fazem
and business models they're building.
que estão a construir.
of half a trillion dollars
de meio bilião de dólares
as a persuasion architecture,
uma arquitetura de persuasão,
são uma grande preocupação.
is of great concern.
digital technology operates.
tecnologia digital funciona.
technology is developed
como a tecnologia é desenvolvida
economic and otherwise,
económicos e não só,
com a falta de transparência
created by the proprietary algorithms,
of machine learning's opacity,
da aprendizagem de máquinas,
that's being collected about us.
que estão a ser recolhidas sobre nós.
artificial intelligence
uma inteligência artificial
pelos nossos valores humanos.
by our human values.
on what those terms mean.
no que significam estes termos.
de que dependemos para tanta coisa,
depend on for so much operate,
adiar mais esta conversa.
this conversation anymore.
financiadas por anúncios
that we are the product that's being sold.
que estão a vender.
e a nossa atenção
authoritarian or demagogue.
para o déspota ou o demagogo
that Hollywood paraphrase,
and digital technology to blossom,
e da tecnologia digital floresça
this prodigious menace,
esta prodigiosa ameaça
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com