Zeynep Tufekci: We're building a dystopia just to make people click on ads
Zeynep Tufekci: Estamos criando uma distopia só para fazer as pessoas clicarem em anúncios
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
of artificial intelligence,
que têm medo da inteligência artificial,
of humanoid robots run amok.
de robôs humanoides cometendo massacres.
something to consider,
das listas dos mais vendidos.
for the 21st century.
para o século 21.
will do to us on its own,
em si vai fazer conosco,
will use artificial intelligence
vão usar a inteligência artificial
and our dignity in the near-term future
e dignidade num futuro a curto prazo
and selling our data and our attention
e venda de nossos dados e nossa atenção
bolstering their business as well.
a dar suporte a esses negócios, também.
like artificial intelligence
que a inteligência artificial
em anúncios on-line.
of many areas of study and research.
em muitas áreas de estudo e pesquisa.
a famous Hollywood philosopher,
um famoso filósofo de Hollywood:
comes prodigious risk."
vem um risco imenso".
of our digital lives, online ads.
de nossa vida digital: anúncios on-line.
of being followed on the web
de sermos seguidos na web
we searched or read.
em algo que pesquisamos ou lemos.
you around everywhere you go.
o perseguem onde quer que você vá.
they're still following you around.
elas continuam seguindo você.
of basic, cheap manipulation.
de manipulação básica e barata.
"You know what? These things don't work."
"Quer saber? Essas coisas não funcionam".
não são só anúncios.
let's think of a physical world example.
em um exemplo do mundo real.
at supermarkets, near the cashier,
dos caixas do supermercado,
at the eye level of kids?
na altura dos olhos das crianças?
whine at their parents
choramingar para os pais
are about to sort of check out.
estão encerrando a compra.
in every supermarket.
são um pouco limitadas,
are kind of limited,
so many things by the cashier. Right?
número de coisas perto do caixa, certo?
it's the same for everyone,
são iguais para todos,
whiny little humans beside them.
humanos choraminguentos.
we live with those limitations.
vivemos com essas limitações.
can be built at the scale of billions
podem ser construídas aos bilhões
to everyone's phone private screen,
para a tela do telefone de cada um,
that artificial intelligence can do.
que a inteligência artificial pode fazer.
vender passagens aéreas para Las Vegas.
plane tickets to Vegas. Right?
of some demographics to target
em mirar em alguns setores da população
and what you can guess.
e no que você puder imaginar.
a high limit on their credit card,
no cartão de crédito,
that Facebook has on you:
que o Facebook tem sobre você:
que você já digitou,
that you uploaded there.
and change your mind and delete it,
muda de ideia e deleta,
and analyzes them, too.
to match you with your offline data.
com seus dados fora da rede.
a lot of data from data brokers.
de corretores de dados.
from your financial records
desde seus registros financeiros
do seu histórico de navegação.
such data is routinely collected,
são coletados rotineiramente,
these machine-learning algorithms --
os algoritmos de aprendizado de máquina,
learning algorithms --
de algoritmos de aprendizado,
the characteristics of people
as características das pessoas
para Las Vegas antes.
a partir de dados existentes,
how to apply this to new people.
a aplicar isso a outras pessoas.
é apresentada a eles,
is likely to buy a ticket to Vegas or not.
para Las Vegas ou não.
an offer to buy tickets to Vegas.
"Uma oferta de passagem pra Las Vegas.
como esses algoritmos complexos trabalham.
how these complex algorithms work.
how they're doing this categorization.
fazendo essa categorização.
thousands of rows and columns,
milhares de linhas e colunas,
how exactly it's operating
como eles estão operando;
what I was thinking right now
sobre o que estou pensando agora,
do meu cérebro.
a cross section of my brain.
mais programando,
that we don't truly understand.
que não entendemos verdadeiramente.
if there's an enormous amount of data,
se existir uma quantidade enorme de dados,
deep surveillance on all of us
uma grande vigilância sobre nós,
de aprendizado de máquina funcionem.
algorithms can work.
to collect all the data it can about you.
coletar tudo que pode sobre você.
o exemplo sobre Las vegas.
that we do not understand
to sell Vegas tickets
vender passagens para Las Vegas
and about to enter the manic phase.
próximas de entrar em sua fase maníaca?
overspenders, compulsive gamblers.
jogadores compulsivos.
that's what they were picking up on.
ideia de que eles estão detectando isso.
to a bunch of computer scientists once
a alguns cientistas da computação
"That's why I couldn't publish it."
"Por isso eu não pude publicar".
figure out the onset of mania
o início da fase maníaca,
antes dos sintomas clínicos,
before clinical symptoms,
or what it was picking up on.
funcionado ou o que ele estava detectando.
if he doesn't publish it,
this kind of technology,
esse tipo de tecnologia,
is just off the shelf.
meaning to watch one video
para assistir a um vídeo
has this column on the right
automaticamente alguma coisa?
that you might be interested in
que pode interessar a você,
and what people like you have watched,
e o que as pessoas como você viram,
what you're interested in,
que você está interessado,
e apresenta mais para você.
and useful feature,
of then-candidate Donald Trump
do então candidato Donald Trump
the movement supporting him.
so I was studying it, too.
então estava estudando esse também.
about one of his rallies,
sobre um de seus comícios,
algumas vezes no YouTube.
white supremacist videos
vídeos de supremacistas brancos
ainda mais radical
or Bernie Sanders content,
da Hillary Clinton ou do Bernie Sanders,
and autoplays conspiracy left,
conspiração de esquerda,
this is politics, but it's not.
tem a ver com política, mas não.
figuring out human behavior.
sobre o comportamento humano.
about vegetarianism on YouTube
sobre vegetarianismo no YouTube
and autoplayed a video about being vegan.
automaticamente um vídeo sobre ser vegano.
hardcore enough for YouTube.
radical o suficiente para o YouTube.
show them something more hardcore,
algo ainda mais extremo,
going down that rabbit hole
e se afundando cada vez mais,
the ethics of the store,
traçar o perfil de pessoas
anti-Semitic content,
explicitamente antissemita,
plateias similares,
anti-Semitic content on their profile
tão explícito em seu perfil,
may be susceptible to such messages,
suscetíveis a esse tipo de mensagem,
com anúncios, também.
like an implausible example,
do this on Facebook,
isso pode ser feito no Facebook,
offered up suggestions
ofereceu sugestões
and very quickly they found,
e rapidamente descobriu que sim,
spent about 30 dollars
gastou em torno de US$ 30
social media manager disclosed
de mídias sociais do Donald Trump revelou
to demobilize people,
do Facebook para desmobilizar pessoas,
they targeted specifically,
in key cities like Philadelphia,
em cidades-chave como a Filadélfia,
exactly what he said.
we want to see it see it.
que queremos que os vejam.
to turn these people out."
dela de mobilizar essas pessoas".
arranges the posts
algoritmicamente as publicações
or the pages you follow.
ou das páginas que você segue.
everything chronologically.
that the algorithm thinks will entice you
pensa que vai induzir você
somebody is snubbing you on Facebook.
está desprezando você no Facebook.
be showing your post to them.
mostrando suas publicações a ele.
some of them and burying the others.
alguns e encobrindo os outros.
can affect your emotions.
a você pode afetar suas emoções.
on 61 million people in the US
com 61 milhões de pessoas nos EUA;
"Today is election day,"
"Hoje é o dia das eleições",
the one with that tiny tweak
com aquela pequena barra
que clicaram "Eu votei".
mostrada apenas uma vez,
they repeated the same experiment.
o mesmo experimento.
apresentada apenas uma vez
US presidential election
presidenciais de 2016 nos EUA
very easily infer what your politics are,
inferir suas preferências políticas,
disclosed them on the site.
as tenha revelado no site.
can do that quite easily.
fazem isso facilmente.
of one candidate over the other?
de um candidato e não do outro?
seemingly innocuous --
aparentemente inócuo:
if we're seeing the same information
vendo a mesma informação
the beginning stages of this.
nos primeiros estágios disso.
traços de personalidade,
personality traits,
use of addictive substances,
uso de substâncias viciantes,
identificar manifestantes
are partially concealed.
estejam parcialmente ocultos.
to detect people's sexual orientation
a orientação sexual das pessoas
de seus relacionamentos.
to be 100 percent right,
the temptation to use these technologies
à tentação de usar essas tecnologias
some false positives,
a whole other layer of problems.
outra camada de problemas.
it has on its citizens.
que tem de seus cidadãos.
face detection technology
de detecção facial
of surveillance authoritarianism
de vigilância autoritária
cliquem em anúncios.
Orwell's authoritarianism.
is using overt fear to terrorize us,
o medo explícito para nos aterrorizar,
mas saberemos disso,
are using these algorithms
estiverem usando esses algoritmos
the troublemakers and the rebels,
os encrenqueiros e os rebeldes,
architectures at scale
de persuasão em larga escala
weaknesses and vulnerabilities,
pessoais e individuais,
isso em larga escala,
and neighbors are seeing,
cidadãos e vizinhos estão vendo,
will envelop us like a spider's web
como uma teia de aranha
as a persuasion architecture.
como uma arquitetura de persuasão.
que faz o que quiser conosco
influenciáveis pelos anúncios
personal and social information flows,
políticas, pessoais e sociais,
because they provide us with great value.
porque elas são valiosas para nós.
with friends and family around the world.
com amigos e parentes no mundo inteiro.
social media is for social movements.
são cruciais para os movimentos sociais.
these technologies can be used
tecnologias podem ser usadas
you know, Facebook or Google
que dirigem o Facebook ou Google
ou o mundo mais polarizado
or the world more polarized
well-intentioned statements
bem-intencionadas
people in technology make that matter,
das pessoas de tecnologia que importam,
and business models they're building.
que elas estão criando.
of half a trillion dollars
de US$ 500 bilhões
as a persuasion architecture,
como uma arquitetura de persuasão,
is of great concern.
é muito preocupante.
digital technology operates.
a nossa tecnologia digital.
technology is developed
como a tecnologia é desenvolvida
economic and otherwise,
econômicos e outros,
created by the proprietary algorithms,
pelos proprietários dos algoritmos,
of machine learning's opacity,
do aprendizado de máquina,
that's being collected about us.
sobre nós indiscriminadamente.
artificial intelligence
inteligência artificial
by our human values.
por nossos valores humanos.
on what those terms mean.
com o significado desses termos.
depend on for so much operate,
dos quais tanto dependemos,
this conversation anymore.
mais essa discussão.
financiadas por anúncios
that we are the product that's being sold.
que está sendo vendido somos nós.
authoritarian or demagogue.
ou demagogo que ofereça mais.
that Hollywood paraphrase,
and digital technology to blossom,
e da tecnologia digital floresçam,
this prodigious menace,
essa imensa ameaça,
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com