Zeynep Tufekci: We're building a dystopia just to make people click on ads
Zeynep Tufekci: Nous créons une dystopie simplement pour pousser les gens à cliquer sur des publicités
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
of artificial intelligence,
envers l'intelligence artificielle,
of humanoid robots run amok.
de robots humanoïdes qui se déchaînent.
something to consider,
au sujet de la surveillance numérique
les plus vendus.
for the 21st century.
pour le 21e siècle.
will do to us on its own,
l'intelligence artificielle fera seule,
will use artificial intelligence
utiliseront l'intelligence artificielle
and our dignity in the near-term future
et notre dignité dans un avenir proche
and selling our data and our attention
de l'enregistrement et de la vente
bolstering their business as well.
commencé à stimuler leur marché.
like artificial intelligence
que l'intelligence artificielle
of many areas of study and research.
notre compréhension
d'étude et de recherche.
a famous Hollywood philosopher,
philosophe hollywoodien :
comes prodigious risk."
de grandes responsabilités. »
of our digital lives, online ads.
de nos vies numériques : les publicités.
of being followed on the web
que nous avions cherchée ou lue.
we searched or read.
you around everywhere you go.
vous suivent partout où vous allez.
they're still following you around.
et les avoir achetées,
of basic, cheap manipulation.
contre cette manipulation bon marché.
"You know what? These things don't work."
« Ça ne marche pas. »
ne sont pas que des publicités.
let's think of a physical world example.
à un exemple du monde physique.
at supermarkets, near the cashier,
au supermarché, près du caissier,
at the eye level of kids?
à hauteur des yeux des enfants ?
whine at their parents
auprès de leurs parents
are about to sort of check out.
sont sur le point de payer.
in every supermarket.
are kind of limited,
de persuasion sont limitées
so many things by the cashier. Right?
de choses près de la caisse.
it's the same for everyone,
sont les mêmes pour tout le monde,
whiny little humans beside them.
êtres pleurnichant à leurs côtés.
we live with those limitations.
nous vivons avec ces limites.
can be built at the scale of billions
peuvent être adaptées
déduire, comprendre
to everyone's phone private screen,
sur l'écran privé des téléphones
visible à nos yeux.
that artificial intelligence can do.
est capable l'intelligence artificielle.
plane tickets to Vegas. Right?
des billets d'avion pour Las Vegas.
of some demographics to target
à des segments démographiques à cibler
and what you can guess.
et ce que vous pouvez imaginer.
a high limit on their credit card,
sur leur carte de crédit
et l'apprentissage des machines,
that Facebook has on you:
que Facebook a sur vous :
that you uploaded there.
que vous avez téléchargées.
and change your mind and delete it,
changez d'avis et le supprimez,
and analyzes them, too.
to match you with your offline data.
de vous relier à vos données hors ligne.
a lot of data from data brokers.
auprès de courtiers de données.
from your financial records
de vos documents financiers
such data is routinely collected,
sont systématiquement collectées,
these machine-learning algorithms --
des machines --
learning algorithms --
d'apprentissage pour cette raison --
the characteristics of people
les caractéristiques des gens
des billets pour Las Vegas.
de données existantes,
how to apply this to new people.
l'appliquer à de nouvelles personnes.
is likely to buy a ticket to Vegas or not.
d'acheter un billet pour Las Vegas ou pas.
an offer to buy tickets to Vegas.
pour acheter des billets pour Las Vegas,
how these complex algorithms work.
ces algorithmes complexes.
how they're doing this categorization.
comment ils font cette catégorisation.
thousands of rows and columns,
des milliers de lignes et colonnes,
how exactly it's operating
comment ça opère exactement,
what I was thinking right now
ce que je pense en ce moment
a cross section of my brain.
une coupe transversale de mon cerveau.
that we don't truly understand.
que nous ne comprenons pas vraiment.
if there's an enormous amount of data,
s'il y a un énorme volume de données,
deep surveillance on all of us
une surveillance intensifiée à notre égard
algorithms can work.
d'apprentissage marchent.
collecter toutes les données sur vous.
to collect all the data it can about you.
avec cet exemple de Las Vegas.
that we do not understand
que nous ne comprenons pas
to sell Vegas tickets
de vendre des billets pour Las Vegas
and about to enter the manic phase.
d'entrer dans la phase maniaque.
overspenders, compulsive gamblers.
à dépenser et parier de façon compulsive.
that's what they were picking up on.
que c'était là leur conclusion.
to a bunch of computer scientists once
à quelques informaticiens
"That's why I couldn't publish it."
que je n'ai pas pu le publier ».
figure out the onset of mania
détecter le début d'une manie
before clinical symptoms,
avant les symptômes cliniques
or what it was picking up on.
ça marchait ou ce que ça détectait.
if he doesn't publish it,
s'il ne le publie pas
this kind of technology,
is just off the shelf.
meaning to watch one video
pour regarder une vidéo
d'en avoir regardées 27 ?
has this column on the right
que YouTube a sur la droite,
that you might be interested in
qui pourrait vous intéresser
and what people like you have watched,
et ce que d'autres comme vous ont regardé
what you're interested in,
ce qui vous intéresse,
and useful feature,
bénigne et utile,
of then-candidate Donald Trump
du candidat Donald Trump
the movement supporting him.
le mouvement le soutenant.
so I was studying it, too.
alors j'étudiais ça aussi.
about one of his rallies,
au sujet d'un de ses rassemblements
white supremacist videos
des vidéos de suprématistes blancs
encore plus extrême
or Bernie Sanders content,
d'Hillary Clinton ou Bernie Sanders,
and autoplays conspiracy left,
des vidéos gauchistes de conspiration
this is politics, but it's not.
que c'est de la politique, mais non.
figuring out human behavior.
déterminant le comportement humain.
about vegetarianism on YouTube
sur le végétarisme sur YouTube
and autoplayed a video about being vegan.
une vidéo sur le fait d'être végétalien.
hardcore enough for YouTube.
assez extrême pour YouTube.
show them something more hardcore,
quelque chose de plus extrême,
de rester sur le site
going down that rabbit hole
descendant dans le terrier du lapin
the ethics of the store,
à l'éthique du magasin,
anti-Semitic content,
anti-sémite très explicite,
anti-Semitic content on their profile
anti-sémite si explicite sur leur profil
may be susceptible to such messages,
comme étant sensibles à de tels messages,
like an implausible example,
un exemple peu plausible,
do this on Facebook,
vraiment le faire sur Facebook
offered up suggestions
offrait des suggestions
and very quickly they found,
et a rapidement découvert
spent about 30 dollars
a dépensé environ 30 dollars
social media manager disclosed
des réseaux sociaux de Donald Trump
de Facebook pour démobiliser les gens,
to demobilize people,
de ne pas voter du tout.
they targeted specifically,
ils ont spécifiquement ciblé,
in key cities like Philadelphia,
dans des villes clés comme Philadelphie
exactly what he said.
we want to see it see it.
dont nous voulons qu'ils les voient.
to turn these people out."
sa capacité à retourner ces gens. »
arranges the posts
algorithmiquement les posts
or the pages you follow.
ou des pages que vous suivez.
everything chronologically.
chronologiquement.
that the algorithm thinks will entice you
selon l'algorithme, devrait vous pousser
somebody is snubbing you on Facebook.
vous ignore sur Facebook.
be showing your post to them.
peut-être jamais vos posts.
some of them and burying the others.
et en enterre d'autres.
can affect your emotions.
choisit de vous montrer
votre comportement politique.
on 61 million people in the US
sur 61 millions de personnes américaines
"Today is election day,"
« Aujourd'hui, c'est jour d'élection »,
the one with that tiny tweak
celui avec ce petit ajustement
sur « j'ai voté ».
la seule modification
they repeated the same experiment.
cette même expérience.
supplémentaires.
US presidential election
l'élection présidentielle de 2016
very easily infer what your politics are,
déduire vos opinions politiques,
disclosed them on the site.
révélées sur le site.
can do that quite easily.
le faire assez facilement.
of one candidate over the other?
d'un candidat pour l'autre ?
seemingly innocuous --
semble-t-il inoffensif --
if we're seeing the same information
si nous voyons les mêmes informations
the beginning stages of this.
qu'aux premières phases.
vos opinions religieuses, politiques,
personality traits,
use of addictive substances,
votre usage de substances addictives,
votre âge et votre sexe,
aux « J'aime » de Facebook.
identifier des manifestants
are partially concealed.
est partiellement caché.
to detect people's sexual orientation
détecter l'orientation sexuelle des gens
sur un site de rencontres.
to be 100 percent right,
the temptation to use these technologies
à la tentation d'utiliser ces technologies
some false positives,
des faux positifs,
a whole other layer of problems.
un couche supplémentaire de problèmes.
it has on its citizens.
qu'il a sur ces citoyens.
face detection technology
une technologie de détection du visage
of surveillance authoritarianism
de surveillance d’autoritarisme
cliquent sur des pubs.
Orwell's authoritarianism.
is using overt fear to terrorize us,
pour nous terroriser,
mais nous le saurons,
are using these algorithms
utilisent ces algorithmes
the troublemakers and the rebels,
les fauteurs de trouble et les rebelles,
architectures at scale
de persuasion à grande échelle
weaknesses and vulnerabilities,
personnelles et individuelles
and neighbors are seeing,
et nos voisins voient,
will envelop us like a spider's web
tel une toile d'araignée
que nous sommes dans la toile.
as a persuasion architecture.
architecture de persuasion.
des chaussures
ne connaissent pas la différence.
face aux publicités
personal and social information flows,
politiques, personnelles et sociales
because they provide us with great value.
car elles ont beaucoup de valeur.
with friends and family around the world.
à travers le monde.
social media is for social movements.
sociaux pour les mouvements sociaux.
these technologies can be used
peuvent être utilisées
à travers le monde.
you know, Facebook or Google
de Facebook ou Google
or the world more polarized
well-intentioned statements
bien intentionnées
people in technology make that matter,
ou les déclarations
qui comptent,
and business models they're building.
et les modèles commerciaux qu'ils créent.
of half a trillion dollars
d'un demi milliard de dollars
as a persuasion architecture,
comme une architecture de persuasion
is of great concern.
est très préoccupant.
digital technology operates.
de notre technologie numérique.
technology is developed
la technologie est développée
economic and otherwise,
économiques et autres,
created by the proprietary algorithms,
par les algorithmes propriétaires,
of machine learning's opacity,
de l'apprentissage des machines,
that's being collected about us.
aveuglément collectées sur nous.
une tâche importante.
artificial intelligence
by our human values.
par nos valeurs humaines.
on what those terms mean.
sur le sens de ces termes.
depend on for so much operate,
dont nous sommes si dépendants,
this conversation anymore.
encore retarder cette conversation.
notre fonctionnement
ce que nous pouvons faire ou non.
financées par les pubs
that we are the product that's being sold.
que nous sommes le produit qui est vendu.
d'une économie numérique
authoritarian or demagogue.
ou au démagogue le plus offrant.
that Hollywood paraphrase,
hollywoodienne,
and digital technology to blossom,
et de la technologie numérique fleurisse
this prodigious menace,
faire face à une grande menace,
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com