Zeynep Tufekci: We're building a dystopia just to make people click on ads
Zeynep Tufekci: We bouwen een dystopie omwille van advertentiekliks.
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
of artificial intelligence,
over kunstmatige intelligentie,
of humanoid robots run amok.
van op hol geslagen, mensachtige robots.
something to consider,
for the 21st century.
voor de 21ste eeuw.
will do to us on its own,
op zich ons zal aandoen,
will use artificial intelligence
gaan beheersen en manipuleren
subtiele en onverwachte manieren.
and our dignity in the near-term future
bedreigt in de nabije toekomst,
and selling our data and our attention
en verkopen van onze data en onze aandacht
bolstering their business as well.
ook hun activiteiten te versterken.
like artificial intelligence
de volgende stap is na internetreclame.
of many areas of study and research.
in een hoop onderzoeksgebieden.
a famous Hollywood philosopher,
Hollywood-filosoof al zei:
comes prodigious risk."
brengt ongekende risico's met zich mee."
van ons digitale leven:
of our digital lives, online ads.
of being followed on the web
achtervolgd door een advertentie
we searched or read.
you around everywhere you go.
een hele week achtervolgen.
they're still following you around.
en ze kocht, zie je ze overal terug.
of basic, cheap manipulation.
doet ons al niet zoveel meer.
"You know what? These things don't work."
en denkt: "Zoiets werkt dus niet."
bestaan niet alleen uit advertenties.
let's think of a physical world example.
kan dat helpen verduidelijken.
at supermarkets, near the cashier,
op de ooghoogte van kinderen.
at the eye level of kids?
whine at their parents
bij hun ouders te doen zeuren
are about to sort of check out.
in every supermarket.
aan zulke beïnvloedingstechniek,
are kind of limited,
so many things by the cashier. Right?
alles bij de kassa neerleggen.
it's the same for everyone,
dezelfde kauwgum en snoep,
met zeurende schepseltjes aan hun zijde.
whiny little humans beside them.
we live with those limitations.
leven we met die beperkingen.
can be built at the scale of billions
gebouwd worden op miljardenschaal,
en deze duiden en begrijpen.
op afzonderlijke individuen
to everyone's phone private screen,
naar ieders persoonlijke telefoonscherm,
that artificial intelligence can do.
die kunstmatige intelligentie kan doen.
plane tickets to Vegas. Right?
naar Las Vegas verkopen.
of some demographics to target
hoe je doelgroep er uit zou zien,
and what you can guess.
op mannen tussen de 25 en 35,
a high limit on their credit card,
op hun credit card,
that Facebook has on you:
die Facebook van je heeft:
that you uploaded there.
and change your mind and delete it,
maar je bedenkt je en verwijdert het,
and analyzes them, too.
bewaard en geanalyseerd.
to match you with your offline data.
je offline data te achterhalen.
a lot of data from data brokers.
from your financial records
van je financiële gegevens
van je zoekgeschiedenis.
such data is routinely collected,
vergaard, geordend en verkocht.
door al die data heen te worstelen,
these machine-learning algorithms --
learning algorithms --
the characteristics of people
how to apply this to new people.
voorgeschoteld krijgen,
is likely to buy a ticket to Vegas or not.
een ticket zal kopen naar Las Vegas.
an offer to buy tickets to Vegas.
een ticket naar Las Vegas...
hoe deze complexe algoritmen werken.
how these complex algorithms work.
how they're doing this categorization.
deze categorisering in z'n werk gaat.
thousands of rows and columns,
duizenden regels en kolommen,
how exactly it's operating
what I was thinking right now
wat ik momenteel denk,
a cross section of my brain.
van mijn brein zou zien.
that we don't truly understand.
die we niet echt begrijpen.
if there's an enormous amount of data,
met enorme hoeveelheden data,
deep surveillance on all of us
datavergaring over ons allemaal,
hun werk kunnen doen.
algorithms can work.
to collect all the data it can about you.
alle mogelijke data over jou.
dat voorbeeld over Las Vegas.
that we do not understand
dat we niet begrijpen,
to sell Vegas tickets
om tickets naar Las Vegas te verkopen
and about to enter the manic phase.
vlak voor ze de manische fase ingaan.
geld over de balk smijten
overspenders, compulsive gamblers.
that's what they were picking up on.
dat je een clou had wat ze oppikten.
to a bunch of computer scientists once
aan een stel computerwetenschappers
"That's why I couldn't publish it."
"Daarom kon ik het niet publiceren."
figure out the onset of mania
een manie kon zien aankomen
voordat er klinische symptomen waren.
before clinical symptoms,
or what it was picking up on.
of wat er opgepikt werd.
if he doesn't publish it,
wanneer hij niet publiceert,
die dergelijke technologie ontwikkelen,
this kind of technology,
is just off the shelf.
meaning to watch one video
om één video te kijken,
has this column on the right
that you might be interested in
dat jou interesseert
and what people like you have watched,
en waarnaar anderen zoals jij naar keken,
what you're interested in,
wat jou interesseert,
and useful feature,
nuttige functie,
of then-candidate Donald Trump
van toenmalig kandidaat Donald Trump
the movement supporting him.
zijn beweging te bestuderen.
so I was studying it, too.
en daarom ook deze.
about one of his rallies,
over een van zijn bijeenkomsten,
een paar maal op YouTube.
ultrarechtse video's aan te raden
white supremacist videos
die nog wat extremer was
or Bernie Sanders content,
Hillary Clinton of Bernie Sanders,
and autoplays conspiracy left,
linkse complotvideo's voor
this is politics, but it's not.
dat is politiek, maar dat is niet zo.
figuring out human behavior.
dat menselijk gedrag doorgrondt.
about vegetarianism on YouTube
over vegetarisme op YouTube
and autoplayed a video about being vegan.
een filmpje over veganisme te zien.
hardcore enough for YouTube.
dat meer hardcore is,
show them something more hardcore,
going down that rabbit hole
vallend door dat konijnenhol,
advertenties kan tonen.
the ethics of the store,
die op de ethische code let,
anti-Semitic content,
antisemitische content tonen,
antisemitische content op hun profiel,
anti-Semitic content on their profile
may be susceptible to such messages,
voor zulke boodschappen,
als een onwaarschijnlijk voorbeeld,
like an implausible example,
do this on Facebook,
daadwerkelijk kan doen op Facebook,
offered up suggestions
hoe je dat publiek kan verbreden.
and very quickly they found,
spent about 30 dollars
gaf zo'n 30 dollar uit
social media manager disclosed
Donald Trumps sociale media-manager
to demobilize people,
mensen demobiliseerden,
they targeted specifically,
op bijvoorbeeld zwarte Amerikaanse mannen
in key cities like Philadelphia,
exactly what he said.
die de campagne bepaalt,
we want to see it see it.
voor wie wij willen dat het ziet.
to turn these people out."
deze mensen voor haar te laten stemmen."
arranges the posts
of de pagina's die je volgt.
or the pages you follow.
everything chronologically.
that the algorithm thinks will entice you
het langst op de site zal houden.
somebody is snubbing you on Facebook.
dat iemand je negeert op Facebook.
be showing your post to them.
die persoon nooit jouw posts.
some of them and burying the others.
en begraaft de ander.
can affect your emotions.
invloed kan hebben op je emoties.
voor het Amerikaanse congres,
on 61 million people in the US
met 61 miljoen Amerikanen
"Today is election day,"
'Vandaag is verkiezingsdag',
the one with that tiny tweak
met die kleine aanpassing,
die hadden geklikt op 'Ik heb gestemd'.
hun stem uitbrengen
they repeated the same experiment.
van die boodschap
US presidential election
in de presidentsverkiezingen van 2016
very easily infer what your politics are,
jouw politieke gezindheid achterhalen,
disclosed them on the site.
can do that quite easily.
of one candidate over the other?
voor een bepaalde kandidaat?
ook maar te weten komen?
bij iets dat onschuldig lijkt --
seemingly innocuous --
die ons achtervolgen --
allemaal dezelfde informatie zien,
if we're seeing the same information
geleidelijk aan onmogelijk.
the beginning stages of this.
personality traits,
use of addictive substances,
gebruik van verslavende middelen,
demonstranten identificeren
are partially concealed.
to detect people's sexual orientation
iemands seksuele voorkeur te achterhalen
to be 100 percent right,
ook wel eens bij het verkeerde eind,
the temptation to use these technologies
deze technologieën nog niet schuwen
some false positives,
a whole other layer of problems.
een geheel nieuwe laag problemen.
it has on its citizens.
die hij bezit van zijn burgers.
face detection technology
gezichtsherkenningssoftware
of surveillance authoritarianism
van een politiestaat
op advertenties te laten klikken.
Orwell's authoritarianism.
Orwelliaanse politiestaat zijn.
is using overt fear to terrorize us,
angst gebruikt als machtsmiddel,
are using these algorithms
deze algoritmen gebruiken
the troublemakers and the rebels,
dwarsliggers en rebellen zijn,
architectures at scale
beïnvloedingsmachine in te zetten
weaknesses and vulnerabilities,
persoonlijke zwakheden,
and neighbors are seeing,
of onze buurman ziet ...
will envelop us like a spider's web
omsluiten als een spinnenweb,
niet eens weten dat we erin zitten.
nadert nu 420 miljard euro.
as a persuasion architecture.
als beïnvloedingsmachine.
of een politieke mening.
die op je losgelaten worden
personal and social information flows,
persoonlijke en sociale informatiestromen
because they provide us with great value.
omdat die van grote waarde zijn voor ons.
with friends and family around the world.
met vrienden en familie elders ter wereld.
social media is for social movements.
van sociale media voor sociale bewegingen.
these technologies can be used
deze technologieën gebruikt kunnen worden
you know, Facebook or Google
die Facebook en Google en zo runnen
or the world more polarized
meer gepolariseerd te maken
well-intentioned statements
people in technology make that matter,
van mensen in de technologiesector
and business models they're building.
en de bedrijfsmodellen die ze bouwen.
of half a trillion dollars
van bijna een half biljoen
as a persuasion architecture,
is of great concern.
is reden tot grote zorg.
digital technology operates.
technologie herinrichten.
technology is developed
ontwikkeld wordt,
economic and otherwise,
zowel economisch als anderszins,
created by the proprietary algorithms,
veroorzaakt door gesloten algoritmen,
of machine learning's opacity,
van kunstmatige intelligentie,
die over ons verzameld worden.
that's being collected about us.
artificial intelligence
intelligentie kunnen bouwen
in onze menselijke doelen,
door onze menselijke waarden.
by our human values.
over de betekenis van die termen moeilijk.
on what those terms mean.
waarvan we zo sterk afhankelijk zijn,
depend on for so much operate,
nog langer kunnen uitstellen.
this conversation anymore.
wel en niet kunnen doen.
advertentie-gedreven platformen
that we are the product that's being sold.
dat wijzelf de koopwaar zijn.
authoritarian or demagogue.
de hoogstbiedende machthebber.
that Hollywood paraphrase,
naar dat citaat uit Hollywood:
en digitale technologie tot wasdom komt,
and digital technology to blossom,
this prodigious menace,
onder ogen moeten zien, en wel nu.
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com