ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDGlobal>NYC

Zeynep Tufekci: We're building a dystopia just to make people click on ads

Zeynep Tufekci: We bouwen een dystopie omwille van advertentiekliks.

Filmed:
2,866,905 views

We bouwen klik voor klik aan een dystopie die draait op kunstmatige intelligentie, zegt techno-socioloog Zeynep Tufekci. In een opzienbarende talk zet ze uiteen hoe dezelfde algoritmen die Facebook, Google en Amazon gebruiken om je op advertenties te laten klikken, ook gebruikt worden om je toegang te regelen tot politieke en sociale informatie. En de machines vormen niet eens de werkelijke dreiging. Wat wij moeten begrijpen, is hoe de machtigen der aarde ons middels kunstmatige intelligentie kunnen beheersen -- en wat we ertegen kunnen doen.
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So when people voicestem fearsangsten
of artificialkunstmatig intelligenceintelligentie-,
0
760
3536
Mensen die hun bezorgdheid uiten
over kunstmatige intelligentie,
00:16
very oftenvaak, they invokeberoep doen op imagesafbeeldingen
of humanoidhumanoïde robotsrobots runrennen amokAmok.
1
4320
3976
gebruiken daarvoor vaak het schrikbeeld
van op hol geslagen, mensachtige robots.
00:20
You know? TerminatorTerminator?
2
8320
1240
Terminator en zo.
00:22
You know, that mightmacht be
something to consideroverwegen,
3
10400
2336
Nou slaat dat de plank niet helemaal mis,
00:24
but that's a distantafgelegen threatbedreiging.
4
12760
1856
maar het blijft nogal vergezocht.
00:26
Or, we fretfret about digitaldigitaal surveillancetoezicht
5
14640
3456
Of we vrezen digitale datavergaring
aan de hand van oude metaforen.
00:30
with metaphorsmetaforen from the pastverleden.
6
18120
1776
00:31
"1984," GeorgeGeorge Orwell'sOrwell "1984,"
7
19920
2656
'1984', van George Orwell.
Het staat weer in de bestsellerlijsten.
00:34
it's hittingraken the bestsellerbestseller listslijsten again.
8
22600
2280
00:37
It's a great bookboek,
9
25960
1416
Het is een geweldig boek,
00:39
but it's not the correctcorrect dystopiadystopie
for the 21stst centuryeeuw.
10
27400
3880
maar niet de juiste dystopie
voor de 21ste eeuw.
00:44
What we need to fearangst mostmeest
11
32080
1416
Wat wij het meest moeten vrezen,
00:45
is not what artificialkunstmatig intelligenceintelligentie-
will do to us on its owneigen,
12
33520
4776
is niet wat kunstmatige intelligentie
op zich ons zal aandoen,
00:50
but how the people in powermacht
will use artificialkunstmatig intelligenceintelligentie-
13
38320
4736
maar hoe de mensen met macht
ons middels kunstmatige intelligentie
gaan beheersen en manipuleren
00:55
to controlcontrole us and to manipulatemanipuleren us
14
43080
2816
00:57
in novelroman, sometimessoms hiddenverborgen,
15
45920
3136
op ongekende, soms verborgen,
subtiele en onverwachte manieren.
01:01
subtlesubtiel and unexpectedniet verwacht waysmanieren.
16
49080
3016
01:04
Much of the technologytechnologie
17
52120
1856
Veel van de technologie
01:06
that threatensbedreigt our freedomvrijheid
and our dignitywaardigheid in the near-termop korte termijn futuretoekomst
18
54000
4336
die onze vrijheid en waardigheid
bedreigt in de nabije toekomst,
01:10
is beingwezen developedontwikkelde by companiesbedrijven
19
58360
1856
wordt ontwikkeld door bedrijven
01:12
in the businessbedrijf of capturingcapturing
and sellingselling our datagegevens and our attentionaandacht
20
60240
4936
die zich bezighouden met het verzamelen
en verkopen van onze data en onze aandacht
01:17
to advertisersadverteerders and othersanderen:
21
65200
2256
aan adverteerders en zo.
01:19
FacebookFacebook, GoogleGoogle, AmazonAmazon,
22
67480
3416
Facebook, Google, Amazon,
01:22
AlibabaAlibaba, TencentTencent.
23
70920
1880
Alibaba, Tencent.
01:26
Now, artificialkunstmatig intelligenceintelligentie- has startedbegonnen
bolsteringversterking van theirhun businessbedrijf as well.
24
74040
5496
Kunstmatige intelligentie begint nu
ook hun activiteiten te versterken.
En het lijkt misschien
01:31
And it maymei seemlijken
like artificialkunstmatig intelligenceintelligentie-
25
79560
2096
alsof kunstmatige intelligentie
de volgende stap is na internetreclame.
01:33
is just the nextvolgende thing after onlineonline adsadvertenties.
26
81680
2856
Dat is niet zo.
01:36
It's not.
27
84560
1216
01:37
It's a jumpspringen in categorycategorie.
28
85800
2456
Het is een nieuwe categorie.
01:40
It's a wholegeheel differentverschillend worldwereld-,
29
88280
2576
Een volledig nieuwe wereld,
01:42
and it has great potentialpotentieel.
30
90880
2616
met een enorm potentieel.
01:45
It could accelerateversnellen our understandingbegrip
of manyveel areasgebieden of studystudie and researchOnderzoek.
31
93520
6920
Het zou ons veel kunnen leren
in een hoop onderzoeksgebieden.
01:53
But to paraphraseparafrase
a famousberoemd HollywoodHollywood philosopherfilosoof,
32
101120
3496
Maar zoals een bekende
Hollywood-filosoof al zei:
01:56
"With prodigiouswonderbaarlijke potentialpotentieel
comeskomt prodigiouswonderbaarlijke riskrisico."
33
104640
3640
"Ongekend potentieel
brengt ongekende risico's met zich mee."
Kijk even naar dat basisfenomeen
van ons digitale leven:
02:01
Now let's look at a basicbasis- factfeit
of our digitaldigitaal liveslevens, onlineonline adsadvertenties.
34
109120
3936
online advertenties.
02:05
Right? We kindsoort of dismissontslaan them.
35
113080
2896
We nemen ze niet helemaal serieus.
02:08
They seemlijken cruderuw, ineffectiveineffectief.
36
116000
1976
Ze lijken dom, ineffectief.
02:10
We'veWe hebben all had the experienceervaring
of beingwezen followedgevolgd on the webweb
37
118000
4256
We zijn allemaal wel eens
achtervolgd door een advertentie
02:14
by an adadvertentie basedgebaseerde on something
we searcheddoorzocht or readlezen.
38
122280
2776
voor iets wat we eerder zochten of lazen.
Je weet wel, je bekijkt een stel schoenen,
02:17
You know, you look up a pairpaar- of bootslaarzen
39
125080
1856
02:18
and for a weekweek, those bootslaarzen are followingvolgend
you around everywhereoveral you go.
40
126960
3376
en die blijven je dan
een hele week achtervolgen.
02:22
Even after you succumbbezwijken and buykopen them,
they're still followingvolgend you around.
41
130360
3656
Zelfs nadat je bezweken bent
en ze kocht, zie je ze overal terug.
02:26
We're kindsoort of inuredgehard to that kindsoort
of basicbasis-, cheapgoedkoop manipulationmanipulatie.
42
134040
3016
Dit soort goedkope manipulatie
doet ons al niet zoveel meer.
02:29
We rollrollen our eyesogen and we think,
"You know what? These things don't work."
43
137080
3400
Je rolt met je ogen
en denkt: "Zoiets werkt dus niet."
02:33
ExceptBehalve, onlineonline,
44
141720
2096
Maar de digitale technologieën online
bestaan niet alleen uit advertenties.
02:35
the digitaldigitaal technologiestechnologieën are not just adsadvertenties.
45
143840
3600
02:40
Now, to understandbegrijpen that,
let's think of a physicalfysiek worldwereld- examplevoorbeeld.
46
148240
3120
Een voorbeeld uit de fysieke wereld
kan dat helpen verduidelijken.
02:43
You know how, at the checkoutkassa counterstellers
at supermarketssupermarkten, nearin de buurt the cashierkassa,
47
151840
4656
Bij de kassa in de supermarkt
liggen altijd kauwgum en snoep
op de ooghoogte van kinderen.
02:48
there's candysnoep and gumGOM
at the eyeoog levelniveau of kidskinderen?
48
156520
3480
02:52
That's designedontworpen to make them
whinejanken at theirhun parentsouders
49
160800
3496
Dat is bedoeld om hen
bij hun ouders te doen zeuren
02:56
just as the parentsouders
are about to sortsoort of checkcontroleren out.
50
164320
3080
wanneer die klaar staan om te betalen.
03:00
Now, that's a persuasionoverreding architecturearchitectuur.
51
168040
2640
Dat is beïnvloedingstechniek.
03:03
It's not niceleuk, but it kindsoort of workswerken.
52
171160
3096
Niet aardig, maar het werkt redelijk.
03:06
That's why you see it
in everyelk supermarketsupermarkt.
53
174280
2040
Daarom heeft iedere supermarkt het.
03:08
Now, in the physicalfysiek worldwereld-,
54
176720
1696
In de fysieke wereld zijn er grenzen
aan zulke beïnvloedingstechniek,
03:10
suchzodanig persuasionoverreding architecturesplatforms
are kindsoort of limitedbeperkt,
55
178440
2496
03:12
because you can only put
so manyveel things by the cashierkassa. Right?
56
180960
4816
want je kan immers niet
alles bij de kassa neerleggen.
03:17
And the candysnoep and gumGOM,
it's the samedezelfde for everyoneiedereen,
57
185800
4296
En iedereen ziet
dezelfde kauwgum en snoep,
ook al werkt het voornamelijk bij mensen
met zeurende schepseltjes aan hun zijde.
03:22
even thoughhoewel it mostlymeestal workswerken
58
190120
1456
03:23
only for people who have
whinyhuilerige little humansmensen besidenaast them.
59
191600
4040
03:29
In the physicalfysiek worldwereld-,
we liveleven with those limitationsbeperkingen.
60
197160
3920
In de fysieke wereld
leven we met die beperkingen.
03:34
In the digitaldigitaal worldwereld-, thoughhoewel,
61
202280
1936
Maar in de digitale wereld
03:36
persuasionoverreding architecturesplatforms
can be builtgebouwd at the scaleschaal of billionsmiljarden
62
204240
4320
kan zulke beïnvloedingsmachinerie
gebouwd worden op miljardenschaal,
zich richten op individuen,
en deze duiden en begrijpen.
03:41
and they can targetdoel, inferafleiden, understandbegrijpen
63
209840
3856
03:45
and be deployedingezet at individualsindividuen
64
213720
2896
Ze wordt losgelaten
op afzonderlijke individuen
03:48
one by one
65
216640
1216
door je zwakheden te leren kennen,
03:49
by figuringuitzoeken out your weaknesseszwakke punten,
66
217880
2136
03:52
and they can be sentverzonden
to everyone'sieders phonetelefoon privateprivaat screenscherm,
67
220040
5616
en ze kan gestuurd worden
naar ieders persoonlijke telefoonscherm,
onzichtbaar voor anderen.
03:57
so it's not visiblezichtbaar to us.
68
225680
2256
03:59
And that's differentverschillend.
69
227960
1256
En dat is anders.
04:01
And that's just one of the basicbasis- things
that artificialkunstmatig intelligenceintelligentie- can do.
70
229240
3576
Dat is slechts een van de dingen
die kunstmatige intelligentie kan doen.
04:04
Now, let's take an examplevoorbeeld.
71
232840
1336
Nu een voorbeeld.
04:06
Let's say you want to sellverkopen
planevlak ticketskaartjes to VegasVegas. Right?
72
234200
2696
Stel je wilt vliegtuigtickets
naar Las Vegas verkopen.
04:08
So in the oldoud worldwereld-, you could think
of some demographicsdemografie to targetdoel
73
236920
3496
Voorheen ging je dan denken
hoe je doelgroep er uit zou zien,
04:12
basedgebaseerde on experienceervaring
and what you can guessraden.
74
240440
2520
op basis van ervaring en wat je gokte.
04:15
You mightmacht try to advertiseadverteren to, oh,
75
243560
2816
Je zou je kunnen richten
op mannen tussen de 25 en 35,
04:18
menmannen betweentussen the agesleeftijden of 25 and 35,
76
246400
2496
04:20
or people who have
a highhoog limitbegrenzing on theirhun creditcredit cardkaart,
77
248920
3936
of mensen met een hoge limiet
op hun credit card,
04:24
or retiredmet pensioen couplesparen. Right?
78
252880
1376
of gepensioneerde echtparen.
04:26
That's what you would do in the pastverleden.
79
254280
1816
Zo ging dat in het verleden.
04:28
With biggroot datagegevens and machinemachine learningaan het leren,
80
256120
2896
Met big data en zelflerende systemen
gaat dat anders in z'n werk.
04:31
that's not how it workswerken anymoremeer.
81
259040
1524
04:33
So to imaginestel je voor that,
82
261320
2176
Om je dat voor te stellen,
04:35
think of all the datagegevens
that FacebookFacebook has on you:
83
263520
3856
kun je denken aan alle data
die Facebook van je heeft:
04:39
everyelk statusstaat updatebijwerken you ever typedgetypt,
84
267400
2536
elke status update die je ooit intoetste,
04:41
everyelk MessengerMessenger conversationgesprek,
85
269960
2016
elke Messenger-conversatie,
04:44
everyelk placeplaats you loggedaangemeld in from,
86
272000
1880
elke plek vanwaar je inlogde,
04:48
all your photographsfoto's
that you uploadedgeüpload there.
87
276400
3176
al je foto's die je daarheen uploadde.
04:51
If you startbegin typingtypen something
and changeverandering your mindgeest and deleteverwijderen it,
88
279600
3776
Als je iets begint te typen
maar je bedenkt je en verwijdert het,
04:55
FacebookFacebook keepshoudt those
and analyzesanalyseert them, too.
89
283400
3200
wordt ook dat door Facebook
bewaard en geanalyseerd.
04:59
IncreasinglySteeds meer, it triesprobeert
to matchbij elkaar passen you with your offlineoffline datagegevens.
90
287160
3936
Stukje bij beetje proberen ze
je offline data te achterhalen.
05:03
It alsoook purchasesaankopen
a lot of datagegevens from datagegevens brokersmakelaars.
91
291120
3176
Ook kopen ze veel data van datahandelaren.
05:06
It could be everything
from your financialfinancieel recordsarchief
92
294320
3416
Dat kan alles zijn,
van je financiële gegevens
tot een flink stuk
van je zoekgeschiedenis.
05:09
to a good chunkbrok of your browsingbrowsen historygeschiedenis.
93
297760
2120
05:12
Right? In the US,
suchzodanig datagegevens is routinelyroutinematig collectedverzamelde,
94
300360
5416
In de Verenigde Staten
worden zulke data standaard
vergaard, geordend en verkocht.
05:17
collatedgesorteerd and solduitverkocht.
95
305800
1960
In Europa hebben ze strengere regels.
05:20
In EuropeEuropa, they have tougherhardere rulesreglement.
96
308320
2440
05:23
So what happensgebeurt then is,
97
311680
2200
Door zich vervolgens
door al die data heen te worstelen,
05:26
by churningkarnen throughdoor all that datagegevens,
these machine-learningmachine-leren algorithmsalgoritmen --
98
314920
4016
leren deze zelflerende algoritmen --
05:30
that's why they're calledriep
learningaan het leren algorithmsalgoritmen --
99
318960
2896
de naam is niet toevallig --
aan welke karakteristieken mensen voldoen
05:33
they learnleren to understandbegrijpen
the characteristicskenmerken of people
100
321880
4096
die eerder tickets kochten naar Las Vegas.
05:38
who purchasedgekocht ticketskaartjes to VegasVegas before.
101
326000
2520
05:41
When they learnleren this from existingbestaand datagegevens,
102
329760
3536
Wat ze opsteken uit bestaande data
05:45
they alsoook learnleren
how to applyvan toepassing zijn this to newnieuwe people.
103
333320
3816
kunnen ze dan toepassen op nieuwe mensen.
05:49
So if they're presentedgepresenteerd with a newnieuwe personpersoon,
104
337160
3056
Als ze een nieuwe persoon
voorgeschoteld krijgen,
05:52
they can classifyclassificeren whetherof that personpersoon
is likelywaarschijnlijk to buykopen a ticketticket to VegasVegas or not.
105
340240
4640
kunnen ze bepalen of die al dan niet
een ticket zal kopen naar Las Vegas.
05:57
Fine. You're thinkinghet denken,
an offeraanbod to buykopen ticketskaartjes to VegasVegas.
106
345720
5456
Goed. Nu denk je:
een ticket naar Las Vegas...
dat geeft toch niet.
06:03
I can ignorenegeren that.
107
351200
1456
06:04
But the problemprobleem isn't that.
108
352680
2216
Maar dat is het probleem niet.
06:06
The problemprobleem is,
109
354920
1576
Het probleem is
dat we niet langer echt begrijpen
hoe deze complexe algoritmen werken.
06:08
we no longerlanger really understandbegrijpen
how these complexcomplex algorithmsalgoritmen work.
110
356520
4136
06:12
We don't understandbegrijpen
how they're doing this categorizationcategorisatie.
111
360680
3456
We begrijpen niet hoe
deze categorisering in z'n werk gaat.
06:16
It's giantreusachtig matricesmatrices,
thousandsduizenden of rowsrijen and columnskolommen,
112
364160
4416
Het zijn gigantische matrices,
duizenden regels en kolommen,
06:20
maybe millionsmiljoenen of rowsrijen and columnskolommen,
113
368600
1960
wellicht miljoenen regels en kolommen,
06:23
and not the programmersprogrammeurs
114
371320
2640
en noch de programmeurs,
noch wie er ook naar kijkt,
06:26
and not anybodyiemand who lookslooks at it,
115
374760
1680
ook al heb je alle data,
06:29
even if you have all the datagegevens,
116
377440
1496
06:30
understandsbegrijpt anymoremeer
how exactlyprecies it's operatingbedrijfs-
117
378960
4616
begrijpt nog hoe het precies functioneert.
06:35
any more than you'dje zou know
what I was thinkinghet denken right now
118
383600
3776
Net zo min als dat je zou weten
wat ik momenteel denk,
06:39
if you were showngetoond
a crosskruis sectionsectie of my brainhersenen.
119
387400
3960
wanneer je een doorsnede
van mijn brein zou zien.
06:44
It's like we're not programmingprogrammering anymoremeer,
120
392360
2576
We programmeren als het ware niet meer,
06:46
we're growinggroeiend intelligenceintelligentie-
that we don't trulywerkelijk understandbegrijpen.
121
394960
4400
maar we 'telen' intelligentie
die we niet echt begrijpen.
06:52
And these things only work
if there's an enormousenorm amountbedrag of datagegevens,
122
400520
3976
En deze dingen werken alleen
met enorme hoeveelheden data,
06:56
so they alsoook encourageaanmoedigen
deepdiep surveillancetoezicht on all of us
123
404520
5096
dus ze stimuleren intensieve
datavergaring over ons allemaal,
opdat de zelflerende algoritmen
hun werk kunnen doen.
07:01
so that the machinemachine learningaan het leren
algorithmsalgoritmen can work.
124
409640
2336
07:04
That's why FacebookFacebook wants
to collectverzamelen all the datagegevens it can about you.
125
412000
3176
Daarom vergaart Facebook
alle mogelijke data over jou.
07:07
The algorithmsalgoritmen work better.
126
415200
1576
Dan werken de algoritmen beter.
07:08
So let's pushDuwen that VegasVegas examplevoorbeeld a bitbeetje.
127
416800
2696
Nog even terug naar
dat voorbeeld over Las Vegas.
07:11
What if the systemsysteem
that we do not understandbegrijpen
128
419520
3680
Stel nou dat het systeem
dat we niet begrijpen,
07:16
was pickingpluk up that it's easiergemakkelijker
to sellverkopen VegasVegas ticketskaartjes
129
424200
5136
doorkreeg dat het makkelijker is
om tickets naar Las Vegas te verkopen
07:21
to people who are bipolarbipolaire
and about to enterinvoeren the manicManic phasefase.
130
429360
3760
aan bipolaire mensen
vlak voor ze de manische fase ingaan.
Vaak gaan zulke mensen
geld over de balk smijten
07:25
SuchDergelijke people tendde neiging hebben to becomeworden
overspendersoverspenders, compulsivecompulsieve gamblersgokkers.
131
433640
4920
en dwangmatig gokken.
07:31
They could do this, and you'dje zou have no clueaanwijzing
that's what they were pickingpluk up on.
132
439280
4456
Dat zouden ze kunnen, zonder
dat je een clou had wat ze oppikten.
07:35
I gavegaf this examplevoorbeeld
to a bunchbos of computercomputer scientistswetenschappers onceeen keer
133
443760
3616
Ik gaf dit voorbeeld eens
aan een stel computerwetenschappers
07:39
and afterwardsdaarna, one of them camekwam up to me.
134
447400
2056
en achteraf benaderde een van hen me.
07:41
He was troubledverontrust and he said,
"That's why I couldn'tkon het niet publishpubliceren it."
135
449480
3520
Hij keek bedrukt en zei:
"Daarom kon ik het niet publiceren."
Ik vroeg: "Wat publiceren?"
07:45
I was like, "Couldn'tKon niet publishpubliceren what?"
136
453600
1715
07:47
He had triedbeproefd to see whetherof you can indeedinderdaad
figurefiguur out the onsetbegin of maniamanie
137
455800
5856
Hij had onderzocht of je
een manie kon zien aankomen
aan de hand van sociale media-posts,
voordat er klinische symptomen waren.
07:53
from socialsociaal mediamedia postsberichten
before clinicalklinisch symptomssymptomen,
138
461680
3216
07:56
and it had workedwerkte,
139
464920
1776
Met succes.
07:58
and it had workedwerkte very well,
140
466720
2056
Het werkte heel goed,
08:00
and he had no ideaidee how it workedwerkte
or what it was pickingpluk up on.
141
468800
4880
zonder dat hij een idee had hoe,
of wat er opgepikt werd.
08:06
Now, the problemprobleem isn't solvedopgelost
if he doesn't publishpubliceren it,
142
474840
4416
Het probleem is niet opgelost
wanneer hij niet publiceert,
08:11
because there are alreadynu al companiesbedrijven
143
479280
1896
want er zijn reeds bedrijven
die dergelijke technologie ontwikkelen,
08:13
that are developingontwikkelen
this kindsoort of technologytechnologie,
144
481200
2536
08:15
and a lot of the stuffspul
is just off the shelfplank.
145
483760
2800
met makkelijk verkrijgbare middelen.
08:19
This is not very difficultmoeilijk anymoremeer.
146
487240
2576
Dit is niet zo moeilijk meer.
08:21
Do you ever go on YouTubeYouTube
meaningbetekenis to watch one videovideo-
147
489840
3456
Zit je wel eens op YouTube
om één video te kijken,
08:25
and an houruur laterlater you've watchedbekeken 27?
148
493320
2360
en een uur later heb er 27 gekeken?
08:28
You know how YouTubeYouTube
has this columnkolom on the right
149
496760
2496
Je kent die rechterkolom op YouTube wel
08:31
that sayszegt, "Up nextvolgende"
150
499280
2216
waar staat: "Up next"
08:33
and it autoplaysautoplays something?
151
501520
1816
en het volgende begint automatisch?
08:35
It's an algorithmalgoritme
152
503360
1216
Dat is een algoritme
08:36
pickingpluk what it thinksdenkt
that you mightmacht be interestedgeïnteresseerd in
153
504600
3616
dat kiest wat het denkt
dat jou interesseert
08:40
and maybe not find on your owneigen.
154
508240
1536
en dat je zelf niet zou vinden.
08:41
It's not a humanmenselijk editoreditor.
155
509800
1256
Daar zit geen mens achter.
08:43
It's what algorithmsalgoritmen do.
156
511080
1416
Dat doen algoritmen.
08:44
It picksPicks up on what you have watchedbekeken
and what people like you have watchedbekeken,
157
512520
4736
Die letten op waar jij naar gekeken hebt
en waarnaar anderen zoals jij naar keken,
08:49
and infersafleidt that that mustmoet be
what you're interestedgeïnteresseerd in,
158
517280
4216
en concludeert dat dat moet zijn
wat jou interesseert,
waar je meer van wilt,
08:53
what you want more of,
159
521520
1255
08:54
and just showsshows you more.
160
522799
1336
en dat schotelt het je voor.
08:56
It soundsklanken like a benigngoedaardig
and usefulnuttig featurekenmerk,
161
524159
2201
Het klinkt als een goedaardige
nuttige functie,
maar dat is het soms niet.
08:59
exceptbehalve when it isn't.
162
527280
1200
09:01
So in 2016, I attendedbijgewoond ralliesrally 's
of then-candidatetoenmalige kandidaat- DonaldDonald TrumpTrump
163
529640
6960
In 2016 woonde ik bijeenkomsten bij
van toenmalig kandidaat Donald Trump
09:09
to studystudie as a scholargeleerde
the movementbeweging supportingondersteuning van him.
164
537840
3336
om als onderzoeker
zijn beweging te bestuderen.
09:13
I studystudie socialsociaal movementsbewegingen,
so I was studyingaan het studeren it, too.
165
541200
3456
Ik bestudeer sociale bewegingen,
en daarom ook deze.
09:16
And then I wanted to writeschrijven something
about one of his ralliesrally 's,
166
544680
3336
Toen wilde ik iets schrijven
over een van zijn bijeenkomsten,
dus bekeek ik die
een paar maal op YouTube.
09:20
so I watchedbekeken it a fewweinig timestijden on YouTubeYouTube.
167
548040
1960
09:23
YouTubeYouTube startedbegonnen recommendingaanbevelen to me
168
551240
3096
YouTube begon me toen
ultrarechtse video's aan te raden
09:26
and autoplayingautomatisch afspelen to me
whitewit supremacistSupremacist videosvideos
169
554360
4256
en deze automatisch af te spelen.
09:30
in increasingtoenemend orderbestellen of extremismextremisme.
170
558640
2656
Steeds een graadje extremer.
09:33
If I watchedbekeken one,
171
561320
1816
Als ik er eentje keek,
09:35
it servedgeserveerd up one even more extremeextreem
172
563160
2976
kreeg ik er daarna een
die nog wat extremer was
09:38
and autoplayedautoplayed that one, too.
173
566160
1424
en die begon ook automatisch.
09:40
If you watch HillaryHillary ClintonClinton
or BernieBernie SandersSanders contentinhoud,
174
568320
4536
Als je content bekijkt over
Hillary Clinton of Bernie Sanders,
09:44
YouTubeYouTube recommendsbeveelt aan
and autoplaysautoplays conspiracysamenzwering left,
175
572880
4696
schotelt YouTube je
linkse complotvideo's voor
09:49
and it goesgaat downhillbergafwaarts from there.
176
577600
1760
en van daar gaat het bergafwaarts.
09:52
Well, you mightmacht be thinkinghet denken,
this is politicspolitiek, but it's not.
177
580480
3056
Nou denk je misschien,
dat is politiek, maar dat is niet zo.
Dit gaat niet over politiek.
09:55
This isn't about politicspolitiek.
178
583560
1256
09:56
This is just the algorithmalgoritme
figuringuitzoeken out humanmenselijk behaviorgedrag.
179
584840
3096
Het is slechts een algoritme
dat menselijk gedrag doorgrondt.
09:59
I onceeen keer watchedbekeken a videovideo-
about vegetarianismvegetarisme on YouTubeYouTube
180
587960
4776
Ik keek eens een filmpje
over vegetarisme op YouTube
10:04
and YouTubeYouTube recommendedAanbevolen
and autoplayedautoplayed a videovideo- about beingwezen veganveganistisch.
181
592760
4936
en vervolgens kreeg ik
een filmpje over veganisme te zien.
10:09
It's like you're never
hardcorehardcore enoughgenoeg for YouTubeYouTube.
182
597720
3016
Voor YouTube ben je nooit hardcore genoeg.
10:12
(LaughterGelach)
183
600760
1576
(Gelach)
10:14
So what's going on?
184
602360
1560
Waarom is dat toch?
10:16
Now, YouTube'sYouTube's algorithmalgoritme is proprietarymerkgebonden,
185
604520
3536
Nu is YouTubes algoritme niet openbaar,
maar ik denk dat het als volgt zit.
10:20
but here'shier is what I think is going on.
186
608080
2360
10:23
The algorithmalgoritme has figuredbedacht out
187
611360
2096
Het algoritme heeft uitgedokterd
10:25
that if you can enticeverleiden people
188
613480
3696
dat als je mensen kan laten geloven
dat je hen iets kan laten zien
dat meer hardcore is,
10:29
into thinkinghet denken that you can
showtonen them something more hardcorehardcore,
189
617200
3736
10:32
they're more likelywaarschijnlijk to stayverblijf on the siteplaats
190
620960
2416
zij geneigd zijn om op de site te blijven
10:35
watchingkijken videovideo- after videovideo-
going down that rabbitkonijn holegat
191
623400
4416
om video na video te kijken,
vallend door dat konijnenhol,
10:39
while GoogleGoogle servesbedient them adsadvertenties.
192
627840
1680
terwijl Google hen
advertenties kan tonen.
10:43
Now, with nobodyniemand mindingHoud rekening met
the ethicsethiek of the storeop te slaan,
193
631760
3120
Als er niemand is
die op de ethische code let,
10:47
these sitesplaatsen can profileProfiel people
194
635720
4240
kunnen deze sites mensen profileren
10:53
who are JewJood hatershaters,
195
641680
1920
die Joden haten,
10:56
who think that JewsJoden are parasitesparasieten
196
644360
2480
die vinden dat Joden parasieten zijn
11:00
and who have suchzodanig explicituitdrukkelijk
anti-Semiticanti-semitische contentinhoud,
197
648320
4920
en die zulke expliciete
antisemitische content tonen,
en jou daar gericht laten adverteren.
11:06
and let you targetdoel them with adsadvertenties.
198
654080
2000
11:09
They can alsoook mobilizemobiliseren algorithmsalgoritmen
199
657200
3536
Ook kunnen ze algoritmen mobiliseren
om soortgelijk publiek voor je te vinden.
11:12
to find for you look-alikelook-alike audiencespubliek,
200
660760
3136
Mensen zonder zulke expliciete
antisemitische content op hun profiel,
11:15
people who do not have suchzodanig explicituitdrukkelijk
anti-Semiticanti-semitische contentinhoud on theirhun profileProfiel
201
663920
5576
11:21
but who the algorithmalgoritme detectsdetecteert
maymei be susceptiblevatbaar to suchzodanig messagesberichten,
202
669520
6176
maar die volgens het algoritme
mogelijk ontvankelijk zijn
voor zulke boodschappen,
11:27
and letslaten we you targetdoel them with adsadvertenties, too.
203
675720
1920
en daar mag je dan ook adverteren.
Dat klinkt misschien
als een onwaarschijnlijk voorbeeld,
11:30
Now, this maymei soundgeluid
like an implausibleonaannemelijk examplevoorbeeld,
204
678680
2736
maar dit is echt.
11:33
but this is realecht.
205
681440
1320
11:35
ProPublicaProPublica investigatedonderzocht this
206
683480
2136
ProPublica onderzocht dit
11:37
and foundgevonden that you can indeedinderdaad
do this on FacebookFacebook,
207
685640
3616
en ontdekte dat je dit
daadwerkelijk kan doen op Facebook,
11:41
and FacebookFacebook helpfullybehulpzaam
offeredaangeboden up suggestionsSuggesties
208
689280
2416
waarbij Facebook behulpzaam suggereert
hoe je dat publiek kan verbreden.
11:43
on how to broadenverbreden that audiencepubliek.
209
691720
1600
11:46
BuzzFeedBuzzFeed triedbeproefd it for GoogleGoogle,
and very quicklysnel they foundgevonden,
210
694720
3016
BuzzFeed probeerde het bij Google
en merkte al snel dat het daar ook kan.
11:49
yepYep, you can do it on GoogleGoogle, too.
211
697760
1736
11:51
And it wasn'twas niet even expensiveduur.
212
699520
1696
Het was niet eens duur.
11:53
The ProPublicaProPublica reporterverslaggever
spentdoorgebracht about 30 dollarsdollars
213
701240
4416
De journalist van ProPublica
gaf zo'n 30 dollar uit
om deze doelgroep aan te spreken.
11:57
to targetdoel this categorycategorie.
214
705680
2240
12:02
So last yearjaar, DonaldDonald Trump'sDe bazuin
socialsociaal mediamedia managermanager disclosedopenbaar gemaakt
215
710600
5296
Verleden jaar onthulde
Donald Trumps sociale media-manager
12:07
that they were usinggebruik makend van FacebookFacebook darkdonker postsberichten
to demobilizedemobilize people,
216
715920
5336
dat ze met 'dark posts' op Facebook
mensen demobiliseerden,
12:13
not to persuadeoverhalen them,
217
721280
1376
niet om ze over te halen,
12:14
but to convinceovertuigen them not to votestemmen at all.
218
722680
2800
maar om ze te ontmoedigen te gaan stemmen.
12:18
And to do that,
they targeteddoelgerichte specificallyspecifiek,
219
726520
3576
Om dat te doen, richtten ze zich specifiek
op bijvoorbeeld zwarte Amerikaanse mannen
12:22
for examplevoorbeeld, African-AmericanAfro-Amerikaanse menmannen
in keysleutel citiessteden like PhiladelphiaPhiladelphia,
220
730120
3896
in belangrijke steden als Philadelphia.
12:26
and I'm going to readlezen
exactlyprecies what he said.
221
734040
2456
Ik zal voorlezen wat hij zei.
12:28
I'm quotingciteren.
222
736520
1216
Ik citeer.
12:29
They were usinggebruik makend van "nonpublicNonpublic postsberichten
223
737760
3016
Ze gebruikten "niet-openbare posts,
gericht op een doelgroep
die de campagne bepaalt,
12:32
whosewaarvan viewershipkijkers the campaigncampagne controlscontrols
224
740800
2176
12:35
so that only the people
we want to see it see it.
225
743000
3776
dus enkel zichtbaar
voor wie wij willen dat het ziet.
Wij gaven dit vorm.
12:38
We modeledgemodelleerd this.
226
746800
1216
12:40
It will dramaticallydramatisch affectaantasten her abilityvermogen
to turnbeurt these people out."
227
748040
4720
Ze zal hierdoor veel moeite hebben
deze mensen voor haar te laten stemmen."
12:45
What's in those darkdonker postsberichten?
228
753720
2280
Wat staat er in deze 'dark posts'?
We hebben geen idee.
12:48
We have no ideaidee.
229
756480
1656
Dat houdt Facebook geheim.
12:50
FacebookFacebook won'tzal niet tell us.
230
758160
1200
12:52
So FacebookFacebook alsoook algorithmicallyalgoritmisch
arrangesHiermee schikt u the postsberichten
231
760480
4376
Facebook gebruikt ook een algoritme
voor de ordening van vriendenposts
of de pagina's die je volgt.
12:56
that your friendsvrienden put on FacebookFacebook,
or the pagespagina's you followvolgen.
232
764880
3736
13:00
It doesn't showtonen you
everything chronologicallychronologisch.
233
768640
2216
Ze tonen je niet alles chronologisch.
13:02
It putsputs the orderbestellen in the way
that the algorithmalgoritme thinksdenkt will enticeverleiden you
234
770880
4816
Het algoritme kiest de volgorde
die jou naar verwachting
het langst op de site zal houden.
13:07
to stayverblijf on the siteplaats longerlanger.
235
775720
1840
13:11
Now, so this has a lot of consequencesgevolgen.
236
779040
3376
Dit heeft zo zijn consequenties.
13:14
You maymei be thinkinghet denken
somebodyiemand is snubbingSnubbing you on FacebookFacebook.
237
782440
3800
Je denkt misschien
dat iemand je negeert op Facebook.
13:18
The algorithmalgoritme maymei never
be showingtonen your postpost to them.
238
786800
3256
Maar misschien toont het algoritme
die persoon nooit jouw posts.
13:22
The algorithmalgoritme is prioritizingprioriteiten stellen
some of them and buryingbegraven the othersanderen.
239
790080
5960
Het geeft voorrang aan de een
en begraaft de ander.
13:29
ExperimentsExperimenten showtonen
240
797320
1296
Experimenten laten zien
13:30
that what the algorithmalgoritme picksPicks to showtonen you
can affectaantasten your emotionsemoties.
241
798640
4520
dat wat het algoritme toont,
invloed kan hebben op je emoties.
Maar niet alleen dat.
13:36
But that's not all.
242
804600
1200
13:38
It alsoook affectsbeïnvloedt politicalpolitiek behaviorgedrag.
243
806280
2360
Het beïnvloedt ook politiek gedrag.
13:41
So in 2010, in the midtermtussentijdse electionsverkiezingen,
244
809360
4656
In 2010, in de verkiezingen
voor het Amerikaanse congres,
13:46
FacebookFacebook did an experimentexperiment
on 61 millionmiljoen people in the US
245
814040
5896
deed Facebook een experiment
met 61 miljoen Amerikanen
dat ze achteraf openbaar maakten.
13:51
that was disclosedopenbaar gemaakt after the factfeit.
246
819960
1896
13:53
So some people were showngetoond,
"TodayVandaag is electionverkiezing day,"
247
821880
3416
Sommige mensen kregen te zien:
'Vandaag is verkiezingsdag',
13:57
the simplereenvoudigere one,
248
825320
1376
de eenvoudige versie,
13:58
and some people were showngetoond
the one with that tinyklein tweakTweak
249
826720
3896
en anderen zagen de versie
met die kleine aanpassing,
14:02
with those little thumbnailsminiaturen
250
830640
2096
met thumbnails van je vrienden
die hadden geklikt op 'Ik heb gestemd'.
14:04
of your friendsvrienden who clickedgeklikt on "I votedgestemd."
251
832760
2840
14:09
This simpleeenvoudig tweakTweak.
252
837000
1400
Een kleine aanpassing.
14:11
OK? So the picturesafbeeldingen were the only changeverandering,
253
839520
4296
Die foto's waren het enige verschil,
14:15
and that postpost showngetoond just onceeen keer
254
843840
3256
maar door één enkele vertoning daarvan
14:19
turnedgedraaid out an additionalextra 340,000 voterskiezers
255
847120
6056
gingen 340.000 mensen méér
hun stem uitbrengen
14:25
in that electionverkiezing,
256
853200
1696
tijdens die verkiezingen,
14:26
accordingvolgens to this researchOnderzoek
257
854920
1696
volgens dit onderzoek,
14:28
as confirmedbevestigd by the voterkiezer rollsbroodjes.
258
856640
2520
en bevestigd door de opkomstcijfers.
14:32
A flukeFluke? No.
259
860920
1656
Toeval? Nee.
14:34
Because in 2012,
they repeatedherhaald the samedezelfde experimentexperiment.
260
862600
5360
Want in 2012 herhaalden ze dit experiment
14:40
And that time,
261
868840
1736
en deze keer
14:42
that civicburgerlijk messagebericht showngetoond just onceeen keer
262
870600
3296
zorgde één enkele vertoning
van die boodschap
14:45
turnedgedraaid out an additionalextra 270,000 voterskiezers.
263
873920
4440
voor 270.000 extra stembusgangers.
14:51
For referencereferentie, the 2016
US presidentialpresidentiële electionverkiezing
264
879160
5216
Ter vergelijk:
in de presidentsverkiezingen van 2016
14:56
was decidedbeslist by about 100,000 votesstemmen.
265
884400
3520
gaven zo'n 100.000 stemmen de doorslag.
15:01
Now, FacebookFacebook can alsoook
very easilygemakkelijk inferafleiden what your politicspolitiek are,
266
889360
4736
Facebook kan met gemak
jouw politieke gezindheid achterhalen,
15:06
even if you've never
disclosedopenbaar gemaakt them on the siteplaats.
267
894120
2256
al heb je die nooit geuit op de site.
15:08
Right? These algorithmsalgoritmen
can do that quiteheel easilygemakkelijk.
268
896400
2520
Geen enkel probleem voor die algoritmen.
15:11
What if a platformplatform with that kindsoort of powermacht
269
899960
3896
Stel nou dat een platform met zulke macht
15:15
decidesbeslist to turnbeurt out supportersaanhangers
of one candidatekandidaat-lidstaten over the other?
270
903880
5040
besluit om de opkomst te stimuleren
voor een bepaalde kandidaat?
Hoe zouden we dat
ook maar te weten komen?
15:21
How would we even know about it?
271
909680
2440
We zijn begonnen
bij iets dat onschuldig lijkt --
15:25
Now, we startedbegonnen from someplaceergens
seeminglyschijnbaar innocuousonschuldig --
272
913560
4136
15:29
onlineonline addsvoegt followingvolgend us around --
273
917720
2216
online advertenties
die ons achtervolgen --
15:31
and we'vewij hebben landedgeland someplaceergens elseanders.
274
919960
1840
en zijn ergens anders aanbeland.
15:35
As a publicopenbaar and as citizensburgers,
275
923480
2456
Als publiek en als burgers
weten we niet meer of we
allemaal dezelfde informatie zien,
15:37
we no longerlanger know
if we're seeingziend the samedezelfde informationinformatie
276
925960
3416
15:41
or what anybodyiemand elseanders is seeingziend,
277
929400
1480
of wat anderen te zien krijgen.
15:43
and withoutzonder a commongemeenschappelijk basisbasis of informationinformatie,
278
931680
2576
Zonder een gedeelde informatievoorziening
15:46
little by little,
279
934280
1616
wordt openbaar debat
geleidelijk aan onmogelijk.
15:47
publicopenbaar debatedebat is becomingworden impossibleonmogelijk,
280
935920
3216
15:51
and we're just at
the beginningbegin stagesstadia of this.
281
939160
2976
En dit is nog maar net begonnen.
15:54
These algorithmsalgoritmen can quiteheel easilygemakkelijk inferafleiden
282
942160
3456
Deze algoritmen achterhalen met gemak
15:57
things like your people'sPeople's ethnicityetniciteit,
283
945640
3256
dingen als je etnische afkomst,
16:00
religiousreligieus and politicalpolitiek viewskeer bekeken,
personalitypersoonlijkheid traitseigenschappen,
284
948920
2336
religieuze en politieke gezindheid,
16:03
intelligenceintelligentie-, happinessgeluk,
use of addictiveverslavend substancesstoffen,
285
951280
3376
intelligentie, welzijn,
gebruik van verslavende middelen,
16:06
parentalouderlijke separationscheiding, ageleeftijd and gendersgeslachten,
286
954680
3136
gescheiden ouders, leeftijd en geslacht,
puur op basis van Facebook-likes.
16:09
just from FacebookFacebook likessympathieën.
287
957840
1960
16:13
These algorithmsalgoritmen can identifyidentificeren protestersdemonstranten
288
961440
4056
Deze algoritmen kunnen
demonstranten identificeren
16:17
even if theirhun facesgezichten
are partiallygedeeltelijk concealedverborgen.
289
965520
2760
wier gezichten gedeeltelijk bedekt zijn.
16:21
These algorithmsalgoritmen maymei be ablein staat
to detectopsporen people'sPeople's sexualseksueel orientationafdrukstand
290
969720
6616
Deze algoritmen zijn mogelijk in staat
iemands seksuele voorkeur te achterhalen
16:28
just from theirhun datingdating profileProfiel picturesafbeeldingen.
291
976360
3200
op basis van profielfoto's op datingsites.
16:33
Now, these are probabilisticprobabilistische guessesgissingen,
292
981560
2616
Weliswaar op basis van waarschijnlijkheid,
16:36
so they're not going
to be 100 percentprocent right,
293
984200
2896
dus ze hebben het
ook wel eens bij het verkeerde eind,
16:39
but I don't see the powerfulkrachtig resistingverzet tegen
the temptationverleiding to use these technologiestechnologieën
294
987120
4896
maar ik zie de machtigen der aarde
deze technologieën nog niet schuwen
16:44
just because there are
some falsevals positivespositieven,
295
992040
2176
enkel vanwege wat valse positieven.
16:46
whichwelke will of courseCursus createcreëren
a wholegeheel other layerlaag of problemsproblemen.
296
994240
3256
Dit creëert uiteraard
een geheel nieuwe laag problemen.
16:49
ImagineStel je voor what a statestaat can do
297
997520
2936
Stel je voor wat een staat kan doen
16:52
with the immenseonmetelijk amountbedrag of datagegevens
it has on its citizensburgers.
298
1000480
3560
met de immense hoeveelheid data
die hij bezit van zijn burgers.
16:56
ChinaChina is alreadynu al usinggebruik makend van
facegezicht detectionopsporing technologytechnologie
299
1004680
4776
China gebruikt nu al
gezichtsherkenningssoftware
om mensen te identificeren en arresteren.
17:01
to identifyidentificeren and arrestarresteren people.
300
1009480
2880
17:05
And here'shier is the tragedytragedie:
301
1013280
2136
En het treurige is dit:
17:07
we're buildinggebouw this infrastructureinfrastructuur
of surveillancetoezicht authoritarianismautoritarisme
302
1015440
5536
we bouwen de infrastructuur
van een politiestaat
enkel om mensen
op advertenties te laten klikken.
17:13
merelyalleen to get people to clickKlik on adsadvertenties.
303
1021000
2960
17:17
And this won'tzal niet be
Orwell'sOrwell authoritarianismautoritarisme.
304
1025240
2576
Dit zal geen
Orwelliaanse politiestaat zijn.
17:19
This isn't "1984."
305
1027839
1897
Het is niet '1984'.
17:21
Now, if authoritarianismautoritarisme
is usinggebruik makend van overtopenlijk fearangst to terrorizeterroriseren us,
306
1029760
4576
Als een autoritair regime openlijk
angst gebruikt als machtsmiddel,
17:26
we'llgoed all be scaredbang, but we'llgoed know it,
307
1034359
2897
zijn we allemaal bang, maar we weten het.
17:29
we'llgoed hatehaat it and we'llgoed resistweerstand bieden it.
308
1037280
2200
We haten het en verzetten ons ertegen.
17:32
But if the people in powermacht
are usinggebruik makend van these algorithmsalgoritmen
309
1040880
4416
Maar als de machthebbers
deze algoritmen gebruiken
17:37
to quietlyzachtjes watch us,
310
1045319
3377
om ons stiekem te bespieden,
te beoordelen en te sturen ...
17:40
to judgerechter us and to nudgeverschuiven us,
311
1048720
2080
17:43
to predictvoorspellen and identifyidentificeren
the troublemakersrelschoppers and the rebelsrebellen,
312
1051720
4176
te voorspellen wie de
dwarsliggers en rebellen zijn,
17:47
to deployimplementeren persuasionoverreding
architecturesplatforms at scaleschaal
313
1055920
3896
om op grote schaal die
beïnvloedingsmachine in te zetten
17:51
and to manipulatemanipuleren individualsindividuen one by one
314
1059840
4136
en mensen individueel te manipuleren,
17:56
usinggebruik makend van theirhun personalpersoonlijk, individualindividu
weaknesseszwakke punten and vulnerabilitieskwetsbaarheden,
315
1064000
5440
gebruik makend van ieders
persoonlijke zwakheden,
18:02
and if they're doing it at scaleschaal
316
1070720
2200
en ze doen dat op grote schaal
18:06
throughdoor our privateprivaat screensscreens
317
1074080
1736
via onze persoonlijke schermen,
18:07
so that we don't even know
318
1075840
1656
zodat we niet eens weten
18:09
what our fellowkameraad citizensburgers
and neighborsburen are seeingziend,
319
1077520
2760
wat onze medeburger
of onze buurman ziet ...
18:13
that authoritarianismautoritarisme
will envelopomhullen us like a spider'sSpider's webweb
320
1081560
4816
... dat autoritarisme zal ons
omsluiten als een spinnenweb,
waarvan we mogelijk
niet eens weten dat we erin zitten.
18:18
and we maymei not even know we're in it.
321
1086400
2480
18:22
So Facebook'sFacebook's marketmarkt capitalizationhoofdlettergebruik
322
1090440
2936
Facebooks marktkapitalisatie
nadert nu 420 miljard euro.
18:25
is approachingnaderen halfvoor de helft a trillionbiljoen dollarsdollars.
323
1093400
3296
18:28
It's because it workswerken great
as a persuasionoverreding architecturearchitectuur.
324
1096720
3120
Dat komt omdat het geweldig werkt
als beïnvloedingsmachine.
18:33
But the structurestructuur of that architecturearchitectuur
325
1101760
2816
Maar die machinerie werkt hetzelfde
18:36
is the samedezelfde whetherof you're sellingselling shoesschoenen
326
1104600
3216
of je nu schoenen verkoopt
of een politieke mening.
18:39
or whetherof you're sellingselling politicspolitiek.
327
1107840
2496
De algoritmen kennen het verschil niet.
18:42
The algorithmsalgoritmen do not know the differenceverschil.
328
1110360
3120
18:46
The samedezelfde algorithmsalgoritmen setreeks looselos uponop us
329
1114240
3296
Dezelfde algoritmen
die op je losgelaten worden
18:49
to make us more pliableplooibaar for adsadvertenties
330
1117560
3176
om ons dingen aan te smeren,
18:52
are alsoook organizingorganiserende our politicalpolitiek,
personalpersoonlijk and socialsociaal informationinformatie flowsstroomt,
331
1120760
6736
bepalen tevens je politieke,
persoonlijke en sociale informatiestromen
en dát moet veranderen.
18:59
and that's what's got to changeverandering.
332
1127520
1840
19:02
Now, don't get me wrongfout,
333
1130240
2296
Begrijp me niet verkeerd,
19:04
we use digitaldigitaal platformsplatforms
because they providevoorzien us with great valuewaarde.
334
1132560
3680
we gebruiken digitale platformen
omdat die van grote waarde zijn voor ons.
19:09
I use FacebookFacebook to keep in touchaanraken
with friendsvrienden and familyfamilie around the worldwereld-.
335
1137120
3560
Ik gebruik Facebook voor contact
met vrienden en familie elders ter wereld.
19:14
I've writtengeschreven about how crucialbeslissend
socialsociaal mediamedia is for socialsociaal movementsbewegingen.
336
1142000
5776
Ik heb geschreven over het enorme belang
van sociale media voor sociale bewegingen.
19:19
I have studiedbestudeerd how
these technologiestechnologieën can be used
337
1147800
3016
Ik heb bestudeerd hoe
deze technologieën gebruikt kunnen worden
19:22
to circumventomzeilen censorshipcensuur around the worldwereld-.
338
1150840
2480
om wereldwijd censuur te omzeilen.
19:27
But it's not that the people who runrennen,
you know, FacebookFacebook or GoogleGoogle
339
1155280
6416
Maar het is niet dat de mensen
die Facebook en Google en zo runnen
19:33
are maliciouslymet kwade bedoelingen and deliberatelymet opzet tryingproberen
340
1161720
2696
kwaadaardig en bewust proberen
19:36
to make the countryland
or the worldwereld- more polarizedgepolariseerde
341
1164440
4456
om het land of de wereld
meer gepolariseerd te maken
en extremisme aan te wakkeren.
19:40
and encourageaanmoedigen extremismextremisme.
342
1168920
1680
19:43
I readlezen the manyveel
well-intentionedgoedbedoelde statementsstatements
343
1171440
3976
Ik heb vele welbedoelde statements gelezen
19:47
that these people put out.
344
1175440
3320
van de hand van deze mensen.
19:51
But it's not the intentvoornemen or the statementsstatements
people in technologytechnologie make that matterer toe doen,
345
1179600
6056
Het zijn niet de intentie of de statements
van mensen in de technologiesector
die ertoe doen,
19:57
it's the structuresstructuren
and businessbedrijf modelsmodellen they're buildinggebouw.
346
1185680
3560
maar de structuren
en de bedrijfsmodellen die ze bouwen.
Dat is de kern van het probleem.
20:02
And that's the corekern of the problemprobleem.
347
1190360
2096
20:04
EitherBeide FacebookFacebook is a giantreusachtig con
of halfvoor de helft a trillionbiljoen dollarsdollars
348
1192480
4720
Ofwel Facebook zijn oplichters
van bijna een half biljoen
20:10
and adsadvertenties don't work on the siteplaats,
349
1198200
1896
met advertenties die niet werken,
20:12
it doesn't work
as a persuasionoverreding architecturearchitectuur,
350
1200120
2696
die niet werken als beïnvloedingsmachine,
20:14
or its powermacht of influenceinvloed
is of great concernbezorgdheid.
351
1202840
4120
óf hun beïnvloedingsmacht
is reden tot grote zorg.
Het is het een of het ander.
20:20
It's eithereen van beide one or the other.
352
1208560
1776
20:22
It's similarsoortgelijk for GoogleGoogle, too.
353
1210360
1600
Google is een soortgelijk verhaal.
20:24
So what can we do?
354
1212880
2456
Wat kunnen we eraan doen?
20:27
This needsbehoefte aan to changeverandering.
355
1215360
1936
Dit moet veranderen.
Ik kan geen simpel recept geven,
20:29
Now, I can't offeraanbod a simpleeenvoudig reciperecept,
356
1217320
2576
want wij moeten de functioneringswijze
20:31
because we need to restructureherstructureren
357
1219920
2256
20:34
the wholegeheel way our
digitaldigitaal technologytechnologie operatesexploiteert.
358
1222200
3016
van onze hele digitale
technologie herinrichten.
20:37
Everything from the way
technologytechnologie is developedontwikkelde
359
1225240
4096
Alles, van hoe de technologie
ontwikkeld wordt,
20:41
to the way the incentivesprikkels,
economiceconomisch and otherwiseanders-,
360
1229360
3856
tot hoe de stimuli,
zowel economisch als anderszins,
20:45
are builtgebouwd into the systemsysteem.
361
1233240
2280
in het systeem ingebouwd zijn.
20:48
We have to facegezicht and try to dealtransactie with
362
1236480
3456
We zullen een antwoord moeten vinden
20:51
the lackgebrek of transparencytransparantie
createdaangemaakt by the proprietarymerkgebonden algorithmsalgoritmen,
363
1239960
4656
op het gebrek aan transparantie
veroorzaakt door gesloten algoritmen,
20:56
the structuralstructureel challengeuitdaging
of machinemachine learning'sleren 's opacitydekking,
364
1244640
3816
de ondoorzichtigheid
van kunstmatige intelligentie,
en die massa's data
die over ons verzameld worden.
21:00
all this indiscriminatewillekeurige datagegevens
that's beingwezen collectedverzamelde about us.
365
1248480
3400
21:05
We have a biggroot tasktaak in frontvoorkant of us.
366
1253000
2520
Er staat ons veel te doen.
21:08
We have to mobilizemobiliseren our technologytechnologie,
367
1256160
2680
We moeten onze technologie mobiliseren,
21:11
our creativitycreativiteit
368
1259760
1576
onze creativiteit
en ook onze politiek,
21:13
and yes, our politicspolitiek
369
1261360
1880
21:16
so that we can buildbouwen
artificialkunstmatig intelligenceintelligentie-
370
1264240
2656
zodat we kunstmatige
intelligentie kunnen bouwen
21:18
that supportsondersteunt us in our humanmenselijk goalsdoelen
371
1266920
3120
die ons ondersteunt
in onze menselijke doelen,
maar die ook beteugeld wordt
door onze menselijke waarden.
21:22
but that is alsoook constrainedgedwongen
by our humanmenselijk valueswaarden.
372
1270800
3920
Ik begrijp dat dit niet makkelijk wordt.
21:27
And I understandbegrijpen this won'tzal niet be easygemakkelijk.
373
1275600
2160
Misschien is zelfs al consensus
over de betekenis van die termen moeilijk.
21:30
We mightmacht not even easilygemakkelijk agreemee eens
on what those termstermen mean.
374
1278360
3600
21:34
But if we take seriouslyernstig
375
1282920
2400
Maar als we serieus nemen
hoe deze systemen opereren
waarvan we zo sterk afhankelijk zijn,
21:38
how these systemssystemen that we
dependafhangen on for so much operatebedienen,
376
1286240
5976
zie ik niet hoe we deze conversatie
nog langer kunnen uitstellen.
21:44
I don't see how we can postponeuitstellen
this conversationgesprek anymoremeer.
377
1292240
4120
21:49
These structuresstructuren
378
1297200
2536
Deze structuren
21:51
are organizingorganiserende how we functionfunctie
379
1299760
4096
regelen ons functioneren
en ze bepalen wat we
wel en niet kunnen doen.
21:55
and they're controllinghet controleren
380
1303880
2296
21:58
what we can and we cannotkan niet do.
381
1306200
2616
22:00
And manyveel of these ad-financedAd-gefinancierd platformsplatforms,
382
1308840
2456
Veel van deze
advertentie-gedreven platformen
22:03
they boastbogen that they're freegratis.
383
1311320
1576
pochen dat ze gratis zijn.
22:04
In this contextcontext, it meansmiddelen
that we are the productartikel that's beingwezen solduitverkocht.
384
1312920
4560
In deze context betekent dat
dat wijzelf de koopwaar zijn.
22:10
We need a digitaldigitaal economyeconomie
385
1318840
2736
We hebben een digitale economie nodig
22:13
where our datagegevens and our attentionaandacht
386
1321600
3496
waar onze data en onze aandacht
22:17
is not for saleverkoop to the highest-biddinghoogste-bieden
authoritarianautoritaire or demagoguedemagoog.
387
1325120
5080
niet te koop zijn voor
de hoogstbiedende machthebber.
22:23
(ApplauseApplaus)
388
1331160
3800
(Applaus)
22:30
So to go back to
that HollywoodHollywood paraphraseparafrase,
389
1338480
3256
Om terug te gaan
naar dat citaat uit Hollywood:
22:33
we do want the prodigiouswonderbaarlijke potentialpotentieel
390
1341760
3736
we willen dat het ongekende potentieel
van kunstmatige intelligentie
en digitale technologie tot wasdom komt,
22:37
of artificialkunstmatig intelligenceintelligentie-
and digitaldigitaal technologytechnologie to blossomBlossom,
391
1345520
3200
maar daarvoor
22:41
but for that, we mustmoet facegezicht
this prodigiouswonderbaarlijke menacebedreiging,
392
1349400
4936
zullen we dit ongekende monster
onder ogen moeten zien, en wel nu.
22:46
open-eyedOpen-eyed and now.
393
1354360
1936
22:48
Thank you.
394
1356320
1216
Dank je wel.
22:49
(ApplauseApplaus)
395
1357560
4640
(Applaus)
Translated by Axel Saffran
Reviewed by Peter Van de Ven

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee