ABOUT THE SPEAKER
Danielle Citron - Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice.

Why you should listen

As a law professor, Danielle Citron puts her commitment to civil rights into practice. She is vice president of the Cyber Civil Rights Initiative, a nonprofit combatting privacy-invading online abuse that undermines civil rights and civil liberties.

When Citron began addressing cyber harassment ten years ago, it was commonly believed that it was "no big deal," and that any legal response would "break the internet." Those attitudes -- and the heartbreaking stories of victims who were terrorized, silenced and economically damaged -- drove Citron to write her 2014 book, Hate Crimes in Cyberspace. Ever since, she has been working with lawmakers, law enforcers, and tech companies to make online spaces and tools available to all on equal terms. Her latest book project focuses on the importance of sexual privacy and how we should protect it. 

More profile about the speaker
Danielle Citron | Speaker | TED.com
TEDSummit 2019

Danielle Citron: How deepfakes undermine truth and threaten democracy

Danielle Citron: Hoe deepfakes de waarheid ondermijnen en de democratie bedreigen

Filmed:
1,533,743 views

Het gebruik van deepfake-technologie om video en audio te manipuleren voor kwaadaardige doeleinden -- of het nu is om geweld te stoken of politici en journalisten te belasteren -- wordt een reële bedreiging. Hoe zal het vorm geven aan wat wij over de wereld geloven als deze tools toegankelijker worden en hun producten realistischer? In een onheilspellende lezing onthult professor professor Danielle Citron hoe deepfakes ons wantrouwen vergroten -- en suggereert benaderingen om de waarheid te beschermen.
- Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice. Full bio

Double-click the English transcript below to play the video.

00:12
[This talk containsbevat matureoudere contentinhoud]
0
535
2767
[Deze talk bevat inhoud voor volwassenen]
00:17
RanaRana AyyubAyyub is a journalistjournalist in IndiaIndia
1
5762
2992
Rana Ayyub is een journaliste in India.
00:20
whosewaarvan work has exposedblootgesteld
governmentregering corruptioncorruptie
2
8778
2602
Ze onthulde corruptie bij de overheid
00:24
and humanmenselijk rightsrechten violationsschendingen van de.
3
12411
2157
en schendingen van de mensenrechten.
00:26
And over the yearsjaar,
4
14990
1167
Door de jaren heen
00:28
she's gottengekregen used to vitriolvitriool
and controversycontroverse around her work.
5
16181
3303
is ze aan gifspuiterij en controverse
rond haar werk gewend geraakt.
00:32
But nonegeen of it could have preparedbereid her
for what she facedgeconfronteerd in AprilApril 2018.
6
20149
5109
Maar niets kon haar voorbereiden
op wat ze in april 2018 tegenkwam.
00:38
She was sittingzittend in a cafCAFé with a friendvriend
when she first saw it:
7
26125
3651
Ze zat in een café met een vriend
toen ze het voor het eerst zag:
00:41
a two-minutetwee minuten, 20-second videovideo-
of her engagedbezet in a sexseks acthandelen.
8
29800
4943
een video van 2 minuten en 20 seconden
waarop zij bezig was met seks.
00:47
And she couldn'tkon het niet believe her eyesogen.
9
35188
2349
Ze kon haar ogen niet geloven.
00:49
She had never madegemaakt a sexseks videovideo-.
10
37561
2273
Ze had nooit een seksvideo gemaakt.
00:52
But unfortunatelyhelaas, thousandsduizenden
uponop thousandsduizenden of people
11
40506
3465
Maar helaas geloofden duizenden
en duizenden mensen dat zij het was.
00:55
would believe it was her.
12
43995
1666
00:58
I interviewedgeïnterviewd MsMS. AyyubAyyub
about threedrie monthsmaanden agogeleden,
13
46673
2944
Ik interviewde mevrouw Ayyub
ongeveer drie maanden geleden
01:01
in connectionverbinding with my bookboek
on sexualseksueel privacyprivacy.
14
49641
2504
in verband met mijn boek
over seksuele privacy.
Ik ben professor in de rechten,
advocaat en ik kom op voor burgerrechten.
01:04
I'm a lawwet professorprofessor, lawyeradvocaat
and civilciviel rightsrechten advocatepleiten voor.
15
52681
3198
01:08
So it's incrediblyongelooflijk frustratingfrustrerend
knowingwetende that right now,
16
56204
4611
Daarom is het zo ongelooflijk frustrerend
om weten dat op dit moment
de wet erg weinig doet om haar te helpen.
01:12
lawwet could do very little to help her.
17
60839
2238
01:15
And as we talkedgesproken,
18
63458
1547
In ons gesprek
01:17
she explaineduitgelegd that she should have seengezien
the fakenep sexseks videovideo- comingkomt eraan.
19
65029
4512
legde ze uit dat ze de nep-seksvideo
had moeten zien aankomen.
01:22
She said, "After all, sexseks is so oftenvaak used
to demeanvernederen and to shameschande womenvrouw,
20
70038
5596
Ze zei: "Seks wordt immers
zo vaak gebruikt
om vrouwen te vernederen
en te schande te maken,
01:27
especiallyvooral minorityminderheid womenvrouw,
21
75658
2428
vooral dan allochtone vrouwen,
01:30
and especiallyvooral minorityminderheid womenvrouw
who daredurven to challengeuitdaging powerfulkrachtig menmannen,"
22
78110
4312
en vooral allochtone vrouwen
die machtige mannen durven uit te dagen,"
01:34
as she had in her work.
23
82446
1533
zoals zij door haar werk had gedaan.
01:37
The fakenep sexseks videovideo- wentgegaan viralvirale in 48 hoursuur.
24
85191
3976
De nep-seksvideo ging in 48 uur viraal.
01:42
All of her onlineonline accountsrekeningen were floodedoverstroomd
with screenshotsscreenshots of the videovideo-,
25
90064
5307
Al haar online accounts werden overspoeld
met screenshots van de video,
met grove dreigingen
van verkrachting en moord
01:47
with graphicafbeelding rapeverkrachting and deathdood threatsbedreigingen
26
95395
2627
01:50
and with slurslaster about her MuslimMoslim faithgeloof.
27
98046
2533
en met laster
over haar islamitische geloof.
01:53
OnlineOnline postsberichten suggestedgesuggereerd that
she was "availablebeschikbaar" for sexseks.
28
101426
4564
Online berichten suggereerden
dat ze ‘beschikbaar’ was voor seks.
01:58
And she was doxedgedoxed,
29
106014
1610
Ze werd ‘gedoxt’,
01:59
whichwelke meansmiddelen that her home addressadres
and her cellcel phonetelefoon numberaantal
30
107648
2778
wat betekent dat haar adres
en haar gsm-nummer
02:02
were spreadverspreiding acrossaan de overkant the internetinternet.
31
110450
1746
werden verspreid over het internet.
02:04
The videovideo- was sharedgedeelde
more than 40,000 timestijden.
32
112879
4084
De video werd meer
dan 40.000 keer gedeeld.
02:09
Now, when someoneiemand is targeteddoelgerichte
with this kindsoort of cybermobcybermob attackaanval,
33
117760
3936
Als iemand zo’n aanval
van een cyberbende moet ondergaan,
02:13
the harmkwaad is profounddiepgaand.
34
121720
2063
is de schade diepgaand.
02:16
RanaRana Ayyub'sAyyub 's life was turnedgedraaid upsidebovenkant down.
35
124482
3039
Rana Ayyub's leven stond op zijn kop.
02:20
For weeksweken, she could hardlynauwelijks eateten or speakspreken.
36
128211
3334
Wekenlang kon ze
nauwelijks eten of spreken.
02:23
She stoppedgestopt writingschrift and closedGesloten
all of her socialsociaal mediamedia accountsrekeningen,
37
131919
3689
Ze stopte met schrijven en sloot
al haar ‘social media’-accounts.
02:27
whichwelke is, you know, a toughtaai thing to do
when you're a journalistjournalist.
38
135632
3158
Erg moeilijk wanneer je journalist bent.
02:31
And she was afraidbang to go outsidebuiten
her family'sgezin home.
39
139188
3484
Ze was bang om buiten te komen.
02:34
What if the postersposters
madegemaakt good on theirhun threatsbedreigingen?
40
142696
3022
Wat als de posters
hun dreigementen zouden uitvoeren?
02:38
The UNVERENIGDE NATIES CouncilRaad on HumanMenselijke RightsRechten
confirmedbevestigd that she wasn'twas niet beingwezen crazygek.
41
146395
4365
De VN-Raad voor de mensenrechten
bevestigde dat ze niet gek was.
02:42
It issueduitgegeven a publicopenbaar statementuitspraak sayinggezegde
that they were worriedbezorgd about her safetyveiligheid.
42
150784
4637
Ze legden een openbare verklaring af
waarin ze zich zorgen maakten
over haar veiligheid.
02:48
What RanaRana AyyubAyyub facedgeconfronteerd was a deepfakedeepfake:
43
156776
4229
Wat Rana Ayyub tegenkwam was een deepfake:
02:53
machine-learningmachine-leren technologytechnologie
44
161029
2540
zelflerende technologie
02:55
that manipulatesmanipuleert or fabricatesproduceert
audioaudio and videovideo- recordingsopnamen
45
163593
4111
die audio- en video-opnamen
manipuleert of fabriceert
02:59
to showtonen people doing and sayinggezegde things
46
167728
2723
waarin mensen dingen doen en zeggen
die ze nooit gedaan of gezegd hebben.
03:02
that they never did or said.
47
170475
1866
03:04
DeepfakesDeepfakes appearverschijnen authenticauthentiek
and realisticrealistische, but they're not;
48
172807
3361
Deepfakes lijken authentiek
en realistisch, maar zijn het niet:
03:08
they're totaltotaal falsehoodsonwaarheden.
49
176192
1772
ze zijn helemaal onwaar.
03:11
AlthoughHoewel the technologytechnologie
is still developingontwikkelen in its sophisticationverfijning,
50
179228
3794
Hoewel de technologie
nog steeds verder wordt verfijnd,
03:15
it is widelywijd availablebeschikbaar.
51
183046
1614
is ze al op grote schaal beschikbaar.
03:17
Now, the mostmeest recentrecent attentionaandacht
to deepfakesdeepfakes aroseontstonden,
52
185371
3072
De meest recente aandacht
voor deepfakes ontstond,
03:20
as so manyveel things do onlineonline,
53
188467
2161
zoals met zo veel dingen online,
03:22
with pornographypornografie.
54
190652
1255
met pornografie.
03:24
In earlyvroeg 2018,
55
192498
2111
In het begin van 2018
03:26
someoneiemand postedGeplaatst a toolgereedschap on RedditReddit
56
194633
2468
rapporteerde iemand een tool op Reddit
03:29
to allowtoestaan usersgebruikers to insertinvoegen facesgezichten
into pornporno videosvideos.
57
197125
4412
om gebruikers gezichten
te laten toevoegen in pornovideo's.
03:33
And what followedgevolgd was a cascadeCascade
of fakenep pornporno videosvideos
58
201561
3440
Daarop volgde een hoop fake pornovideo's
03:37
featuringfeaturing people'sPeople's favoritefavoriete
femalevrouw celebritiesberoemdheden.
59
205025
2797
met favoriete vrouwelijke beroemdheden.
03:40
And todayvandaag, you can go on YouTubeYouTube
and pullTrekken up countlessontelbaar tutorialsTutorials
60
208712
3477
Vandaag vind je op YouTube
talloze handleidingen
03:44
with step-by-stepstap voor stap instructionsinstructies
61
212213
2286
met stap-voor-stap instructies
03:46
on how to make a deepfakedeepfake
on your desktopbureaublad applicationtoepassing.
62
214523
3163
om een deepfake te maken op je pc.
03:50
And soonspoedig we maymei be even ablein staat
to make them on our cellcel phonestelefoons.
63
218260
3706
Binnenkort kan het zelfs
op onze mobiele telefoons.
03:55
Now, it's the interactionwisselwerking
of some of our mostmeest basicbasis- humanmenselijk frailtieszwakheden
64
223072
5382
De combinatie van onze meest
fundamentele menselijke zwakheden
04:00
and networknetwerk toolsgereedschap
65
228478
1682
met netwerktools
04:02
that can turnbeurt deepfakesdeepfakes into weaponswapens.
66
230184
2666
kan deepfakes veranderen in wapens.
04:04
So let me explainuitleg geven.
67
232874
1200
Ik leg het uit.
04:06
As humanmenselijk beingswezens, we have
a visceralviscerale reactionreactie to audioaudio and videovideo-.
68
234875
4566
Als mens hebben we
een viscerale reactie op audio en video.
04:11
We believe they're truewaar,
69
239860
1488
We geloven dat ze waar zijn
04:13
on the notionbegrip that
of courseCursus you can believe
70
241372
2078
door het idee dat je
uiteraard kunt geloven
04:15
what your eyesogen and earsoren are tellingvertellen you.
71
243474
2478
wat je ogen en oren je vertellen.
04:18
And it's that mechanismmechanisme
72
246476
1699
Het is dat mechanisme
04:20
that mightmacht undermineondermijnen our sharedgedeelde
sensezin of realityrealiteit.
73
248199
3698
dat onze gezamenlijke realiteitszin
zou kunnen ondermijnen.
04:23
AlthoughHoewel we believe deepfakesdeepfakes
to be truewaar, they're not.
74
251921
3147
Hoewel we van deepfakes geloven
dat ze waar zijn, zijn ze het niet.
04:27
And we're attractedaangetrokken
to the salaciousschunnig, the provocativeprovocerende.
75
255604
4157
Het schunnige, het provocerende
trekt ons aan.
04:32
We tendde neiging hebben to believe
and to sharedelen informationinformatie
76
260365
3047
We hebben de neiging
om negatieve en nieuwe informatie
te geloven en te delen.
04:35
that's negativenegatief and novelroman.
77
263436
2023
04:37
And researchersonderzoekers have foundgevonden that onlineonline
hoaxeshoaxes spreadverspreiding 10 timestijden fastersneller
78
265809
5019
En onderzoekers hebben ontdekt
dat online hoaxes 10 keer sneller
verspreid worden dan accurate verhalen.
04:42
than accurateaccuraat storiesverhalen.
79
270852
1627
04:46
Now, we're alsoook drawngetrokken to informationinformatie
80
274015
4380
We zijn ook aangetrokken tot informatie
04:50
that alignsHiermee lijnt u with our viewpointsstandpunten.
81
278419
1892
die aansluit bij onze standpunten.
04:52
PsychologistsPsychologen call that tendencyneiging
"confirmationbevestiging biasvooroordeel."
82
280950
3561
Psychologen noemen deze tendens
‘voorkeur voor bevestiging’.
04:57
And socialsociaal mediamedia platformsplatforms
superchargeSupercharge that tendencyneiging,
83
285300
4387
Sociale media platformen
versterken die tendens,
05:01
by allowingtoestaan us to instantlyogenblikkelijk
and widelywijd sharedelen informationinformatie
84
289711
3881
door ons informatie direct
en op grote schaal te laten delen
05:05
that accordsAkkoorden with our viewpointsstandpunten.
85
293616
1792
als het overeenstemt met onze standpunten.
05:08
Now, deepfakesdeepfakes have the potentialpotentieel to causeoorzaak
gravegraf individualindividu and societalmaatschappelijke harmkwaad.
86
296735
5568
Deepfakes kunnen dus ernstige individuele
en maatschappelijke schade veroorzaken.
05:15
So, imaginestel je voor a deepfakedeepfake
87
303204
2024
Stel je een deepfake voor
05:17
that showsshows AmericanAmerikaanse soldierssoldaten
in AfganistanAfganistan burningbrandend a KoranKoran.
88
305252
4182
waarin Amerikaanse soldaten
in Afghanistan een Koran verbranden.
05:22
You can imaginestel je voor that that deepfakedeepfake
would provokeprovoceren violencegeweld
89
310807
3024
Je kunt je voorstellen dat die deepfake
geweld kan uitlokken tegen die soldaten.
05:25
againsttegen those soldierssoldaten.
90
313855
1533
05:27
And what if the very nextvolgende day
91
315847
2873
En wat als de volgende dag
05:30
there's anothereen ander deepfakedeepfake that dropsdruppels,
92
318744
2254
er nog een deepfake verspreid wordt
05:33
that showsshows a well-knownbekende imamImam
basedgebaseerde in LondonLonden
93
321022
3317
die een bekende imam in Londen toont
05:36
praisingprees the attackaanval on those soldierssoldaten?
94
324363
2467
die de aanval op die soldaten prijst?
05:39
We mightmacht see violencegeweld and civilciviel unrestonrust,
95
327617
3163
Het zou kunnen leiden
tot geweld en burgerlijke onrust,
05:42
not only in AfganistanAfganistan
and the UnitedVerenigd KingdomKoninkrijk,
96
330804
3249
niet alleen in Afghanistan
en het Verenigd Koninkrijk,
05:46
but acrossaan de overkant the globewereldbol.
97
334077
1515
maar over de hele wereld.
05:48
And you mightmacht say to me,
98
336251
1158
En je zou me kunnen zeggen:
05:49
"Come on, DanielleDanielle, that's far-fetchedvergezocht."
99
337433
2247
"Kom nou, Danielle, dat is vergezocht."
05:51
But it's not.
100
339704
1150
Maar dat is het niet.
05:53
We'veWe hebben seengezien falsehoodsonwaarheden spreadverspreiding
101
341293
2191
We hebben onwaarheden zien verspreiden
05:55
on WhatsAppWhatsApp and other
onlineonline messagebericht servicesdiensten
102
343508
2722
op WhatsApp en andere
online boodschappendiensten
05:58
leadlood to violencegeweld
againsttegen ethnicetnisch minoritiesminderheden.
103
346254
2761
die leidden tot geweld
tegen etnische minderheden.
06:01
And that was just texttekst --
104
349039
1887
En dat was gewoon tekst --
06:02
imaginestel je voor if it were videovideo-.
105
350950
2024
stel je voor dat het video was.
06:06
Now, deepfakesdeepfakes have the potentialpotentieel
to corrodeCorrosie the trustvertrouwen that we have
106
354593
5357
Deepfakes kunnen het vertrouwen aantasten
dat we hebben
in democratische instellingen.
06:11
in democraticdemocratisch institutionsinstellingen.
107
359974
1992
06:15
So, imaginestel je voor the night before an electionverkiezing.
108
363006
2667
Stel je de avond voor een verkiezing voor.
06:17
There's a deepfakedeepfake showingtonen
one of the majorgroot partyfeest candidateskandidaten
109
365996
3238
Een deepfake toont
een belangrijke partijkandidaat
als ernstig ziek.
06:21
gravelyernstig sickziek.
110
369258
1150
06:23
The deepfakedeepfake could tiptip the electionverkiezing
111
371202
2333
De deepfake kan de uitslag bepalen
06:25
and shakeschudden our sensezin
that electionsverkiezingen are legitimaterechtmatig.
112
373559
3375
en ons vertrouwen in de legitimiteit
van verkiezingen doen wankelen.
06:30
ImagineStel je voor if the night before
an initialeerste publicopenbaar offeringoffer
113
378515
3326
Stel je voor dat
op de avond voor een beursgang
06:33
of a majorgroot globalglobaal bankbank,
114
381865
2333
van een grote internationale bank,
06:36
there was a deepfakedeepfake
showingtonen the bank'sbank CEOCEO
115
384222
3149
een deepfake een CEO van de bank toont
06:39
drunkenlydronken spoutingspuiten conspiracysamenzwering theoriestheorieën.
116
387395
2697
terwijl hij dronken
samenzweringstheorieën spuit.
06:42
The deepfakedeepfake could tanktank the IPOIPO,
117
390887
3047
De deepfake kon
de beursgang doen kelderen,
06:45
and worseerger, shakeschudden our sensezin
that financialfinancieel marketsmarkten are stablestal.
118
393958
4115
en erger, ons het gevoel geven
dat de financiële markten onstabiel zijn.
06:51
So deepfakesdeepfakes can exploitexploiteren and magnifyvergroten
the deepdiep distrustwantrouwen that we alreadynu al have
119
399385
6989
Deepfakes kunnen dat benutten en
het diepe wantrouwen vergroten
dat we al hebben
in politici, bedrijfsleiders
en andere invloedrijke leiders.
06:58
in politicianspolitici, businessbedrijf leadersleiders
and other influentialinvloedrijke leadersleiders.
120
406398
4214
07:02
They find an audiencepubliek
primedprimer to believe them.
121
410945
3284
Ze vinden een goedgelovig publiek.
07:07
And the pursuitachtervolging of truthwaarheid
is on the linelijn as well.
122
415287
2765
Het streven naar waarheid
staat ook op het spel.
07:11
TechnologistsTechnologen expectverwachten
that with advancesvoorschotten in AIAI,
123
419077
3564
Technologen verwachten
dat met de vooruitgang in AI
07:14
soonspoedig it maymei be difficultmoeilijk if not impossibleonmogelijk
124
422665
3682
het binnenkort moeilijk,
zo niet onmogelijk, wordt
07:18
to tell the differenceverschil betweentussen
a realecht videovideo- and a fakenep one.
125
426371
3769
om het verschil te zien
tussen een echte video en een nepvideo.
07:23
So how can the truthwaarheid emergeopduiken
in a deepfake-riddendeepfake-bereden marketplacemarktplaats of ideasideeën?
126
431022
5341
Hoe kunnen we dan nog waarheid vinden
in een door deepfake
geteisterde ideeënwereld?
07:28
Will we just proceeddoorgaan alonglangs
the pathpad of leastminst resistanceweerstand
127
436752
3420
Kiezen we de weg van de minste weerstand
07:32
and believe what we want to believe,
128
440196
2437
en geloven we wat we willen geloven?
07:34
truthwaarheid be damnedThe Damned?
129
442657
1150
De waarheid kan de pot op?
07:36
And not only mightmacht we believe the fakeryfakery,
130
444831
3175
We zouden niet alleen
gaan geloven in het bedrog,
07:40
we mightmacht startbegin disbelievingongelovige the truthwaarheid.
131
448030
3326
maar ook aan de waarheid
kunnen gaan twijfelen.
07:43
We'veWe hebben alreadynu al seengezien people invokeberoep doen op
the phenomenonfenomeen of deepfakesdeepfakes
132
451887
4079
We zagen al dat mensen beroep deden
op het fenomeen van de deepfakes
07:47
to castgegoten doubttwijfel on realecht evidencebewijsmateriaal
of theirhun wrongdoingwangedrag.
133
455990
3920
om echt bewijs over hun wangedrag
in twijfel te trekken.
07:51
We'veWe hebben heardgehoord politicianspolitici say of audioaudio
of theirhun disturbingstorend commentsopmerkingen,
134
459934
5969
We hoorden politici over de opnames
van hun uitschuivers al zeggen:
07:57
"Come on, that's fakenep newsnieuws.
135
465927
1746
"Kom nou, dat is nepnieuws.
07:59
You can't believe what your eyesogen
and earsoren are tellingvertellen you."
136
467697
3920
Je kan niet geloven wat je ogen
en oren je vertellen."
08:04
And it's that riskrisico
137
472402
1731
Het is dat risico
08:06
that professorprofessor RobertRobert ChesneyChesney and I
call the "liar'sLiar's dividenddividend":
138
474157
5436
dat professor Robert Chesney en ik
het ‘leugenaarsdividend’ noemen:
08:11
the riskrisico that liarsleugenaars will invokeberoep doen op deepfakesdeepfakes
139
479617
3357
het risico dat leugenaars
deepfakes zullen inroepen
08:14
to escapeontsnappen accountabilityverantwoording
for theirhun wrongdoingwangedrag.
140
482998
2905
om aan de verantwoording
voor hun wangedrag te ontsnappen.
08:18
So we'vewij hebben got our work cutbesnoeiing out for us,
there's no doubttwijfel about it.
141
486963
3071
We hebben werk voor de boeg,
daar is geen twijfel over mogelijk.
08:22
And we're going to need
a proactiveproactieve solutionoplossing
142
490606
3325
We hebben een proactieve oplossing nodig
08:25
from techtech companiesbedrijven, from lawmakerswetgevers,
143
493955
3511
van tech-bedrijven, van wetgevers,
08:29
lawwet enforcersHandhavers and the mediamedia.
144
497490
1984
wetshandhavers en de media.
08:32
And we're going to need
a healthygezond dosedosis of societalmaatschappelijke resilienceveerkracht.
145
500093
4016
En we zullen een gezonde dosis
sociale veerkracht nodig hebben.
08:37
So now, we're right now engagedbezet
in a very publicopenbaar conversationgesprek
146
505506
3896
Op dit moment is er
een zeer publiek discussie gaande
08:41
about the responsibilityverantwoordelijkheid
of techtech companiesbedrijven.
147
509426
2913
over de verantwoordelijkheid
van de tech-bedrijven.
08:44
And my adviceadvies to socialsociaal mediamedia platformsplatforms
148
512926
3032
Het was mijn advies
aan de sociale media platformen
08:47
has been to changeverandering theirhun termstermen of serviceservice
and communitygemeenschap guidelinesrichtlijnen
149
515982
3873
om hun dienstvoorwaarden
en gemeenschapsrichtlijnen te veranderen
08:51
to banban deepfakesdeepfakes that causeoorzaak harmkwaad.
150
519879
2336
om schadelijke deepfakes te bannen.
08:54
That determinationbepaling,
that's going to requirevereisen humanmenselijk judgmentoordeel,
151
522712
3960
Dat vereist menselijk oordeel
08:58
and it's expensiveduur.
152
526696
1571
en dat is duur.
09:00
But we need humanmenselijk beingswezens
153
528673
2285
Maar we hebben mensen nodig
09:02
to look at the contentinhoud
and contextcontext of a deepfakedeepfake
154
530982
3873
om naar de inhoud en context
van een deepfake te kijken
09:06
to figurefiguur out if it is
a harmfulschadelijk impersonationimitatie
155
534879
3682
om erachter te komen of het
een schadelijke imitatie is
09:10
or insteadin plaats daarvan, if it's valuablewaardevol
satiresatire, artkunst or educationonderwijs.
156
538585
4382
ofwel waardevolle satire,
kunst of onderwijs.
09:16
So now, what about the lawwet?
157
544118
1495
Maar hoe zit het nu met de wet?
09:18
LawWet is our educatoropvoeder.
158
546666
2349
De wet is onze opvoeder.
09:21
It teachesonderwijst us about
what's harmfulschadelijk and what's wrongfout.
159
549515
4038
Ze leert ons
wat schadelijk en wat fout is.
09:25
And it shapesvormen behaviorgedrag it detersschrikt
by punishingstraffen perpetratorsdaders
160
553577
4555
Ze modelleert gedrag
door het bestraffen van daders
09:30
and securingbeveiligen remediesrechtsmiddelen for victimsslachtoffers.
161
558156
2267
en het beschermen van slachtoffers.
09:33
Right now, lawwet is not up to
the challengeuitdaging of deepfakesdeepfakes.
162
561148
4280
De wet kan de uitdaging
van deepfakes nog niet aan.
09:38
AcrossOver the globewereldbol,
163
566116
1390
Over heel de wereld
09:39
we lackgebrek well-tailoredgoed op maat lawswetten
164
567530
2444
mankeren we op maat gesneden wetten
09:41
that would be designedontworpen to tackleaanpakken
digitaldigitaal impersonationsimitaties
165
569998
3570
voor het aanpakken van digitale imitaties
09:45
that invadebinnenvallen sexualseksueel privacyprivacy,
166
573592
2231
die de seksuele privacy schenden,
09:47
that damageschade reputationsreputatie
167
575847
1387
reputaties beschadigen
09:49
and that causeoorzaak emotionalemotioneel distressnood.
168
577258
1951
en emotionele nood veroorzaken.
09:51
What happenedgebeurd to RanaRana AyyubAyyub
is increasinglyin toenemende mate commonplacealledaags.
169
579725
3873
Wat Rana Ayyub overkwam,
komt steeds meer voor.
09:56
YetNog, when she wentgegaan
to lawwet enforcementhandhaving in DelhiDelhi,
170
584074
2214
Toen ze in Delhi
om rechtshandhaving vroeg,
09:58
she was told nothing could be donegedaan.
171
586312
2135
vertelden ze haar
dat ze er niets aan konden doen.
10:01
And the sadverdrietig truthwaarheid is
that the samedezelfde would be truewaar
172
589101
3183
En de trieste waarheid is
dat hetzelfde waar zou zijn
10:04
in the UnitedVerenigd StatesStaten and in EuropeEuropa.
173
592308
2266
in de Verenigde Staten en in Europa.
10:07
So we have a legalwettelijk vacuumvacuüm
that needsbehoefte aan to be filledgevulde.
174
595300
4356
Dus hebben we een juridisch vacuüm
dat moet worden ingevuld.
10:12
My colleaguecollega DrDr. MaryMary AnneAnne FranksFranken and I
are workingwerkend with US lawmakerswetgevers
175
600292
4092
Mijn collega dr. Mary Anne Franks en ik
werken samen met de Amerikaanse wetgevers
10:16
to deviseDevise legislationwetgeving that would banban
harmfulschadelijk digitaldigitaal impersonationsimitaties
176
604408
4804
aan wetgeving die schadelijke
digitale nabootsingen zou verbieden,
10:21
that are tantamountneer to identityidentiteit theftdiefstal.
177
609236
2533
die gelijkstaan aan
diefstal van identiteit.
10:24
And we'vewij hebben seengezien similarsoortgelijk movesmoves
178
612252
2126
We zagen vergelijkbare maatregelen
10:26
in IcelandIJsland, the UKVERENIGD KONINKRIJK and AustraliaAustralië.
179
614402
3301
in IJsland, het Verenigd Koninkrijk
en Australië.
10:30
But of courseCursus, that's just a smallklein piecestuk
of the regulatoryregelgevende puzzlepuzzel.
180
618157
3259
Maar natuurlijk is dat nog maar
een klein stuk van de regelgevingspuzzel.
10:34
Now, I know lawwet is not a cure-allwondermiddel. Right?
181
622911
3169
Ik weet wel dat de wet
geen wondermiddel is.
10:38
It's a bluntbotte instrumentinstrument.
182
626104
1600
Ze is een bot instrument.
10:40
And we'vewij hebben got to use it wiselyverstandig.
183
628346
1539
We zullen het verstandig moeten gebruiken.
10:42
It alsoook has some practicalpraktisch impedimentsbelemmeringen.
184
630411
2812
Ze heeft ook een aantal
praktische belemmeringen.
10:45
You can't leveragehefboomwerking lawwet againsttegen people
you can't identifyidentificeren and find.
185
633657
5044
Je kunt de wet niet aanwenden tegen wie
je niet kan identificeren of opsporen.
10:51
And if a perpetratordader liveslevens
outsidebuiten the countryland
186
639463
3286
Als een dader in een ander land woont
10:54
where a victimslachtoffer liveslevens,
187
642773
1754
dan het slachtoffer,
10:56
then you maymei not be ablein staat to insistaandringen
188
644551
1629
kan je misschien niet eisen dat de dader
10:58
that the perpetratordader
come into locallokaal courtsrechtbanken
189
646204
2349
voor de lokale rechtbanken verschijnt
11:00
to facegezicht justicegerechtigheid.
190
648577
1150
voor gerechtigheid.
11:02
And so we're going to need
a coordinatedgecoördineerd internationalInternationale responseantwoord.
191
650236
4063
Dus gaan we een gecoördineerde
internationale respons nodig hebben.
11:07
EducationOnderwijs has to be partdeel
of our responseantwoord as well.
192
655819
3333
Ook onderwijs moet onderdeel zijn
van ons antwoord hierop.
11:11
LawWet enforcersHandhavers are not
going to enforceafdwingen lawswetten
193
659803
3731
Wetshandhavers gaan geen wetten toepassen
11:15
they don't know about
194
663558
1458
waarover ze niets weten
11:17
and profferde problemsproblemen
they don't understandbegrijpen.
195
665040
2596
en problemen behandelen
die ze niet begrijpen.
11:20
In my researchOnderzoek on cyberstalkingcyberpesten,
196
668376
2191
Bij mijn onderzoek naar cyberstalking
11:22
I foundgevonden that lawwet enforcementhandhaving
lackedontbrak the trainingopleiding
197
670591
3499
merkte ik dat rechters de training misten
11:26
to understandbegrijpen the lawswetten availablebeschikbaar to them
198
674114
2582
om de beschikbare wetten te begrijpen
11:28
and the problemprobleem of onlineonline abusemisbruik.
199
676720
2349
alsook het probleem van online misbruik.
11:31
And so oftenvaak they told victimsslachtoffers,
200
679093
2682
Vaak vertelden ze het slachtoffer:
11:33
"Just turnbeurt your computercomputer off.
IgnoreNegeren it. It'llItll go away."
201
681799
3971
"Zet gewoon je computer uit.
Negeer het. Het zal ophouden."
11:38
And we saw that in RanaRana Ayyub'sAyyub 's casegeval.
202
686261
2466
En we zagen dat ook
in het geval van Rana Ayyub.
11:41
She was told, "Come on,
you're makingmaking suchzodanig a biggroot dealtransactie about this.
203
689102
3468
Ze kreeg te horen: "Kom op,
je maakt je er zo druk over.
11:44
It's boysjongens beingwezen boysjongens."
204
692594
1743
Het zijn jongensstreken."
11:47
And so we need to pairpaar- newnieuwe legislationwetgeving
with effortsinspanningen at trainingopleiding.
205
695268
5252
Dus moeten we de nieuwe wetgeving
koppelen aan nieuwe training.
11:54
And educationonderwijs has to be aimedgericht
on the mediamedia as well.
206
702053
3429
De media dient ook
heropgevoed te worden.
11:58
JournalistsJournalisten need educatingopleiden
about the phenomenonfenomeen of deepfakesdeepfakes
207
706180
4260
Journalisten moeten
het deepfakefenomeen leren kennen
12:02
so they don't amplifyAmplify and spreadverspreiding them.
208
710464
3039
zodat ze het niet
versterken en verspreiden.
12:06
And this is the partdeel
where we're all involvedbetrokken.
209
714583
2168
Bij dat deel zijn we allemaal betrokken.
12:08
EachElke and everyelk one of us needsbehoefte aan educatingopleiden.
210
716775
3855
Ieder van ons
moet ermee vertrouwd geraken.
12:13
We clickKlik, we sharedelen, we like,
and we don't even think about it.
211
721375
3675
We klikken, we delen, we vinden leuk
zonder er eens over na te denken.
12:17
We need to do better.
212
725551
1547
Dat moet beter.
12:19
We need farver better radarradar for fakeryfakery.
213
727726
2809
We hebben een veel betere radar
voor bedrog nodig.
12:25
So as we're workingwerkend
throughdoor these solutionsoplossingen,
214
733744
3841
Terwijl we werken aan deze oplossingen,
12:29
there's going to be
a lot of sufferinglijden to go around.
215
737609
2563
gaat er nog een heleboel leed
veroorzaakt worden.
12:33
RanaRana AyyubAyyub is still wrestlinghet worstelen
with the falloutFallout.
216
741093
2746
Rana Ayyub worstelt
nog steeds met de gevolgen.
12:36
She still doesn't feel freegratis
to expressuitdrukken herselfzichzelf on-on- and offlineoffline.
217
744669
4189
Ze voelt zich nog steeds geremd
om zich on- en offline te uiten.
12:41
And as she told me,
218
749566
1365
Zoals ze me vertelde,
voelt het nog steeds
12:42
she still feelsvoelt like there are thousandsduizenden
of eyesogen on her nakednaakt bodylichaam,
219
750955
5074
alsof er duizenden ogen
op haar naakte lichaam zijn gericht,
12:48
even thoughhoewel, intellectuallyintellectueel,
she knowsweet it wasn'twas niet her bodylichaam.
220
756053
3661
hoewel ze verstandelijk weet
dat het niet haar lichaam was.
12:52
And she has frequentveel voorkomend panicpaniek attacksaanvallen,
221
760371
2349
Ze heeft regelmatig paniekaanvallen,
12:54
especiallyvooral when someoneiemand she doesn't know
triesprobeert to take her pictureafbeelding.
222
762744
4100
vooral wanneer iemand die ze niet kent
probeert een foto van haar te nemen.
12:58
"What if they're going to make
anothereen ander deepfakedeepfake?" she thinksdenkt to herselfzichzelf.
223
766868
3511
"Wat als het weer voor een deepfake is?"
denkt ze dan.
13:03
And so for the sakesake of
individualsindividuen like RanaRana AyyubAyyub
224
771082
3921
Voor het belang van mensen
zoals Rana Ayyub
13:07
and the sakesake of our democracydemocratie,
225
775027
2306
en voor het belang van onze democratie
13:09
we need to do something right now.
226
777357
2182
moeten we nu echt iets doen.
13:11
Thank you.
227
779563
1151
Dank je.
(Applaus)
13:12
(ApplauseApplaus)
228
780738
2508
Translated by Rik Delaet
Reviewed by Inge Widdershoven

▲Back to top

ABOUT THE SPEAKER
Danielle Citron - Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice.

Why you should listen

As a law professor, Danielle Citron puts her commitment to civil rights into practice. She is vice president of the Cyber Civil Rights Initiative, a nonprofit combatting privacy-invading online abuse that undermines civil rights and civil liberties.

When Citron began addressing cyber harassment ten years ago, it was commonly believed that it was "no big deal," and that any legal response would "break the internet." Those attitudes -- and the heartbreaking stories of victims who were terrorized, silenced and economically damaged -- drove Citron to write her 2014 book, Hate Crimes in Cyberspace. Ever since, she has been working with lawmakers, law enforcers, and tech companies to make online spaces and tools available to all on equal terms. Her latest book project focuses on the importance of sexual privacy and how we should protect it. 

More profile about the speaker
Danielle Citron | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee