ABOUT THE SPEAKER
Danielle Citron - Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice.

Why you should listen

As a law professor, Danielle Citron puts her commitment to civil rights into practice. She is vice president of the Cyber Civil Rights Initiative, a nonprofit combatting privacy-invading online abuse that undermines civil rights and civil liberties.

When Citron began addressing cyber harassment ten years ago, it was commonly believed that it was "no big deal," and that any legal response would "break the internet." Those attitudes -- and the heartbreaking stories of victims who were terrorized, silenced and economically damaged -- drove Citron to write her 2014 book, Hate Crimes in Cyberspace. Ever since, she has been working with lawmakers, law enforcers, and tech companies to make online spaces and tools available to all on equal terms. Her latest book project focuses on the importance of sexual privacy and how we should protect it. 

More profile about the speaker
Danielle Citron | Speaker | TED.com
TEDSummit 2019

Danielle Citron: How deepfakes undermine truth and threaten democracy

Danielle Citron: Wie Deepfakes die Wahrheit untergraben und die Demokratie bedrohen

Filmed:
1,533,743 views

Der Einsatz von Deepfake-Technologie zur Manipulation von Videos und Tonaufnahmen für böswillige Zwecke -- ob es nun das Schüren von Gewalt oder die Diffamierung von Politikern und Journalisten ist -- wird zu einer echten Bedrohung. Während diese Werkzeuge immer zugänglicher werden und ihre Produkte wirlichkeitsnäher, wie werden sie prägen, was wir über diese Welt denken? In einem unheilverkündenden Vortrag deckt die Juraprofessorin Danielle Citron auf, wie Deepfakes unser Misstrauen verstärken -- und schlägt Ansätze zum Schutz der Wahrheit vor.
- Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice. Full bio

Double-click the English transcript below to play the video.

00:12
[This talk containsenthält matureReifen contentInhalt]
0
535
2767
[Dieser Vortrag besteht
aus Inhalten für Erwachsene]
00:17
RanaRana AyyubAyyub is a journalistJournalist in IndiaIndien
1
5762
2992
Rana Ayyub ist Journalistin in Indien,
00:20
whosederen work has exposedausgesetzt
governmentRegierung corruptionKorruption
2
8778
2602
die Korruption der Regierung
und Menschenrechtsverletzungen aufdeckte.
00:24
and humanMensch rightsRechte violationsVerstöße gegen die.
3
12411
2157
00:26
And over the yearsJahre,
4
14990
1167
Im Verlauf der Jahre
00:28
she's gottenbekommen used to vitriolVitriol
and controversyKontroverse around her work.
5
16181
3303
gewöhnte sie sich an die Giftigkeit
und den Streit um ihre Arbeit.
00:32
But nonekeiner of it could have preparedbereit her
for what she facedkonfrontiert in AprilApril 2018.
6
20149
5109
Aber nichts konnte sie darauf vorbereiten,
womit man sie im April 2018 konfrontierte.
00:38
She was sittingSitzung in a cafCAFé with a friendFreund
when she first saw it:
7
26125
3651
Sie saß mit einem Freund in einem Café,
als sie es zum ersten Mal sah:
00:41
a two-minutezwei Minuten, 20-second videoVideo
of her engagedbeschäftigt in a sexSex actHandlung.
8
29800
4943
ein zwei Minuten und 20 Sekunden
langes Video mit ihr beim Sex.
00:47
And she couldn'tkonnte nicht believe her eyesAugen.
9
35188
2349
Sie konnte ihren Augen nicht trauen.
00:49
She had never madegemacht a sexSex videoVideo.
10
37561
2273
Sie hatte niemals ein Sex-Video gemacht.
00:52
But unfortunatelyUnglücklicherweise, thousandsTausende
uponauf thousandsTausende of people
11
40506
3465
Aber leider würden Tausende
und Abertausende glauben, sie wäre es.
00:55
would believe it was her.
12
43995
1666
Vor etwa drei Monaten
interviewte ich Frau Ayyub,
00:58
I interviewedinterviewt MsMS. AyyubAyyub
about threedrei monthsMonate agovor,
13
46673
2944
01:01
in connectionVerbindung with my bookBuch
on sexualsexuell privacyDatenschutz.
14
49641
2504
wegen meines Buches
über sexuelle Privatsphäre.
01:04
I'm a lawRecht professorProfessor, lawyerAnwalt
and civilbürgerlich rightsRechte advocatebefürworten.
15
52681
3198
Ich bin Jura-Professorin,
Anwältin und Bürgerrechtlerin.
01:08
So it's incrediblyunglaublich frustratingfrustrierend
knowingzu wissen that right now,
16
56204
4611
Es ist unglaublich frustrierend zu wissen,
dass das Recht im Moment
sehr wenig tun kann, um ihr zu helfen.
01:12
lawRecht could do very little to help her.
17
60839
2238
01:15
And as we talkedsprach,
18
63458
1547
Als wir miteinander sprachen,
erklärte sie mir,
01:17
she explainederklärt that she should have seengesehen
the fakeFälschung sexSex videoVideo comingKommen.
19
65029
4512
dass sie das gefälschte Sex-Video
hätte kommen sehen sollen.
01:22
She said, "After all, sexSex is so oftenhäufig used
to demeanErniedrigen and to shameSchande womenFrau,
20
70038
5596
Sie sagte: "Sex wird so oft benutzt,
um Frauen zu erniedrigen und zu beschämen.
01:27
especiallyinsbesondere minorityMinderheit womenFrau,
21
75658
2428
Besonders Frauen, die
einer Minderheit zugehören
und solchen, die es wagen,
mächtige Männer herauszufordern."
01:30
and especiallyinsbesondere minorityMinderheit womenFrau
who dareWagen to challengeHerausforderung powerfulmächtig menMänner,"
22
78110
4312
So wie sie es durch ihre Arbeit tat.
01:34
as she had in her work.
23
82446
1533
01:37
The fakeFälschung sexSex videoVideo wentging viralvirale in 48 hoursStd..
24
85191
3976
Das gefälschte Sex-Video
verbreitete sich viral in 48 Stunden.
01:42
All of her onlineonline accountsKonten were floodedüberschwemmt
with screenshotsScreenshots of the videoVideo,
25
90064
5307
All ihre Online-Kontos wurden
mit Screen-Shots des Videos geflutet,
mit Todesdrohungen,
von grausamer Vergewaltigung
01:47
with graphicGrafik rapevergewaltigen and deathTod threatsBedrohungen
26
95395
2627
01:50
and with slursBögen about her MuslimMuslimische faithGlauben.
27
98046
2533
und Herabsetzung
ihres muslimischen Glaubens.
01:53
OnlineOnline postsBeiträge suggestedempfohlen that
she was "availableverfügbar" for sexSex.
28
101426
4564
Online-Kommentare deuteten an,
sie sei für Sex "verfügbar".
01:58
And she was doxeddoxed,
29
106014
1610
Sie wurde "gedoxed",
01:59
whichwelche meansmeint that her home addressAdresse
and her cellZelle phoneTelefon numberNummer
30
107648
2778
was bedeutet, dass ihre Privatadresse
und ihre Handynummer
02:02
were spreadVerbreitung acrossüber the internetInternet.
31
110450
1746
im Internet verbreitet wurden.
02:04
The videoVideo was sharedgeteilt
more than 40,000 timesmal.
32
112879
4084
Das Video wurde
mehr als 40.000 Mal geteilt.
02:09
Now, when someonejemand is targetedgezielt
with this kindArt of cybermobcybermob attackAttacke,
33
117760
3936
Wenn jemand zum Ziel dieser Art
von Cybermobbing-Angriff wird,
02:13
the harmSchaden is profoundtiefsinnig.
34
121720
2063
ist der Schaden tiefgreifend.
02:16
RanaRana Ayyub'sAyyub es life was turnedgedreht upsidenach oben down.
35
124482
3039
Das Leben von Rana Ayyub
wurde auf den Kopf gestellt.
02:20
For weeksWochen, she could hardlykaum eatEssen or speaksprechen.
36
128211
3334
Wochenlang konnte sie kaum
essen oder sprechen.
02:23
She stoppedgestoppt writingSchreiben and closedabgeschlossen
all of her socialSozial mediaMedien accountsKonten,
37
131919
3689
Sie hörte auf zu schreiben und schloss
alle ihre Konten auf Sozialen Medien,
02:27
whichwelche is, you know, a toughzäh thing to do
when you're a journalistJournalist.
38
135632
3158
was heikel ist, wenn man Journalistin ist.
02:31
And she was afraidAngst to go outsidedraußen
her family'sFamilie home.
39
139188
3484
Sie fürchtete sich davor,
das Haus ihrer Familie zu verlassen.
02:34
What if the postersPoster
madegemacht good on theirihr threatsBedrohungen?
40
142696
3022
Was wenn die Postenden
ihre Drohungen wahr machen?
02:38
The UNVEREINTEN NATIONEN CouncilRat on HumanMenschlichen RightsRechte
confirmedBestätigt that she wasn'twar nicht beingSein crazyverrückt.
41
146395
4365
Der UN-Menschenrechtsrat bestätigte,
dass sie nicht verrückt war.
02:42
It issuedausgegeben a publicÖffentlichkeit statementErklärung sayingSprichwort
that they were worriedbesorgt about her safetySicherheit.
42
150784
4637
Er gab eine öffentliche Stellungnahme
mit der Aussage,
dass sie um ihre Sicherheit besorgt seien.
02:48
What RanaRana AyyubAyyub facedkonfrontiert was a deepfakedeepfake:
43
156776
4229
Rana Ayyub sah sich
mit einem Deepfake konfrontiert:
02:53
machine-learningmaschinelles lernen technologyTechnologie
44
161029
2540
Lernfähige Technologie,
02:55
that manipulatesmanipuliert or fabricatesfabriziert
audioAudio- and videoVideo recordingsAufnahmen
45
163593
4111
die Ton- und Videoaufnahmen
manipuliert oder erstellt,
02:59
to showShow people doing and sayingSprichwort things
46
167728
2723
um Leute zu zeigen,
wie sie etwas tun oder sagen,
03:02
that they never did or said.
47
170475
1866
dass sie niemals taten oder sagten.
03:04
DeepfakesDeepfakes appearerscheinen authenticauthentisch
and realisticrealistische, but they're not;
48
172807
3361
Deepfakes erscheinen glaubwürdig
und lebensecht zu sein,
das sind sie aber nicht.
03:08
they're totalgesamt falsehoodsUnwahrheiten.
49
176192
1772
Sie sind totale Lügen.
03:11
AlthoughObwohl the technologyTechnologie
is still developingEntwicklung in its sophisticationRaffinesse,
50
179228
3794
Obwohl die Technologie
weiter verfeinert wird,
ist sie weit verbreitet.
03:15
it is widelyweit availableverfügbar.
51
183046
1614
03:17
Now, the mostdie meisten recentkürzlich attentionAufmerksamkeit
to deepfakesdeepfakes aroseentstand,
52
185371
3072
Deepfakes erregten zuletzt Aufmerksamkeit,
03:20
as so manyviele things do onlineonline,
53
188467
2161
wie so viele Dinge online,
03:22
with pornographyPornografie.
54
190652
1255
durch Pornographie.
03:24
In earlyfrüh 2018,
55
192498
2111
Anfang 2018 postete jemand
ein Tool auf Reddit,
03:26
someonejemand postedGesendet a toolWerkzeug on RedditReddit
56
194633
2468
um Nutzern zu ermöglichen,
Gesichter in Porno-Videos einzufügen.
03:29
to allowzulassen usersBenutzer to inserteinfügen facesGesichter
into pornPorno videosVideos.
57
197125
4412
03:33
And what followedgefolgt was a cascadeKaskade
of fakeFälschung pornPorno videosVideos
58
201561
3440
Es folgte eine Kaskade
von gefälschten Porno-Videos
03:37
featuringAufmachung people'sMenschen favoriteFavorit
femaleweiblich celebritiesProminente.
59
205025
2797
mit den weiblichen Lieblingsprominenten.
03:40
And todayheute, you can go on YouTubeYouTube
and pullziehen up countlessunzählige tutorialsTutorien
60
208712
3477
Heutzutage kann man auf YouTube gehen
und auf zahllose Anleitungen
mit schrittweisen Anweisungen zugreifen,
03:44
with step-by-stepSchritt für Schritt instructionsAnleitung
61
212213
2286
03:46
on how to make a deepfakedeepfake
on your desktopDesktop applicationAnwendung.
62
214523
3163
wie man ein Deepfake
mit der Desktop-Anwendung erstellt.
03:50
And soonbald we maykann be even ablefähig
to make them on our cellZelle phonesTelefone.
63
218260
3706
Bald werden wir das vielleicht sogar
auf dem Smartphone können.
03:55
Now, it's the interactionInteraktion
of some of our mostdie meisten basicBasic humanMensch frailtiesSchwà ¤ chen
64
223072
5382
Es ist die Wechselwirkung
zwischen einigen unserer grundlegendsten
menschlichen Schwächen und Netzwerk-Tools,
04:00
and networkNetzwerk toolsWerkzeuge
65
228478
1682
die Deepfakes in Waffen verwandeln können.
04:02
that can turnWende deepfakesdeepfakes into weaponsWaffen.
66
230184
2666
04:04
So let me explainerklären.
67
232874
1200
Um es deutlicher zu machen:
04:06
As humanMensch beingsWesen, we have
a visceralviszerale reactionReaktion to audioAudio- and videoVideo.
68
234875
4566
Als menschliche Wesen zeigen wir
tiefsitzende Reaktionen auf Ton und Video.
04:11
We believe they're truewahr,
69
239860
1488
Wir glauben sie sind wahr.
04:13
on the notionBegriff that
of courseKurs you can believe
70
241372
2078
auf dem Gedanken basierend,
dass man glauben kann,
04:15
what your eyesAugen and earsOhren are tellingErzählen you.
71
243474
2478
was die Augen und Ohren wahrnehmen.
04:18
And it's that mechanismMechanismus
72
246476
1699
Dieser Mechanismus untergräbt vielleicht
unseren gemeinsamen Sinn für Realität.
04:20
that mightMacht undermineuntergraben our sharedgeteilt
senseSinn of realityWirklichkeit.
73
248199
3698
Obwohl wir glauben, Deepfakes seien wahr,
04:23
AlthoughObwohl we believe deepfakesdeepfakes
to be truewahr, they're not.
74
251921
3147
sind sie es nicht.
Wir werden vom Obszönen,
dem Provokativen angezogen.
04:27
And we're attractedangezogen
to the salaciousanzügliche, the provocativeprovokativ.
75
255604
4157
04:32
We tendneigen to believe
and to shareAktie informationInformation
76
260365
3047
Wir neigen dazu Informationen
zu glauben und zu teilen,
04:35
that's negativeNegativ and novelRoman.
77
263436
2023
die negativ und originell sind.
04:37
And researchersForscher have foundgefunden that onlineonline
hoaxesHoaxes spreadVerbreitung 10 timesmal fasterschneller
78
265809
5019
Forscher fanden heraus,
dass sich Online-Falschmeldungen
zehnmal schneller verbreiten
04:42
than accurategenau storiesGeschichten.
79
270852
1627
als zutreffende Geschichten.
04:46
Now, we're alsoebenfalls drawngezeichnet to informationInformation
80
274015
4380
Es zieht uns auch zu Informationen,
die sich mit unseren Ansichten decken.
04:50
that alignsrichtet with our viewpointsStandpunkte.
81
278419
1892
04:52
PsychologistsPsychologen call that tendencyTendenz
"confirmationBestätigung biasvorspannen."
82
280950
3561
Psychologen nennen diese Neigung
"Bestätigungstendenz".
04:57
And socialSozial mediaMedien platformsPlattformen
superchargeSupercharge that tendencyTendenz,
83
285300
4387
Social-Media-Plattformen
übersteigern diese Neigung,
05:01
by allowingZulassen us to instantlysofort
and widelyweit shareAktie informationInformation
84
289711
3881
indem sie uns ermöglichen,
Informationen im Einklang
mit unseren Ansichten
05:05
that accordsAkkorde with our viewpointsStandpunkte.
85
293616
1792
sofort und weitläufig zu teilen.
05:08
Now, deepfakesdeepfakes have the potentialPotenzial to causeUrsache
graveGrab individualPerson and societalgesellschaftlichen harmSchaden.
86
296735
5568
Deepfakes haben das Potential,
ernsten Schaden persönlicher
und gesellschaftlicher Art anzurichten.
05:15
So, imaginevorstellen a deepfakedeepfake
87
303204
2024
Stellen Sie sich einen Deepfake vor,
05:17
that showszeigt an AmericanAmerikanische soldiersSoldaten
in AfganistanAfganistan burningVerbrennung a KoranKoran.
88
305252
4182
der US-Soldaten in Afghanistan zeigt,
wie sie einen Koran verbrennen.
05:22
You can imaginevorstellen that that deepfakedeepfake
would provokeprovozieren violenceGewalt
89
310807
3024
Man kann sich denken,
dass dieser Deepfake zu Gewalt
gegen die Soldaten führen würde.
05:25
againstgegen those soldiersSoldaten.
90
313855
1533
05:27
And what if the very nextNächster day
91
315847
2873
Und was, wenn direkt am nächsten Tag
05:30
there's anotherein anderer deepfakedeepfake that dropsTropfen,
92
318744
2254
ein weiterer Deepfake geschickt wird,
05:33
that showszeigt an a well-knownbekannte imamImam
basedbasierend in LondonLondon
93
321022
3317
der einen bekannten Imam aus London zeigt
05:36
praisingloben the attackAttacke on those soldiersSoldaten?
94
324363
2467
und den Angriff auf diese Soldaten lobt?
05:39
We mightMacht see violenceGewalt and civilbürgerlich unrestUnruhen,
95
327617
3163
Wie erleben vielleicht Gewalt und Unruhen,
05:42
not only in AfganistanAfganistan
and the UnitedVereinigte KingdomKönigreich,
96
330804
3249
nicht nur in Afghanistan
und im Vereinigten Königreich,
05:46
but acrossüber the globeGlobus.
97
334077
1515
sondern überall auf der Welt.
Sie sagen vielleicht zu mir:
05:48
And you mightMacht say to me,
98
336251
1158
05:49
"Come on, DanielleDanielle, that's far-fetchedweit hergeholt."
99
337433
2247
"Kommen Sie, Danielle,
das ist weit hergeholt."
05:51
But it's not.
100
339704
1150
Aber das ist es nicht.
05:53
We'veWir haben seengesehen falsehoodsUnwahrheiten spreadVerbreitung
101
341293
2191
Wir erlebten, wie Lügen,
die sich auf WhatsApp
05:55
on WhatsAppWhatsApp and other
onlineonline messageNachricht servicesDienstleistungen
102
343508
2722
und weiteren Online-Nachrichten-
Diensten verbreiteten,
05:58
leadführen to violenceGewalt
againstgegen ethnicethnisch minoritiesMinderheiten.
103
346254
2761
Gewalt gegen ethnische Minderheiten
zur Folge gehabt haben.
06:01
And that was just textText --
104
349039
1887
Und das war nur Text.
06:02
imaginevorstellen if it were videoVideo.
105
350950
2024
Stellen Sie sich vor, es wäre ein Video.
06:06
Now, deepfakesdeepfakes have the potentialPotenzial
to corrodeKorrodieren the trustVertrauen that we have
106
354593
5357
Deepfakes haben das Potential,
das in demokratische Institutionen
gesetzte Vertrauen, zu zersetzen.
06:11
in democraticdemokratisch institutionsInstitutionen.
107
359974
1992
06:15
So, imaginevorstellen the night before an electionWahl.
108
363006
2667
Denken Sie an die Nacht vor einer Wahl.
06:17
There's a deepfakedeepfake showingzeigt
one of the majorHaupt partyParty candidatesKandidaten
109
365996
3238
Es gäbe ein Deepfake, das einen Kandidaten
einer Volkspartei schwer krank zeigt.
06:21
gravelyin ernster sickkrank.
110
369258
1150
Der Deepfake könnte bei der Wahl
den Ausschlag geben
06:23
The deepfakedeepfake could tipSpitze the electionWahl
111
371202
2333
06:25
and shakeShake our senseSinn
that electionsWahlen are legitimatelegitim.
112
373559
3375
und unser Gefühl erschüttern,
dass Wahlen rechtmäßig sind.
06:30
ImagineStellen Sie sich vor if the night before
an initialInitiale publicÖffentlichkeit offeringAngebot
113
378515
3326
Stellen Sie sich vor, in der Nacht
vor einem Börsengang
06:33
of a majorHaupt globalglobal bankBank,
114
381865
2333
einer globalen Großbank,
06:36
there was a deepfakedeepfake
showingzeigt the bank'sBank CEOCEO
115
384222
3149
gäbe es einen Deepfake,
der den Bankvorstand zeigt,
06:39
drunkenlytrunken spoutingspritzenden conspiracyVerschwörung theoriesTheorien.
116
387395
2697
wie er Verschwörungstheorien
betrunken vom Stapel lässt.
06:42
The deepfakedeepfake could tankPanzer the IPOIPO,
117
390887
3047
Das Deepfake könnte den Börsengang
in sich zusammenbrechen lassen,
06:45
and worseschlechter, shakeShake our senseSinn
that financialfinanziell marketsMärkte are stablestabil.
118
393958
4115
und schlimmer noch,
unser Gefühl erschüttern,
dass die Finanzmärkte stabil sind.
Deepfakes können das tiefe Misstrauen
ausbeuten und verstärken,
06:51
So deepfakesdeepfakes can exploitausnutzen and magnifyvergrößern
the deeptief distrustMisstrauen that we alreadybereits have
119
399385
6989
das wir schon gegenüber Politikern,
Wirtschaftsführern
06:58
in politiciansPolitiker, businessGeschäft leadersFührer
and other influentialeinflussreiche leadersFührer.
120
406398
4214
und einflussreichen Personen hegen.
07:02
They find an audiencePublikum
primedgrundiert to believe them.
121
410945
3284
Sie finden ein instruiertes
gläubiges Publikum.
07:07
And the pursuitVerfolgung of truthWahrheit
is on the lineLinie as well.
122
415287
2765
Das Streben nach Wahrheit
steht auch auf dem Spiel.
07:11
TechnologistsTechnologen expecterwarten von
that with advancesFortschritte in AIAI,
123
419077
3564
Technologen erwarten, dass es
mit dem Fortschritt in der KI
07:14
soonbald it maykann be difficultschwer if not impossibleunmöglich
124
422665
3682
bald schwierig, wenn nicht sogar
unmöglich sein wird,
07:18
to tell the differenceUnterschied betweenzwischen
a realecht videoVideo and a fakeFälschung one.
125
426371
3769
zwischen einem echten Video
und einem gefälschten zu unterscheiden.
07:23
So how can the truthWahrheit emergeentstehen
in a deepfake-riddendeepfake-ridden marketplaceMarktplatz of ideasIdeen?
126
431022
5341
Wie kann auf einem Marktplatz der Ideen,
der von Deepfakes beherrscht wird,
die Wahrheit heraustreten?
07:28
Will we just proceedVorgehen alongeine lange
the pathPfad of leastam wenigsten resistanceWiderstand
127
436752
3420
Gehen wir einfach weiter
den Weg des geringsten Widerstandes
07:32
and believe what we want to believe,
128
440196
2437
und glauben, was wir glauben wollen?
07:34
truthWahrheit be damnedverdammt?
129
442657
1150
Die Wahrheit sei verflucht.
07:36
And not only mightMacht we believe the fakeryFakery,
130
444831
3175
Nicht nur, dass wir vielleicht
der Fälschung glauben,
07:40
we mightMacht startAnfang disbelievingUngläubig the truthWahrheit.
131
448030
3326
wir beginnen vielleicht
der Wahrheit zu misstrauen.
07:43
We'veWir haben alreadybereits seengesehen people invokeaufrufen
the phenomenonPhänomen of deepfakesdeepfakes
132
451887
4079
Wir erlebten bereits Leute,
die das Phänomen der Deepfakes anführen,
07:47
to castBesetzung doubtZweifel on realecht evidenceBeweise
of theirihr wrongdoingFehlverhalten.
133
455990
3920
um Zweifel an echten Beweisen
zu ihrem Fehlverhalten zu sähen.
07:51
We'veWir haben heardgehört politiciansPolitiker say of audioAudio-
of theirihr disturbingstörend commentsBemerkungen,
134
459934
5969
Wir hörten Politiker, die über Aufnahmen
ihrer verstörenden Kommentare sagten:
07:57
"Come on, that's fakeFälschung newsNachrichten.
135
465927
1746
"Kommen Sie, das sind 'Fake news'.
07:59
You can't believe what your eyesAugen
and earsOhren are tellingErzählen you."
136
467697
3920
Man kann nicht glauben, was die Augen
und Ohren wahrnehmen."
08:04
And it's that riskRisiko
137
472402
1731
Das ist die Gefahr,
08:06
that professorProfessor RobertRobert ChesneyChesney and I
call the "liar'sLügners dividendDividende":
138
474157
5436
die Professor Robert Chesney und ich,
die "Dividende des Lügners" nennen:
08:11
the riskRisiko that liarsLügner will invokeaufrufen deepfakesdeepfakes
139
479617
3357
Die Gefahr, dass Lügner
Deepfakes anführen,
08:14
to escapeFlucht accountabilityRechenschaftspflicht
for theirihr wrongdoingFehlverhalten.
140
482998
2905
um der Rechenschaft
für ihr Fehlverhalten zu entkommen.
08:18
So we'vewir haben got our work cutschneiden out for us,
there's no doubtZweifel about it.
141
486963
3071
Wir müssen etwas Schwieriges schaffen,
darüber besteht kein Zweifel.
08:22
And we're going to need
a proactiveproaktiv solutionLösung
142
490606
3325
Wir werden eine vorausschauende Lösung
08:25
from techTech companiesFirmen, from lawmakersGesetzgeber,
143
493955
3511
von Technologie-Unternehmen,
vom Gesetzgeber,
von Gesetzeshütern
und den Medien brauchen.
08:29
lawRecht enforcersEnforcer and the mediaMedien.
144
497490
1984
08:32
And we're going to need
a healthygesund doseDosis of societalgesellschaftlichen resilienceElastizität.
145
500093
4016
Wir benötigen eine gesunde Dosis
gesellschaftlicher Widerstandsfähigkeit.
08:37
So now, we're right now engagedbeschäftigt
in a very publicÖffentlichkeit conversationKonversation
146
505506
3896
Wir sind gerade mit überaus
öffentlichen Gesprächen
über die Verantwortung
von Technologie-Unternehmen beschäftigt.
08:41
about the responsibilityVerantwortung
of techTech companiesFirmen.
147
509426
2913
Mein Rat an Social-Media-Plattformen war,
08:44
And my adviceRat to socialSozial mediaMedien platformsPlattformen
148
512926
3032
08:47
has been to changeVeränderung theirihr termsBegriffe of serviceBedienung
and communityGemeinschaft guidelinesRichtlinien
149
515982
3873
ihre Nutzungsbedingungen
und die Gemeinschaftsleitlinien zu ändern,
08:51
to banVerbot deepfakesdeepfakes that causeUrsache harmSchaden.
150
519879
2336
um Deepfakes zu sperren,
die Schaden verursachen.
08:54
That determinationEntschlossenheit,
that's going to requireerfordern humanMensch judgmentBeurteilung,
151
522712
3960
Diese Feststellung wird
menschliche Beurteilung erfordern
08:58
and it's expensiveteuer.
152
526696
1571
und ist kostspielig.
09:00
But we need humanMensch beingsWesen
153
528673
2285
Aber wir brauchen menschliche Wesen,
09:02
to look at the contentInhalt
and contextKontext of a deepfakedeepfake
154
530982
3873
um den Inhalt und den Kontext
von Deepfakes zu betrachten
09:06
to figureZahl out if it is
a harmfulschädlich impersonationIdentitätswechsel
155
534879
3682
und herauszufinden, ob es
eine schädliche Verkörperung
09:10
or insteadstattdessen, if it's valuablewertvoll
satireSatire, artKunst or educationBildung.
156
538585
4382
oder stattdessen eine wertvolle Satire,
Kunst oder Bildung ist.
09:16
So now, what about the lawRecht?
157
544118
1495
Was ist mit dem Recht?
09:18
LawGesetz is our educatorErzieher.
158
546666
2349
Das Recht ist unser Lehrer.
09:21
It teacheslehrt us about
what's harmfulschädlich and what's wrongfalsch.
159
549515
4038
Es lehrt uns, was gefährlich
und falsch ist.
09:25
And it shapesFormen behaviorVerhalten it detersDeters
by punishingbestrafen perpetratorsTäter
160
553577
4555
Es formt Verhalten, es schreckt
Täter ab, indem es bestraft,
09:30
and securingSicherung remediesHeilmittel for victimsdie Opfer.
161
558156
2267
und garantiert Rechtsmittel für die Opfer.
09:33
Right now, lawRecht is not up to
the challengeHerausforderung of deepfakesdeepfakes.
162
561148
4280
Zur Zeit ist das Recht nicht auf der Höhe
der Herausforderung durch Deepfakes.
09:38
AcrossÜber the globeGlobus,
163
566116
1390
Überall auf der Welt
09:39
we lackMangel well-tailoredgut zugeschnitten lawsGesetze
164
567530
2444
mangelt es an maßgeschneidertem Recht,
09:41
that would be designedentworfen to tackleangehen
digitaldigital impersonationsVerkörperungen
165
569998
3570
das entworfen wäre,
digitalen Identitätswechsel anzugehen,
09:45
that invadeeinfallen sexualsexuell privacyDatenschutz,
166
573592
2231
die in sexuelle Privatsphäre eindringt,
09:47
that damageBeschädigung reputationsRuf
167
575847
1387
die gute Namen beschädigt
09:49
and that causeUrsache emotionalemotional distressNot.
168
577258
1951
und emotionalen Schmerz verursacht.
09:51
What happenedpassiert to RanaRana AyyubAyyub
is increasinglyzunehmend commonplacean der Tagesordnung.
169
579725
3873
Was Rana Ayyub passierte,
wird zunehmend zur Alltäglichkeit.
Doch als sie sich an die Gesetzeshüter
in Delhi wandte, sagte man ihr,
09:56
YetNoch, when she wentging
to lawRecht enforcementDurchsetzung in DelhiDelhi,
170
584074
2214
09:58
she was told nothing could be doneerledigt.
171
586312
2135
es könnte nichts unternommen werden.
10:01
And the sadtraurig truthWahrheit is
that the samegleich would be truewahr
172
589101
3183
Und die traurige Wahrheit ist:
Das Gleiche gilt für Europa
und die Vereinigten Staaten.
10:04
in the UnitedVereinigte StatesStaaten and in EuropeEuropa.
173
592308
2266
10:07
So we have a legallegal vacuumVakuum
that needsBedürfnisse to be filledgefüllt.
174
595300
4356
Wir haben einen rechtsfreien Raum,
der gefüllt werden muss.
10:12
My colleagueKollege DrDr. MaryMary AnneAnne FranksFranken and I
are workingArbeiten with US lawmakersGesetzgeber
175
600292
4092
Meine Kollegin, Dr. Mary Anne Franks,
und ich erarbeiten gemeinsam
10:16
to deviseentwickeln legislationGesetzgebung that would banVerbot
harmfulschädlich digitaldigital impersonationsVerkörperungen
176
604408
4804
mit US-Gesetzgebern Gesetzestexte,
die Identitätswechsel verbieten,
10:21
that are tantamountgleichbedeutend to identityIdentität theftDiebstahl.
177
609236
2533
der gleichbedeutend
mit Identitätsdiebstahl ist.
10:24
And we'vewir haben seengesehen similarähnlich movesbewegt
178
612252
2126
Wir haben ähnliche Schritte
10:26
in IcelandIsland, the UKUK and AustraliaAustralien.
179
614402
3301
in Island, dem Vereinigten Königreich
und Australien erlebt.
10:30
But of courseKurs, that's just a smallklein pieceStück
of the regulatoryregulatorisch puzzlePuzzle.
180
618157
3259
Aber selbstverständlich ist das nur
ein kleiner Teil des Regelungspuzzles.
10:34
Now, I know lawRecht is not a cure-allAllheilmittel. Right?
181
622911
3169
Ich weiß, dass Recht
kein Allheilmittel ist, oder?
10:38
It's a bluntstumpf instrumentInstrument.
182
626104
1600
Es ist ein stumpfes Instrument.
10:40
And we'vewir haben got to use it wiselyweise.
183
628346
1539
Und wir müssen es weise einsetzen.
10:42
It alsoebenfalls has some practicalpraktisch impedimentsHindernisse.
184
630411
2812
Es hat auch einige praktische Hemmschuhe.
10:45
You can't leverageHebelwirkung lawRecht againstgegen people
you can't identifyidentifizieren and find.
185
633657
5044
Man kann Recht nicht gegen Leute nutzen,
die man nicht identifizieren
und auffinden kann.
10:51
And if a perpetratorTäter livesLeben
outsidedraußen the countryLand
186
639463
3286
Wenn ein Täter nicht
im Land des Opfers lebt,
10:54
where a victimOpfer livesLeben,
187
642773
1754
kann man vielleicht nicht darauf bestehen,
10:56
then you maykann not be ablefähig to insistbestehen
188
644551
1629
10:58
that the perpetratorTäter
come into locallokal courtsGerichte
189
646204
2349
dass der Täter zum Amtsgericht kommt,
um sich der Gerechtigkeit zu stellen.
11:00
to faceGesicht justiceGerechtigkeit.
190
648577
1150
11:02
And so we're going to need
a coordinatedkoordiniert internationalInternational responseAntwort.
191
650236
4063
Wir benötigen eine koordinierte
internationale Antwort.
11:07
EducationBildung has to be partTeil
of our responseAntwort as well.
192
655819
3333
Schulung muss auch ein Teil
unserer Antwort sein.
11:11
LawGesetz enforcersEnforcer are not
going to enforceerzwingen lawsGesetze
193
659803
3731
Gesetzeshüter setzen keine Gesetze durch,
11:15
they don't know about
194
663558
1458
von denen sie nichts wissen
11:17
and profferAnerbieten problemsProbleme
they don't understandverstehen.
195
665040
2596
und Probleme ansprechen,
die sie nicht verstehen.
11:20
In my researchForschung on cyberstalkingCyberstalking,
196
668376
2191
Bei meiner Forschung
zu Cyberstalking fand ich heraus,
11:22
I foundgefunden that lawRecht enforcementDurchsetzung
lackedfehlten the trainingAusbildung
197
670591
3499
dass den Gesetzeshütern
die Schulung fehlt,
11:26
to understandverstehen the lawsGesetze availableverfügbar to them
198
674114
2582
um die gültigen Gesetze und das Problem
des Online-Missbrauchs zu verstehen.
11:28
and the problemProblem of onlineonline abuseMissbrauch.
199
676720
2349
11:31
And so oftenhäufig they told victimsdie Opfer,
200
679093
2682
So oft wird den Opfern gesagt:
11:33
"Just turnWende your computerComputer off.
IgnoreIgnorieren it. It'llEs werde go away."
201
681799
3971
"Schalten Sie einfach den Computer aus.
Ignorieren Sie es. Es geht vorbei."
11:38
And we saw that in RanaRana Ayyub'sAyyub es caseFall.
202
686261
2466
Wir erlebten das im Fall von Rana Ayyub.
11:41
She was told, "Come on,
you're makingHerstellung sucheine solche a biggroß dealDeal about this.
203
689102
3468
Man sagte ihr: "Komm schon, Du machst
so eine große Sache daraus.
11:44
It's boysJungen beingSein boysJungen."
204
692594
1743
Jungs sind nun mal Jungs."
11:47
And so we need to pairPaar newneu legislationGesetzgebung
with effortsBemühungen at trainingAusbildung.
205
695268
5252
Wir müssen also neue Gesetzgebung
mit Schulungsmaßnahmen koppeln.
11:54
And educationBildung has to be aimedgezielt
on the mediaMedien as well.
206
702053
3429
Und Schulungen müssen auch
auf die Medien gerichtet werden.
11:58
JournalistsJournalisten need educatingerziehen
about the phenomenonPhänomen of deepfakesdeepfakes
207
706180
4260
Journalisten brauchen Schulungen
zum Phänomen der Deepfakes,
12:02
so they don't amplifyverstärken and spreadVerbreitung them.
208
710464
3039
damit sie sie nicht verstärken
und sie verbreiten.
12:06
And this is the partTeil
where we're all involvedbeteiligt.
209
714583
2168
Das ist der Teil,
wo wir alle beteiligt sind.
12:08
EachJedes and everyjeden one of us needsBedürfnisse educatingerziehen.
210
716775
3855
Alle von uns brauchen Schulungen.
12:13
We clickklicken, we shareAktie, we like,
and we don't even think about it.
211
721375
3675
Wir klicken, wir teilen, wir liken
und denken noch nicht mal darüber nach.
12:17
We need to do better.
212
725551
1547
Wir müssen es besser machen.
12:19
We need farweit better radarRadar for fakeryFakery.
213
727726
2809
Wir brauchen für Fälschungen
einen viel besseren Radar.
12:25
So as we're workingArbeiten
throughdurch these solutionsLösungen,
214
733744
3841
Während wir uns
durch die Lösungen arbeiten,
12:29
there's going to be
a lot of sufferingLeiden to go around.
215
737609
2563
liegt noch viel Leid vor uns.
12:33
RanaRana AyyubAyyub is still wrestlingRingen
with the falloutFallout.
216
741093
2746
Rana Ayyub kämpft immer noch
mit den negativen Folgen.
12:36
She still doesn't feel freefrei
to expressausdrücken herselfSie selber on-MNO and offlineoffline.
217
744669
4189
Sie kann sich noch immer nicht ohne Zögern
online und offline ausdrücken.
12:41
And as she told me,
218
749566
1365
Und wie sie mir sagte,
12:42
she still feelsfühlt sich like there are thousandsTausende
of eyesAugen on her nakednackt bodyKörper,
219
750955
5074
fühlt sie immer noch, als starrten
tausende Augen auf ihren nackten Körper,
12:48
even thoughobwohl, intellectuallyintellektuell,
she knowsweiß it wasn'twar nicht her bodyKörper.
220
756053
3661
obwohl sie verstandesmäßig weiß,
dass es nicht ihr Körper war.
12:52
And she has frequenthäufig panicPanik attacksAnschläge,
221
760371
2349
Sie hat häufige Panikattacken
und besonders dann, wenn jemand,
den sie nicht kennt, versucht,
12:54
especiallyinsbesondere when someonejemand she doesn't know
triesversucht to take her pictureBild.
222
762744
4100
ein Foto von ihr zu machen.
12:58
"What if they're going to make
anotherein anderer deepfakedeepfake?" she thinksdenkt to herselfSie selber.
223
766868
3511
Sie denkt sich: "Was, wenn man
ein anderes Deepfake machen wird?"
13:03
And so for the sakeSake of
individualsIndividuen like RanaRana AyyubAyyub
224
771082
3921
Um Personen wie Rana Ayyub willen
13:07
and the sakeSake of our democracyDemokratie,
225
775027
2306
und um unserer Demokratie willen,
13:09
we need to do something right now.
226
777357
2182
müssen wir jetzt etwas unternehmen.
13:11
Thank you.
227
779563
1151
Danke.
13:12
(ApplauseApplaus)
228
780738
2508
(Applaus)
Translated by Johannes Duschner
Reviewed by Sonja Maria Neef

▲Back to top

ABOUT THE SPEAKER
Danielle Citron - Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice.

Why you should listen

As a law professor, Danielle Citron puts her commitment to civil rights into practice. She is vice president of the Cyber Civil Rights Initiative, a nonprofit combatting privacy-invading online abuse that undermines civil rights and civil liberties.

When Citron began addressing cyber harassment ten years ago, it was commonly believed that it was "no big deal," and that any legal response would "break the internet." Those attitudes -- and the heartbreaking stories of victims who were terrorized, silenced and economically damaged -- drove Citron to write her 2014 book, Hate Crimes in Cyberspace. Ever since, she has been working with lawmakers, law enforcers, and tech companies to make online spaces and tools available to all on equal terms. Her latest book project focuses on the importance of sexual privacy and how we should protect it. 

More profile about the speaker
Danielle Citron | Speaker | TED.com