ABOUT THE SPEAKER
Danielle Citron - Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice.

Why you should listen

As a law professor, Danielle Citron puts her commitment to civil rights into practice. She is vice president of the Cyber Civil Rights Initiative, a nonprofit combatting privacy-invading online abuse that undermines civil rights and civil liberties.

When Citron began addressing cyber harassment ten years ago, it was commonly believed that it was "no big deal," and that any legal response would "break the internet." Those attitudes -- and the heartbreaking stories of victims who were terrorized, silenced and economically damaged -- drove Citron to write her 2014 book, Hate Crimes in Cyberspace. Ever since, she has been working with lawmakers, law enforcers, and tech companies to make online spaces and tools available to all on equal terms. Her latest book project focuses on the importance of sexual privacy and how we should protect it. 

More profile about the speaker
Danielle Citron | Speaker | TED.com
TEDSummit 2019

Danielle Citron: How deepfakes undermine truth and threaten democracy

Danielle Citron: Comment les deepfakes mettent en danger la vérité et la démocratie

Filmed:
1,533,743 views

L'utilisation de la technologie « deepfake » pour manipuler la vidéo et l'audio à des fins malveillantes - que ce soit pour attiser la violence ou pour diffamer les politiciens et les journalistes - devient une menace réelle. À mesure que ces outils deviendront plus accessibles et que les résultats deviendront plus réalistes, comment vont-ils façonner ce que nous croyons ? Danielle Citron, professeure de droit, révèle dans un discours épouvantable comment les deepfakes augmentent notre méfiance - et suggère des approches pour préserver la vérité.
- Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice. Full bio

Double-click the English transcript below to play the video.

00:12
[This talk containscontient maturemature contentcontenu]
0
535
2767
[Cette intervention comporte
du contenu réservé aux adultes]
00:17
RanaRana AyyubAyoub is a journalistjournaliste in IndiaInde
1
5762
2992
Rana Ayyub est journaliste en Inde.
00:20
whosedont work has exposedexposé
governmentgouvernement corruptionla corruption
2
8778
2602
Elle a exposé
la corruption du gouvernement
00:24
and humanHumain rightsdroits violationsviolations.
3
12411
2157
et des violations des droits de l'homme.
00:26
And over the yearsannées,
4
14990
1167
Et au fil des années,
00:28
she's gottenobtenu used to vitriolvitriol
and controversycontroverse around her work.
5
16181
3303
elle s'est habituée à la critique
et à la controverse sur son travail.
00:32
But noneaucun of it could have preparedpréparé her
for what she facedface à in AprilAvril 2018.
6
20149
5109
Mais rien n'aurait pu la préparer
à ce qu'il s'est passé en avril 2018.
00:38
She was sittingséance in a cafFACé with a friendami
when she first saw it:
7
26125
3651
Elle était dans un café avec un ami
quand elle a vu la vidéo :
00:41
a two-minutedeux minutes, 20-second videovidéo
of her engagedengagé in a sexsexe actacte.
8
29800
4943
une vidéo de deux minutes vingt
la montrant en plein ébat sexuel.
00:47
And she couldn'tne pouvait pas believe her eyesles yeux.
9
35188
2349
Elle n'en croyait pas ses yeux.
00:49
She had never madefabriqué a sexsexe videovidéo.
10
37561
2273
Elle n'avait jamais tourné
une telle vidéo.
00:52
But unfortunatelymalheureusement, thousandsmilliers
uponsur thousandsmilliers of people
11
40506
3465
Mais malheureusement, des milliers de gens
00:55
would believe it was her.
12
43995
1666
ont cru que c'était elle.
00:58
I interviewedinterviewé MsMS. AyyubAyoub
about threeTrois monthsmois agodepuis,
13
46673
2944
J'ai interviewé Mme Ayyub
il y a trois mois,
dans le cadre de mon livre
sur la protection de l'intimité sexuelle.
01:01
in connectionconnexion with my booklivre
on sexualsexuel privacyvie privée.
14
49641
2504
01:04
I'm a lawloi professorprofesseur, lawyeravocat
and civilcivil rightsdroits advocateavocat.
15
52681
3198
Je suis professeur de droit,
juriste et avocate en droit civil.
01:08
So it's incrediblyincroyablement frustratingfrustrant
knowingconnaissance that right now,
16
56204
4611
Il est incroyablement frustrant,
sachant tout cela,
01:12
lawloi could do very little to help her.
17
60839
2238
que la loi ne puisse pas beaucoup l'aider.
01:15
And as we talkeda parlé,
18
63458
1547
Lors de notre conversation,
01:17
she explainedexpliqué that she should have seenvu
the fakefaux sexsexe videovidéo comingvenir.
19
65029
4512
elle m'a expliqué qu'elle aurait dû
voir venir cette fausse vidéo porno.
01:22
She said, "After all, sexsexe is so oftensouvent used
to demeanRabaisser and to shamela honte womenfemmes,
20
70038
5596
Elle m'a dit : « Après tout,
le sexe est si souvent utilisé
pour rabaisser les femmes
ou leur faire honte,
01:27
especiallynotamment minorityminorité womenfemmes,
21
75658
2428
surtout les femmes issues des minorités,
01:30
and especiallynotamment minorityminorité womenfemmes
who dareoser to challengedéfi powerfulpuissant menHommes,"
22
78110
4312
et surtout les femmes des minorités
qui osent défier des hommes puissants » -
01:34
as she had in her work.
23
82446
1533
ce qu'elle avait fait par son travail.
01:37
The fakefaux sexsexe videovidéo wentest allé viralvirale in 48 hoursheures.
24
85191
3976
En 48 heures, la vidéo truquée
est devenue virale.
01:42
All of her onlineen ligne accountscomptes were floodedinondées
with screenshotscaptures d’écran of the videovidéo,
25
90064
5307
Tous ses comptes ont été bombardés
d'images de cette vidéo,
01:47
with graphicgraphique raperâpé and deathdécès threatsmenaces
26
95395
2627
accompagnées de menaces de viol,
de menaces de mort,
01:50
and with slursinsultes about her MuslimMusulmane faithFoi.
27
98046
2533
et d'insultes à sa foi de musulmane.
01:53
OnlineEn ligne postsmessages suggestedsuggéré that
she was "availabledisponible" for sexsexe.
28
101426
4564
Des posts en ligne suggéraient
qu'elle était « disponible » sexuellement.
01:58
And she was doxeddoxed,
29
106014
1610
Et elle a été « doxée » :
01:59
whichlequel meansveux dire that her home addressadresse
and her cellcellule phonetéléphone numbernombre
30
107648
2778
son adresse personnelle
et son numéro de portable
02:02
were spreadpropager acrossà travers the internetl'Internet.
31
110450
1746
ont été dévoilés sur Internet.
02:04
The videovidéo was sharedpartagé
more than 40,000 timesfois.
32
112879
4084
La vidéo a été partagée
plus de 40 000 fois.
02:09
Now, when someoneQuelqu'un is targetedciblé
with this kindgentil of cybermobcybermob attackattaque,
33
117760
3936
Quand quelqu'un est visé
par ce genre de cyber-harcèlement,
02:13
the harmnuire is profoundprofond.
34
121720
2063
les conséquences sont
immensément douloureuses.
02:16
RanaRana Ayyub'sAyyub life was turnedtourné upsideà l'envers down.
35
124482
3039
La vie de Rana Ayyub a été chamboulée.
02:20
For weekssemaines, she could hardlyà peine eatmanger or speakparler.
36
128211
3334
Pendant des semaines, elle arrivait
à peine à manger ou à parler.
02:23
She stoppedarrêté writingl'écriture and closedfermé
all of her socialsocial mediamédias accountscomptes,
37
131919
3689
Elle a arrêté d'écrire et a fermé
tous ses comptes sur les réseaux sociaux,
02:27
whichlequel is, you know, a toughdure thing to do
when you're a journalistjournaliste.
38
135632
3158
ce qui, vous savez, est un acte difficile
quand vous êtes journaliste.
02:31
And she was afraidpeur to go outsideà l'extérieur
her family'sla famille home.
39
139188
3484
Elle avait peur de sortir de chez elle.
Et si les harceleurs voulaient
mettre leurs menaces à exécution ?
02:34
What if the postersaffiches
madefabriqué good on theirleur threatsmenaces?
40
142696
3022
02:38
The UNNATIONS UNIES CouncilConseil on HumanHumaine RightsDroits
confirmedconfirmé that she wasn'tn'était pas beingétant crazyfou.
41
146395
4365
Le Conseil de l'ONU pour les droits de
l'homme ont confirmé qu'elle avait raison.
02:42
It issuedPublié a publicpublic statementdéclaration sayingen disant
that they were worriedinquiet about her safetysécurité.
42
150784
4637
Il a publié une déclaration disant
qu'il s'inquiétait pour sa sécurité.
02:48
What RanaRana AyyubAyoub facedface à was a deepfakedeepfake deepfake:
43
156776
4229
Rana Ayyub a été la cible
de ce qu'on appelle un deepfake :
02:53
machine-learningapprentissage automatique technologyLa technologie
44
161029
2540
une technologie basée
sur l'apprentissage automatique
02:55
that manipulatesmanipule or fabricatesfabrique des
audiol'audio and videovidéo recordingsenregistrements
45
163593
4111
qui manipule ou fabrique
des enregistrements audio et vidéo
02:59
to showmontrer people doing and sayingen disant things
46
167728
2723
qui montrent des gens faisant
ou disant des choses
03:02
that they never did or said.
47
170475
1866
qu'ils n'ont jamais faites ou dites.
03:04
DeepfakesDeepfakes (Deepfakes) appearapparaître authenticauthentique
and realisticréaliste, but they're not;
48
172807
3361
Les deepfakes semblent authentiques
et réalistes, mais ne le sont pas ;
03:08
they're totaltotal falsehoodsmensonges.
49
176192
1772
ce sont des falsifications complètes.
03:11
AlthoughBien que the technologyLa technologie
is still developingdéveloppement in its sophisticationsophistication,
50
179228
3794
Bien que la technologie soit encore
dans une phase d'amélioration,
elle est déjà largement accessible.
03:15
it is widelylargement availabledisponible.
51
183046
1614
03:17
Now, the mostles plus recentrécent attentionattention
to deepfakesdeepfakes deepfakes aroses'est levé,
52
185371
3072
les deepfakes ont tout
récemment attiré l'attention,
03:20
as so manybeaucoup things do onlineen ligne,
53
188467
2161
comme tant de choses sur Internet,
03:22
with pornographypornographie.
54
190652
1255
grâce à la pornographie.
03:24
In earlyde bonne heure 2018,
55
192498
2111
Début 2018,
03:26
someoneQuelqu'un postedposté a tooloutil on RedditReddit
56
194633
2468
quelqu'un a posté un outil sur Reddit
03:29
to allowpermettre usersutilisateurs to insertinsérer facesvisages
into pornporno videosvidéos.
57
197125
4412
permettant à ses utilisateurs d'intégrer
des visages dans des vidéos pornos.
03:33
And what followedsuivi was a cascadecascade
of fakefaux pornporno videosvidéos
58
201561
3440
S'en est suivi un déluge
de fausses vidéos pornos
03:37
featuringavec people'sles gens favoritepréféré
femalefemelle celebritiescélébrités.
59
205025
2797
mettant en scène les célébrités
féminines préférées du public.
03:40
And todayaujourd'hui, you can go on YouTubeYouTube
and pulltirer up countlessinnombrable tutorialsTutoriels
60
208712
3477
Aujourd'hui, vous pouvez faire défiler
sur Youtube les nombreux tutoriels
03:44
with step-by-steppas à pas instructionsinstructions
61
212213
2286
montrant pas à pas
03:46
on how to make a deepfakedeepfake deepfake
on your desktopordinateur de bureau applicationapplication.
62
214523
3163
comment créer un deepfake
sur votre ordinateur personnel.
03:50
And soonbientôt we maymai be even ablecapable
to make them on our cellcellule phonesTéléphones.
63
218260
3706
On dit qu'on pourrait même bientôt
le faire sur nos téléphones.
03:55
Now, it's the interactioninteraction
of some of our mostles plus basicde base humanHumain frailtiesfaiblesses
64
223072
5382
On est là au croisement de certaines
des plus basiques fragilités humaines
04:00
and networkréseau toolsoutils
65
228478
1682
et des outils technologiques
04:02
that can turntour deepfakesdeepfakes deepfakes into weaponsarmes.
66
230184
2666
qui peuvent transformer
les deepfakes en armes.
04:04
So let me explainExplique.
67
232874
1200
Laissez-moi préciser.
04:06
As humanHumain beingsêtres, we have
a visceralviscérale reactionréaction to audiol'audio and videovidéo.
68
234875
4566
Les êtres humains ont une réaction
instinctive à l'audio et la vidéo.
04:11
We believe they're truevrai,
69
239860
1488
On croit que c'est vrai,
04:13
on the notionnotion that
of coursecours you can believe
70
241372
2078
car, par principe, nous croyons évidemment
04:15
what your eyesles yeux and earsoreilles are tellingrécit you.
71
243474
2478
ce que nos yeux
et nos oreilles nous disent.
04:18
And it's that mechanismmécanisme
72
246476
1699
Et c'est ce mécanisme
04:20
that mightpourrait underminesaper our sharedpartagé
sensesens of realityréalité.
73
248199
3698
qui peut saper notre
sens partagé de la réalité.
Bien que nous pensions que les deepfakes
soient vrais, ils ne le sont pas.
04:23
AlthoughBien que we believe deepfakesdeepfakes deepfakes
to be truevrai, they're not.
74
251921
3147
04:27
And we're attracteda attiré
to the salacioussalaces, the provocativeprovocante.
75
255604
4157
Et nous sommes attirés
par ce qui est salace, provoquant.
04:32
We tendtendre to believe
and to sharepartager informationinformation
76
260365
3047
On a tendance à croire
et à diffuser des informations
04:35
that's negativenégatif and novelroman.
77
263436
2023
qui sont négatives et nouvelles.
04:37
And researchersdes chercheurs have founda trouvé that onlineen ligne
hoaxescanulars spreadpropager 10 timesfois fasterPlus vite
78
265809
5019
Des chercheurs ont trouvé que les canulars
en ligne se répandent dix fois plus vite
04:42
than accurateprécis storieshistoires.
79
270852
1627
que les histoires vraies.
04:46
Now, we're alsoaussi drawntiré to informationinformation
80
274015
4380
De plus, nous sommes aussi attirés
par l'information
04:50
that alignss’aligne with our viewpointspoints de vue.
81
278419
1892
qui coïncide avec notre point de vue.
04:52
PsychologistsPsychologues call that tendencytendance
"confirmationconfirmation biasbiais."
82
280950
3561
Les psychologues appellent cela
un biais de confirmation.
04:57
And socialsocial mediamédias platformsplateformes
superchargeSuralimenter that tendencytendance,
83
285300
4387
Les réseaux sociaux amplifient
cette tendance,
05:01
by allowingen permettant us to instantlyimmédiatement
and widelylargement sharepartager informationinformation
84
289711
3881
en nous permettant de partager une
information instantanément et largement,
05:05
that accordsaccords with our viewpointspoints de vue.
85
293616
1792
si elle correspond à notre point de vue.
05:08
Now, deepfakesdeepfakes deepfakes have the potentialpotentiel to causecause
gravela tombe individualindividuel and societalsociétales harmnuire.
86
296735
5568
Mais les deepfakes ont le potentiel
de causer de graves dommages
individuels et sociétaux.
05:15
So, imagineimaginer a deepfakedeepfake deepfake
87
303204
2024
Imaginez un deepfake
05:17
that showsmontre AmericanAméricain soldierssoldats
in AfganistanAfganistan burningbrûlant a KoranCoran.
88
305252
4182
qui montrerait des soldats américains
brûlant un Coran en Afghanistan.
05:22
You can imagineimaginer that that deepfakedeepfake deepfake
would provokeprovoquer violencela violence
89
310807
3024
On imagine bien qu'une telle
vidéo déclencherait des violences
05:25
againstcontre those soldierssoldats.
90
313855
1533
contre ces soldats.
05:27
And what if the very nextprochain day
91
315847
2873
Et imaginons que le lendemain
05:30
there's anotherun autre deepfakedeepfake deepfake that dropsgouttes,
92
318744
2254
tombe un nouveau deepfake
05:33
that showsmontre a well-knownbien connu imamImam
basedbasé in LondonLondres
93
321022
3317
montrant un imam de Londres bien connu
05:36
praisingfaisant l’éloge the attackattaque on those soldierssoldats?
94
324363
2467
appelant à attaquer ces soldats.
05:39
We mightpourrait see violencela violence and civilcivil unresttroubles,
95
327617
3163
Ça pourrait déclencher
des violences et des troubles civils,
05:42
not only in AfganistanAfganistan
and the UnitedUnie KingdomRoyaume,
96
330804
3249
pas seulement en Afghanistan
ou au Royaume-Uni,
05:46
but acrossà travers the globeglobe.
97
334077
1515
mais partout dans le monde.
05:48
And you mightpourrait say to me,
98
336251
1158
Vous pourriez me répondre :
« Allons, c'est tiré par les cheveux. »
05:49
"Come on, DanielleDanielle, that's far-fetchedfarfelu."
99
337433
2247
05:51
But it's not.
100
339704
1150
Mais ce n'est pas le cas.
05:53
We'veNous avons seenvu falsehoodsmensonges spreadpropager
101
341293
2191
On a vu des mensonges se répandre
05:55
on WhatsAppWhatsApp and other
onlineen ligne messagemessage servicesprestations de service
102
343508
2722
sur WhatsApp et d'autres
services de messagerie en ligne
05:58
leadconduire to violencela violence
againstcontre ethnicethnique minoritiesminorités.
103
346254
2761
et mener à des violences
envers des minorités ethniques.
06:01
And that was just texttexte --
104
349039
1887
Et ce n'était que du texte -
06:02
imagineimaginer if it were videovidéo.
105
350950
2024
imaginez si ça avait été des vidéos.
06:06
Now, deepfakesdeepfakes deepfakes have the potentialpotentiel
to corrodecorroder the trustconfiance that we have
106
354593
5357
Les deepfakes ont le potentiel
d'entamer la confiance que nous avons
06:11
in democraticdémocratique institutionsinstitutions.
107
359974
1992
dans les institutions démocratiques.
06:15
So, imagineimaginer the night before an electionélection.
108
363006
2667
Imaginez qu'à la veille d'une élection,
06:17
There's a deepfakedeepfake deepfake showingmontrer
one of the majorMajeur partyfête candidatescandidats
109
365996
3238
on voit un deepfake montrant
un des candidats du parti majoritaire
06:21
gravelygravement sickmalade.
110
369258
1150
gravement malade.
06:23
The deepfakedeepfake deepfake could tippointe the electionélection
111
371202
2333
Ce deepfake pourrait
faire basculer l'élection
06:25
and shakesecouer our sensesens
that electionsélections are legitimatelégitime.
112
373559
3375
et mettre en doute la légitimité
qu'on attribue à l'élection.
06:30
ImagineImaginez if the night before
an initialinitiale publicpublic offeringoffre
113
378515
3326
Imaginez qu'à la veille
de l'entrée en bourse
06:33
of a majorMajeur globalglobal bankbanque,
114
381865
2333
d'une banque importante,
06:36
there was a deepfakedeepfake deepfake
showingmontrer the bank'sbanques CEOPRÉSIDENT-DIRECTEUR GÉNÉRAL
115
384222
3149
il y ait un deepfake
montrant le PDG de la banque
06:39
drunkenlyivre spoutingjaillissant des conspiracyconspiration theoriesthéories.
116
387395
2697
complètement saoûl,
soutenant des théories complotistes.
06:42
The deepfakedeepfake deepfake could tankréservoir the IPOINTRODUCTION EN BOURSE,
117
390887
3047
Ce deepfake pourrait couler
cette introduction en bourse,
06:45
and worsepire, shakesecouer our sensesens
that financialfinancier marketsles marchés are stablestable.
118
393958
4115
et pire encore, nous faire douter
de la stabilité des marchés financiers.
06:51
So deepfakesdeepfakes deepfakes can exploitexploit and magnifymagnifier
the deepProfond distrustméfiance à l’égard that we alreadydéjà have
119
399385
6989
Les deepfakes savent
exploiter et amplifier
la méfiance profonde que nous avons déjà
06:58
in politiciansLes politiciens, businessEntreprise leadersdirigeants
and other influentialinfluent leadersdirigeants.
120
406398
4214
dans les politiciens, les patrons
et les autres leaders influents.
07:02
They find an audiencepublic
primedapprêté to believe them.
121
410945
3284
Ils rencontrent un public
tout prêt à les croire.
07:07
And the pursuitpoursuite of truthvérité
is on the lineligne as well.
122
415287
2765
La recherche de la vérité
est en danger également.
07:11
TechnologistsTechnologues expectattendre
that with advancesavances in AIAI,
123
419077
3564
Les experts en technologie s'attendent
à ce qu'avec les avancées de l'IA,
07:14
soonbientôt it maymai be difficultdifficile if not impossibleimpossible
124
422665
3682
il soit bientôt difficile,
sinon impossible,
07:18
to tell the differencedifférence betweenentre
a realréal videovidéo and a fakefaux one.
125
426371
3769
de faire la différence entre une vraie
et une fausse vidéo.
07:23
So how can the truthvérité emergeémerger
in a deepfake-riddendeepfake-ridden marketplacemarché of ideasidées?
126
431022
5341
Comment la vérité pourrait donc émerger
sur une scène des idées
contaminée par les deepfakes ?
07:28
Will we just proceedprocéder alongle long de
the pathchemin of leastmoins resistancela résistance
127
436752
3420
Suivrons-nous juste
la voie de moindre résistance
07:32
and believe what we want to believe,
128
440196
2437
pour croire ce que nous voulons croire,
07:34
truthvérité be damnedDamned?
129
442657
1150
et au diable la vérité ?
07:36
And not only mightpourrait we believe the fakeryFakery,
130
444831
3175
Non seulement nous risquons
de croire les mensonges,
07:40
we mightpourrait startdébut disbelievingincrédule the truthvérité.
131
448030
3326
mais aussi de douter de la vérité.
07:43
We'veNous avons alreadydéjà seenvu people invokeinvoquer
the phenomenonphénomène of deepfakesdeepfakes deepfakes
132
451887
4079
Nous avons déjà vu des gens utiliser
ce phénomène des deepfakes
07:47
to castjeter doubtdoute on realréal evidencepreuve
of theirleur wrongdoingactes fautifs.
133
455990
3920
pour mettre en doute des preuves
tangibles de leurs agissements.
07:51
We'veNous avons heardentendu politiciansLes politiciens say of audiol'audio
of theirleur disturbinginquiétant commentscommentaires,
134
459934
5969
Nous avons entendu des politiciens
dire de certains enregistrements :
07:57
"Come on, that's fakefaux newsnouvelles.
135
465927
1746
« Allez, ce sont des fake news.
07:59
You can't believe what your eyesles yeux
and earsoreilles are tellingrécit you."
136
467697
3920
Vous ne pouvez pas croire ce que
vos yeux et vos oreilles vous disent. »
08:04
And it's that riskrisque
137
472402
1731
Et c'est ce risque
08:06
that professorprofesseur RobertRobert ChesneyChesney and I
call the "liar'smenteur dividenddividende":
138
474157
5436
que le professeur Robert Chesney et moi
appelons le « dividende du menteur » :
08:11
the riskrisque that liarsmenteurs will invokeinvoquer deepfakesdeepfakes deepfakes
139
479617
3357
le risque qu'un menteur
invoque les deepfakes
08:14
to escapeéchapper accountabilityresponsabilité
for theirleur wrongdoingactes fautifs.
140
482998
2905
pour échapper aux conséquences
de ses malversations.
08:18
So we'venous avons got our work cutCouper out for us,
there's no doubtdoute about it.
141
486963
3071
Nous avons donc du pain
sur la planche, sans aucun doute.
08:22
And we're going to need
a proactiveproactif solutionSolution
142
490606
3325
Nous allons avoir besoin
d'une solution proactive
08:25
from techtechnologie companiesentreprises, from lawmakerslégislateurs,
143
493955
3511
de la part des sociétés de technologie,
des législateurs,
08:29
lawloi enforcersresponsables de l’application and the mediamédias.
144
497490
1984
des forces de l'ordre et des media.
08:32
And we're going to need
a healthyen bonne santé dosedose of societalsociétales resiliencerésistance.
145
500093
4016
Et nous allons avoir besoin
d'une bonne dose de résilience sociale.
08:37
So now, we're right now engagedengagé
in a very publicpublic conversationconversation
146
505506
3896
Nous sommes déjà engagés en ce moment
dans une large conversation publique
08:41
about the responsibilityresponsabilité
of techtechnologie companiesentreprises.
147
509426
2913
sur la responsabilité
des sociétés de technologies.
08:44
And my adviceConseil to socialsocial mediamédias platformsplateformes
148
512926
3032
J'ai déjà suggéré aux réseaux sociaux
08:47
has been to changechangement theirleur termstermes of serviceun service
and communitycommunauté guidelinesdes lignes directrices
149
515982
3873
de changer leurs conditions d'utilisation
et leurs règles d'usage
08:51
to baninterdire deepfakesdeepfakes deepfakes that causecause harmnuire.
150
519879
2336
pour interdire ces deepfakes dangereux.
08:54
That determinationdétermination,
that's going to requireexiger humanHumain judgmentjugement,
151
522712
3960
Cette détermination va nécessiter
une évaluation par des humains
08:58
and it's expensivecoûteux.
152
526696
1571
et va coûter cher.
09:00
But we need humanHumain beingsêtres
153
528673
2285
Mais il faut que des humains
09:02
to look at the contentcontenu
and contextle contexte of a deepfakedeepfake deepfake
154
530982
3873
étudient le contenu
et le contexte d'un deepfake
09:06
to figurefigure out if it is
a harmfulnocif impersonationemprunt d’identité
155
534879
3682
pour déterminer s'il s'agit
une utilisation dangereuse
09:10
or insteadau lieu, if it's valuablede valeur
satiresatire, artart or educationéducation.
156
538585
4382
ou, au contraire, d'une satire, d'une
œuvre d'art ou d'un contenu éducatif.
09:16
So now, what about the lawloi?
157
544118
1495
Et au fait, que dit la loi ?
09:18
LawDroit is our educatoréducateur.
158
546666
2349
Nous devons apprendre de la loi.
09:21
It teachesenseigne us about
what's harmfulnocif and what's wrongfaux.
159
549515
4038
Elle nous dit
ce qui est dangereux et ce qui est mal.
09:25
And it shapesformes behaviorcomportement it detersdissuade
by punishingpunir perpetratorsauteurs
160
553577
4555
Et elle réprime les comportements
interdits en punissant les coupables
09:30
and securingsécuriser remediesvoies de recours for victimsles victimes.
161
558156
2267
et en prenant soin des victimes.
09:33
Right now, lawloi is not up to
the challengedéfi of deepfakesdeepfakes deepfakes.
162
561148
4280
A ce jour, la loi n'est pas à la hauteur
du défi posé par les deepfakes.
09:38
AcrossDans l’ensemble the globeglobe,
163
566116
1390
Dans le monde entier,
09:39
we lackmanquer de well-tailoredbien adaptés lawslois
164
567530
2444
on manque de lois adaptées
09:41
that would be designedconçu to tackletacle
digitalnumérique impersonationsemprunts d’identité
165
569998
3570
qui permettraient d'empêcher
ces mises en scène numériques
09:45
that invadeenvahir sexualsexuel privacyvie privée,
166
573592
2231
qui violent l'intimité,
09:47
that damagedommage reputationsréputations
167
575847
1387
qui détruisent des réputations
09:49
and that causecause emotionalémotif distressdétresse.
168
577258
1951
et qui causent des dommages émotionnels.
09:51
What happenedarrivé to RanaRana AyyubAyoub
is increasinglyde plus en plus commonplacemonnaie courante.
169
579725
3873
Ce qui est arrivé à Rana Ayyub
devient de plus en plus courant.
09:56
YetEncore, when she wentest allé
to lawloi enforcementmise en vigueur in DelhiDelhi,
170
584074
2214
Quand elle s'est rendue
à la police à Delhi,
09:58
she was told nothing could be doneterminé.
171
586312
2135
on lui a dit qu'on ne pouvait rien faire.
10:01
And the sadtriste truthvérité is
that the sameMême would be truevrai
172
589101
3183
Et la triste vérité est
que c'est la même chose
10:04
in the UnitedUnie StatesÉtats and in EuropeL’Europe.
173
592308
2266
aux États-Unis et en Europe.
10:07
So we have a legallégal vacuumvide
that needsBesoins to be filledrempli.
174
595300
4356
Il y a là un vide juridique
qu'il faut combler.
10:12
My colleaguecollègue DrDr. MaryMarie AnneAnne FranksFranks and I
are workingtravail with US lawmakerslégislateurs
175
600292
4092
Ma collègue le Dr Mary Anne Franks et moi
travaillons avec le législateur étasunien
10:16
to deviseconcevoir legislationlégislation that would baninterdire
harmfulnocif digitalnumérique impersonationsemprunts d’identité
176
604408
4804
pour mettre sur pied des lois
qui interdiraient ces mises
en scène numériques blessantes
10:21
that are tantamountéquivalant to identityidentité theftvol.
177
609236
2533
qui s'apparentent à du vol d'identité.
10:24
And we'venous avons seenvu similarsimilaire movesse déplace
178
612252
2126
On constate des démarches similaires
10:26
in IcelandIslande, the UKUK and AustraliaAustralie.
179
614402
3301
en Islande, au Royaume-Uni
et en Australie.
10:30
But of coursecours, that's just a smallpetit piecepièce
of the regulatoryréglementaire puzzlepuzzle.
180
618157
3259
Mais bien sûr, il ne s'agit que d'une
petite pièce dans le puzzle réglementaire.
10:34
Now, I know lawloi is not a cure-allpanacée. Right?
181
622911
3169
Je sais bien que la loi
n'est pas la panacée.
10:38
It's a bluntémoussé instrumentinstrument.
182
626104
1600
C'est un instrument brutal.
10:40
And we'venous avons got to use it wiselyjudicieusement.
183
628346
1539
Nous devons nous en servir subtilement.
10:42
It alsoaussi has some practicalpratique impedimentsobstacles.
184
630411
2812
Il y a également
quelques problèmes pratiques.
10:45
You can't leverageinfluence lawloi againstcontre people
you can't identifyidentifier and find.
185
633657
5044
On ne peut pas exercer
de sanctions contre quelqu'un
qu'on ne peut pas identifier ni trouver.
10:51
And if a perpetratorauteur de l’infraction livesvies
outsideà l'extérieur the countryPays
186
639463
3286
Et si un coupable vit en dehors du pays
10:54
where a victimvictime livesvies,
187
642773
1754
où vit la victime,
10:56
then you maymai not be ablecapable to insistinsister pour
188
644551
1629
il pourrait être impossible
10:58
that the perpetratorauteur de l’infraction
come into locallocal courtstribunaux
189
646204
2349
que le coupable comparaisse
devant la justice
11:00
to facevisage justiceJustice.
190
648577
1150
dans le pays de la victime.
11:02
And so we're going to need
a coordinatedcoordonné internationalinternational responseréponse.
191
650236
4063
Nous allons donc avoir besoin
d'une réponse internationale coordonnée.
11:07
EducationÉducation has to be partpartie
of our responseréponse as well.
192
655819
3333
Sans oublier l'éducation.
11:11
LawDroit enforcersresponsables de l’application are not
going to enforceimposer lawslois
193
659803
3731
Les forces de l'ordre n'interviendront pas
si elles ne connaissent pas ces lois
11:15
they don't know about
194
663558
1458
11:17
and proffertendre problemsproblèmes
they don't understandcomprendre.
195
665040
2596
et ne régleront pas des problèmes
qu'elles ne comprennent pas.
11:20
In my researchrecherche on cyberstalkingcyber-harcèlement,
196
668376
2191
Dans mes recherches
sur le cyberharcèlement,
11:22
I founda trouvé that lawloi enforcementmise en vigueur
lackedn’avait pas the trainingentraînement
197
670591
3499
j'ai constaté que les forces de l'ordre
n'avaient pas la formation
11:26
to understandcomprendre the lawslois availabledisponible to them
198
674114
2582
pour comprendre les lois
dont elles disposent
11:28
and the problemproblème of onlineen ligne abuseabuser de.
199
676720
2349
et les problèmes sur Internet.
11:31
And so oftensouvent they told victimsles victimes,
200
679093
2682
Et elles disent souvent aux victimes :
11:33
"Just turntour your computerordinateur off.
IgnoreIgnorer it. It'llÇa va go away."
201
681799
3971
« Éteignez votre ordinateur.
Ignorez ça. Ça va disparaître. »
11:38
And we saw that in RanaRana Ayyub'sAyyub caseCas.
202
686261
2466
C'est qu'on a vu
dans le cas de Rana Ayyub.
11:41
She was told, "Come on,
you're makingfabrication suchtel a biggros dealtraiter about this.
203
689102
3468
On lui a dit : « Allez,
vous faites toute une histoire.
11:44
It's boysgarçons beingétant boysgarçons."
204
692594
1743
C'est juste des garçons qui s'amusent. »
11:47
And so we need to pairpaire newNouveau legislationlégislation
with effortsefforts at trainingentraînement.
205
695268
5252
Il faut donc accompagner
les nouvelles lois avec de la formation.
11:54
And educationéducation has to be aimedvisé
on the mediamédias as well.
206
702053
3429
Cette formation doit aussi être
dispensée aux media.
11:58
JournalistsJournalistes need educatingéduquer
about the phenomenonphénomène of deepfakesdeepfakes deepfakes
207
706180
4260
Les journalistes doivent être formés
au phénomène des deepfakes,
12:02
so they don't amplifyamplifier and spreadpropager them.
208
710464
3039
pour qu'ils ne relaient pas,
ni ne les amplifient.
12:06
And this is the partpartie
where we're all involvedimpliqué.
209
714583
2168
Et c'est là où nous sommes tous concernés.
12:08
EachChaque and everychaque one of us needsBesoins educatingéduquer.
210
716775
3855
Chacun d'entre nous doit être formé.
12:13
We clickCliquez, we sharepartager, we like,
and we don't even think about it.
211
721375
3675
On clique, on partage, on like
sans même y réfléchir.
12:17
We need to do better.
212
725551
1547
Nous devons nous améliorer.
12:19
We need farloin better radarradar for fakeryFakery.
213
727726
2809
Nous avons besoin
de meilleurs radars contre les faux.
12:25
So as we're workingtravail
throughpar these solutionssolutions,
214
733744
3841
Et pendant que nous
essayerons d'y voir clair,
12:29
there's going to be
a lot of sufferingSouffrance to go around.
215
737609
2563
il y aura encore
beaucoup de souffrance générée.
12:33
RanaRana AyyubAyoub is still wrestlinglutte
with the falloutFallout.
216
741093
2746
Rana Ayyub se bat toujours
contre les conséquences du deepfake.
12:36
She still doesn't feel freegratuit
to expressExpress herselfse on-sur- and offlinehors ligne.
217
744669
4189
Elle ne se sent toujours
pas libre de s'exprimer -
en ligne et dans la vraie vie.
12:41
And as she told me,
218
749566
1365
Elle m'a dit
12:42
she still feelsse sent like there are thousandsmilliers
of eyesles yeux on her nakednu bodycorps,
219
750955
5074
qu'elle avait toujours l'impression
que des milliers d'yeux la voyaient nue,
12:48
even thoughbien que, intellectuallyintellectuellement,
she knowssait it wasn'tn'était pas her bodycorps.
220
756053
3661
même si, intellectuellement,
elle sait que ce n'était pas son corps.
12:52
And she has frequentfréquent panicpanique attacksattaques,
221
760371
2349
Elle a souvent des crises de panique,
12:54
especiallynotamment when someoneQuelqu'un she doesn't know
triesessais to take her picturephoto.
222
762744
4100
surtout quand quelqu'un qu'elle ne
connaît pas essaie de la prendre en photo.
12:58
"What if they're going to make
anotherun autre deepfakedeepfake deepfake?" she thinkspense to herselfse.
223
766868
3511
« Est-ce qu'ils vont en faire
un autre deepfake ? » se demande-t-elle.
13:03
And so for the sakeSaké of
individualspersonnes like RanaRana AyyubAyoub
224
771082
3921
Et donc, pour le bien
de personnes comme Rana Ayyub,
13:07
and the sakeSaké of our democracyla démocratie,
225
775027
2306
et pour le bien de nos démocraties,
13:09
we need to do something right now.
226
777357
2182
nous devons agir maintenant.
13:11
Thank you.
227
779563
1151
Merci.
13:12
(ApplauseApplaudissements)
228
780738
2508
(Applaudissements)
Translated by eric vautier
Reviewed by Claire Ghyselen

▲Back to top

ABOUT THE SPEAKER
Danielle Citron - Law professor, deepfake scholar
Danielle Citron writes, speaks and teaches her academic loves: privacy, free speech and civil rights. Through her work with privacy organizations, she also puts these ideas into practice.

Why you should listen

As a law professor, Danielle Citron puts her commitment to civil rights into practice. She is vice president of the Cyber Civil Rights Initiative, a nonprofit combatting privacy-invading online abuse that undermines civil rights and civil liberties.

When Citron began addressing cyber harassment ten years ago, it was commonly believed that it was "no big deal," and that any legal response would "break the internet." Those attitudes -- and the heartbreaking stories of victims who were terrorized, silenced and economically damaged -- drove Citron to write her 2014 book, Hate Crimes in Cyberspace. Ever since, she has been working with lawmakers, law enforcers, and tech companies to make online spaces and tools available to all on equal terms. Her latest book project focuses on the importance of sexual privacy and how we should protect it. 

More profile about the speaker
Danielle Citron | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee