TEDxCERN
Sinan Aral: How we can protect truth in the age of misinformation
Sinan Aral: Comment nous pouvons protéger la vérité à l'ère de la désinformation
Filmed:
Readability: 5.3
1,289,169 views
L'infox peut influencer des élections, faire couler des économies et semer la discorde dans la vie quotidienne. Le scientifique des données Sinan Aral démystifie comment et pourquoi elle se propage si rapidement -- citant l'une des plus grandes études sur la désinformation -- et identifie cinq stratégies pour nous aider à démêler l'enchevêtrement entre la vérité et le mensonge.
Double-click the English transcript below to play the video.
00:13
So, on April 23 of 2013,
0
1468
5222
Le 23 avril 2013,
00:18
the Associated Press
put out the following tweet on Twitter.
put out the following tweet on Twitter.
1
6714
5514
l'Associated Press a publié
le tweet suivant sur Twitter.
le tweet suivant sur Twitter.
00:24
It said, "Breaking news:
2
12252
2397
Il disait : « Flash info :
00:26
Two explosions at the White House
3
14673
2571
deux explosions à la Maison-Blanche
00:29
and Barack Obama has been injured."
4
17268
2333
et Barack Obama a été blessé. »
00:32
This tweet was retweeted 4,000 times
in less than five minutes,
in less than five minutes,
5
20212
5425
Ce tweet a été retweeté 4 000 fois
en moins de cinq minutes
en moins de cinq minutes
00:37
and it went viral thereafter.
6
25661
2217
et est ensuite devenu viral.
00:40
Now, this tweet wasn't real news
put out by the Associated Press.
put out by the Associated Press.
7
28760
4350
Ce tweet n'était pas une vraie info
publiée par l'Associated Press.
publiée par l'Associated Press.
00:45
In fact it was false news, or fake news,
8
33134
3333
C'était une fausse info, ou une infox,
00:48
that was propagated by Syrian hackers
9
36491
2825
qui a été propagée par des pirates syriens
00:51
that had infiltrated
the Associated Press Twitter handle.
the Associated Press Twitter handle.
10
39340
4694
qui avaient piraté le compte
de l'Associated Press sur Twitter.
de l'Associated Press sur Twitter.
00:56
Their purpose was to disrupt society,
but they disrupted much more.
but they disrupted much more.
11
44407
3889
Leur objectif était
de perturber la société,
de perturber la société,
mais ils ont perturbé bien plus que cela.
01:00
Because automated trading algorithms
12
48320
2476
Car les algorithmes automatisés de trading
01:02
immediately seized
on the sentiment on this tweet,
on the sentiment on this tweet,
13
50820
3360
ont immédiatement saisi
le sentiment de ce tweet
le sentiment de ce tweet
01:06
and began trading based on the potential
14
54204
2968
et ont commencé à faire des opérations
basées sur la possibilité
basées sur la possibilité
01:09
that the president of the United States
had been injured or killed
had been injured or killed
15
57196
3381
que le président des États-Unis
ait été blessé ou tué
ait été blessé ou tué
01:12
in this explosion.
16
60601
1200
dans une explosion.
01:14
And as they started tweeting,
17
62188
1992
Alors qu'ils ont commencé à tweeter,
01:16
they immediately sent
the stock market crashing,
the stock market crashing,
18
64204
3349
ils ont immédiatement causé
l’écroulement du cours de la bourse,
l’écroulement du cours de la bourse,
01:19
wiping out 140 billion dollars
in equity value in a single day.
in equity value in a single day.
19
67577
5167
anéantissant 140 milliards de dollars
de valeur de fonds propres en un jour.
de valeur de fonds propres en un jour.
01:25
Robert Mueller, special counsel
prosecutor in the United States,
prosecutor in the United States,
20
73062
4476
Robert Mueller,
procureur spécial aux États-Unis,
procureur spécial aux États-Unis,
01:29
issued indictments
against three Russian companies
against three Russian companies
21
77562
3892
a prononcé des chefs d'accusation
contre trois entreprises russes
contre trois entreprises russes
01:33
and 13 Russian individuals
22
81478
2619
et 13 ressortissants russes
01:36
on a conspiracy to defraud
the United States
the United States
23
84121
3167
au sujet d'un complot
pour escroquer les États-Unis
pour escroquer les États-Unis
01:39
by meddling in the 2016
presidential election.
presidential election.
24
87312
3780
via une ingérence durant les élections
présidentielles de 2016.
présidentielles de 2016.
01:43
And what this indictment tells as a story
25
91855
3564
L'histoire que raconte
ce chef d'accusation
ce chef d'accusation
01:47
is the story of the Internet
Research Agency,
Research Agency,
26
95443
3142
est celle de l'Internet Research Agency,
01:50
the shadowy arm of the Kremlin
on social media.
on social media.
27
98609
3594
le bras armé du Kremlin
sur les réseaux sociaux.
sur les réseaux sociaux.
01:54
During the presidential election alone,
28
102815
2777
Durant les élections
présidentielles uniquement,
présidentielles uniquement,
01:57
the Internet Agency's efforts
29
105616
1889
les efforts de l'Internet Agency
01:59
reached 126 million people
on Facebook in the United States,
on Facebook in the United States,
30
107529
5167
ont touché 126 millions de personnes
sur Facebook aux États-Unis,
sur Facebook aux États-Unis,
02:04
issued three million individual tweets
31
112720
3277
ont publié trois millions de tweets
02:08
and 43 hours' worth of YouTube content.
32
116021
3842
et 43 heures de contenu sur YouTube.
02:11
All of which was fake --
33
119887
1652
Tout cela était faux --
02:13
misinformation designed to sow discord
in the US presidential election.
in the US presidential election.
34
121563
6323
de la désinformation
conçue pour semer la discorde
conçue pour semer la discorde
au sein des élections
présidentielles américaines.
présidentielles américaines.
02:20
A recent study by Oxford University
35
128996
2650
Une étude récente de l'université d'Oxford
02:23
showed that in the recent
Swedish elections,
Swedish elections,
36
131670
3270
a montré que durant
les récentes élections suédoises,
les récentes élections suédoises,
02:26
one third of all of the information
spreading on social media
spreading on social media
37
134964
4375
un tiers de toutes les informations
se propageant sur les réseaux sociaux
se propageant sur les réseaux sociaux
02:31
about the election
38
139363
1198
au sujet des élections
02:32
was fake or misinformation.
39
140585
2087
étaient fausses ou de la désinformation.
02:35
In addition, these types
of social-media misinformation campaigns
of social-media misinformation campaigns
40
143037
5078
De plus, ce genre de campagne
de désinformation sur les réseaux sociaux
de désinformation sur les réseaux sociaux
02:40
can spread what has been called
"genocidal propaganda,"
"genocidal propaganda,"
41
148139
4151
peut propager ce qu’on en est venu à
appeler de la « propagande génocidaire »,
appeler de la « propagande génocidaire »,
02:44
for instance against
the Rohingya in Burma,
the Rohingya in Burma,
42
152314
3111
par exemple contre
les Rohingyas en Birmanie,
les Rohingyas en Birmanie,
02:47
triggering mob killings in India.
43
155449
2303
ou entraînant des massacres
collectifs en Inde.
collectifs en Inde.
02:49
We studied fake news
44
157776
1494
Nous avons étudié l'infox
02:51
and began studying it
before it was a popular term.
before it was a popular term.
45
159294
3219
et avons commencé à l'étudier
avant que ce ne soit un terme populaire.
avant que ce ne soit un terme populaire.
02:55
And we recently published
the largest-ever longitudinal study
the largest-ever longitudinal study
46
163030
5040
Nous avons récemment publié la plus longue
étude longitudinale qui soit
étude longitudinale qui soit
03:00
of the spread of fake news online
47
168094
2286
sur la propagation de l'infox en ligne
03:02
on the cover of "Science"
in March of this year.
in March of this year.
48
170404
3204
en couverture de « Science »
en mars cette année.
en mars cette année.
03:06
We studied all of the verified
true and false news stories
true and false news stories
49
174523
4161
Nous avons étudié toutes les infos
confirmées comme étant vraies ou fausses
confirmées comme étant vraies ou fausses
03:10
that ever spread on Twitter,
50
178708
1753
qui se sont propagées sur Twitter,
03:12
from its inception in 2006 to 2017.
51
180485
3818
depuis son lancement en 2006 jusqu'à 2017.
03:16
And when we studied this information,
52
184612
2314
Quand nous avons étudié ces informations,
03:18
we studied verified news stories
53
186950
2876
nous avons étudié des informations
03:21
that were verified by six
independent fact-checking organizations.
independent fact-checking organizations.
54
189850
3918
qui avaient été vérifiées
par six organisations
de vérification indépendantes.
de vérification indépendantes.
03:25
So we knew which stories were true
55
193792
2762
Nous savions donc
quelles informations étaient vraies
quelles informations étaient vraies
03:28
and which stories were false.
56
196578
2126
et quelles informations étaient fausses.
03:30
We can measure their diffusion,
57
198728
1873
Nous pouvons mesurer leur diffusion,
03:32
the speed of their diffusion,
58
200625
1651
la vitesse de leur diffusion,
03:34
the depth and breadth of their diffusion,
59
202300
2095
la portée et l'ampleur de leur diffusion,
03:36
how many people become entangled
in this information cascade and so on.
in this information cascade and so on.
60
204419
4142
combien de gens se sont empêtrés
dans cette cascade d'informations, etc.
dans cette cascade d'informations, etc.
03:40
And what we did in this paper
61
208942
1484
Dans cette publication,
03:42
was we compared the spread of true news
to the spread of false news.
to the spread of false news.
62
210450
3865
nous avons comparé la propagation
d'informations vraies et d'infox.
d'informations vraies et d'infox.
03:46
And here's what we found.
63
214339
1683
Voici ce que nous avons découvert.
03:48
We found that false news
diffused further, faster, deeper
diffused further, faster, deeper
64
216046
3979
Nous avons découvert
que l'infox se diffusait plus loin,
plus vite, plus profondément
plus vite, plus profondément
03:52
and more broadly than the truth
65
220049
1806
et plus largement que la vérité
03:53
in every category of information
that we studied,
that we studied,
66
221879
3003
dans chacune des catégories d'informations
que nous avons étudiées,
que nous avons étudiées,
03:56
sometimes by an order of magnitude.
67
224906
2499
la différence étant parfois
d'un ordre de grandeur.
d'un ordre de grandeur.
03:59
And in fact, false political news
was the most viral.
was the most viral.
68
227842
3524
Les infox politiques
étaient les plus virales.
étaient les plus virales.
04:03
It diffused further, faster,
deeper and more broadly
deeper and more broadly
69
231390
3147
Elles se diffusaient plus loin, vite,
profondément et largement
profondément et largement
04:06
than any other type of false news.
70
234561
2802
que n'importe quel autre type d'infox.
04:09
When we saw this,
71
237387
1293
Quand nous avons vu cela,
04:10
we were at once worried but also curious.
72
238704
2841
nous étions à la fois inquiets
mais aussi curieux.
mais aussi curieux.
04:13
Why?
73
241569
1151
Pourquoi ?
04:14
Why does false news travel
so much further, faster, deeper
so much further, faster, deeper
74
242744
3373
Pourquoi est-ce que l'infox circule
tellement plus loin, vite, profondément
tellement plus loin, vite, profondément
04:18
and more broadly than the truth?
75
246141
1864
et largement que la vérité ?
04:20
The first hypothesis
that we came up with was,
that we came up with was,
76
248339
2961
Notre première hypothèse était :
04:23
"Well, maybe people who spread false news
have more followers or follow more people,
have more followers or follow more people,
77
251324
4792
« Peut-être que les gens
diffusant de l'infox
diffusant de l'infox
ont plus de suiveurs
ou suivent plus de monde,
ou suivent plus de monde,
04:28
or tweet more often,
78
256140
1557
tweetent plus souvent,
peut-être sont-ils plus souvent
des utilisateurs « vérifiés » de Twitter,
des utilisateurs « vérifiés » de Twitter,
04:29
or maybe they're more often 'verified'
users of Twitter, with more credibility,
users of Twitter, with more credibility,
79
257721
4126
avec plus de crédibilité,
04:33
or maybe they've been on Twitter longer."
80
261871
2182
ou sont-ils là depuis plus longtemps. »
04:36
So we checked each one of these in turn.
81
264077
2298
Nous avons vérifié
chacune de ces hypothèses.
chacune de ces hypothèses.
04:38
And what we found
was exactly the opposite.
was exactly the opposite.
82
266691
2920
Nous avons découvert
exactement le contraire.
exactement le contraire.
04:41
False-news spreaders had fewer followers,
83
269635
2436
Les diffuseurs d'infox
avaient moins de suiveurs,
avaient moins de suiveurs,
04:44
followed fewer people, were less active,
84
272095
2254
suivaient moins de gens,
étaient moins actifs,
étaient moins actifs,
04:46
less often "verified"
85
274373
1460
moins souvent « vérifiés »
04:47
and had been on Twitter
for a shorter period of time.
for a shorter period of time.
86
275857
2960
et étaient sur Twitter
depuis moins longtemps.
depuis moins longtemps.
04:50
And yet,
87
278841
1189
Et pourtant,
04:52
false news was 70 percent more likely
to be retweeted than the truth,
to be retweeted than the truth,
88
280054
5033
les infox avaient
70% de probabilités de plus
70% de probabilités de plus
d'être retweetées par rapport à la vérité,
04:57
controlling for all of these
and many other factors.
and many other factors.
89
285111
3363
en contrôlant ces facteurs
et de nombreux autres.
et de nombreux autres.
05:00
So we had to come up
with other explanations.
with other explanations.
90
288498
2690
Nous devions trouver
d'autres explications.
d'autres explications.
05:03
And we devised what we called
a "novelty hypothesis."
a "novelty hypothesis."
91
291212
3467
Nous avons formulé
ce que nous avons appelé
« l'hypothèse de la nouveauté ».
« l'hypothèse de la nouveauté ».
05:07
So if you read the literature,
92
295038
1960
Si vous lisez la littérature,
05:09
it is well known that human attention
is drawn to novelty,
is drawn to novelty,
93
297022
3754
il est bien connu que l'attention humaine
est attirée par la nouveauté,
est attirée par la nouveauté,
05:12
things that are new in the environment.
94
300800
2519
les choses nouvelles dans l'environnement.
05:15
And if you read the sociology literature,
95
303343
1985
Si vous lisez la littérature sociologique,
05:17
you know that we like to share
novel information.
novel information.
96
305352
4300
vous savez que nous aimons partager
des informations nouvelles.
des informations nouvelles.
05:21
It makes us seem like we have access
to inside information,
to inside information,
97
309676
3838
Cela nous donne l'impression d'avoir
un accès privilégié à des informations
un accès privilégié à des informations
05:25
and we gain in status
by spreading this kind of information.
by spreading this kind of information.
98
313538
3785
et nous gagnons en statut
en diffusant ce genre d'informations.
en diffusant ce genre d'informations.
05:29
So what we did was we measured the novelty
of an incoming true or false tweet,
of an incoming true or false tweet,
99
317792
6452
Nous avons alors mesuré la nouveauté
d'un tweet, qu'il soit vrai ou faux,
d'un tweet, qu'il soit vrai ou faux,
05:36
compared to the corpus
of what that individual had seen
of what that individual had seen
100
324268
4055
l'avons comparé au corpus
de ce que l'individu avait vu
de ce que l'individu avait vu
05:40
in the 60 days prior on Twitter.
101
328347
2952
sur Twitter les 60 derniers jours.
05:43
But that wasn't enough,
because we thought to ourselves,
because we thought to ourselves,
102
331323
2659
Mais cela ne suffisait pas
car nous avons pensé :
car nous avons pensé :
05:46
"Well, maybe false news is more novel
in an information-theoretic sense,
in an information-theoretic sense,
103
334006
4208
« Peut-être que l'infox
représente plus de nouveauté
représente plus de nouveauté
dans un sens théorique,
05:50
but maybe people
don't perceive it as more novel."
don't perceive it as more novel."
104
338238
3258
mais peut-être que les gens
n'y perçoivent pas plus de nouveauté. »
n'y perçoivent pas plus de nouveauté. »
05:53
So to understand people's
perceptions of false news,
perceptions of false news,
105
341849
3927
Pour comprendre la perception
que les gens avaient des infox,
que les gens avaient des infox,
05:57
we looked at the information
and the sentiment
and the sentiment
106
345800
3690
nous avons considéré
l'information et le sentiment
l'information et le sentiment
06:01
contained in the replies
to true and false tweets.
to true and false tweets.
107
349514
4206
que les réponses des tweets
vrais et faux incluaient.
vrais et faux incluaient.
06:06
And what we found
108
354022
1206
Nous avons découvert
06:07
was that across a bunch
of different measures of sentiment --
of different measures of sentiment --
109
355252
4214
que parmi tout un tas
de mesures différentes des sentiments --
de mesures différentes des sentiments --
06:11
surprise, disgust, fear, sadness,
110
359490
3301
la surprise, le dégoût,
la peur, la tristesse,
la peur, la tristesse,
06:14
anticipation, joy and trust --
111
362815
2484
l'anticipation, la joie et la confiance --
06:17
false news exhibited significantly more
surprise and disgust
surprise and disgust
112
365323
5857
les infox présentaient notablement
plus de surprise et de dégoût
plus de surprise et de dégoût
06:23
in the replies to false tweets.
113
371204
2806
dans les réponses aux tweets.
06:26
And true news exhibited
significantly more anticipation,
significantly more anticipation,
114
374392
3789
Les informations avérées présentaient
notablement plus d'anticipation,
notablement plus d'anticipation,
06:30
joy and trust
115
378205
1547
de joie et de confiance
06:31
in reply to true tweets.
116
379776
2547
dans les réponses aux tweets.
06:34
The surprise corroborates
our novelty hypothesis.
our novelty hypothesis.
117
382347
3786
La surprise corrobore
notre hypothèse de la nouveauté.
notre hypothèse de la nouveauté.
06:38
This is new and surprising,
and so we're more likely to share it.
and so we're more likely to share it.
118
386157
4609
C'est nouveau et surprenant,
nous allons donc
plus probablement le partager.
plus probablement le partager.
06:43
At the same time,
there was congressional testimony
there was congressional testimony
119
391092
2925
En même temps, il y avait
un témoignage au Congrès,
un témoignage au Congrès,
06:46
in front of both houses of Congress
in the United States,
in the United States,
120
394041
3036
devant les deux chambres
du Congrès des États-Unis,
du Congrès des États-Unis,
06:49
looking at the role of bots
in the spread of misinformation.
in the spread of misinformation.
121
397101
3738
considérant le rôle des robots
dans la diffusion de la désinformation.
dans la diffusion de la désinformation.
06:52
So we looked at this too --
122
400863
1354
Nous l'avons envisagé --
06:54
we used multiple sophisticated
bot-detection algorithms
bot-detection algorithms
123
402241
3598
nous avons utilisé
de multiples algorithmes sophistiqués
de détection de robots
de détection de robots
06:57
to find the bots in our data
and to pull them out.
and to pull them out.
124
405863
3074
pour trouver les robots
dans nos données et les en extraire.
dans nos données et les en extraire.
07:01
So we pulled them out,
we put them back in
we put them back in
125
409347
2659
Nous les en avons extraits,
les avons inclus à nouveau
les avons inclus à nouveau
07:04
and we compared what happens
to our measurement.
to our measurement.
126
412030
3119
et avons comparé
ce qu'il arrivait à nos mesures.
ce qu'il arrivait à nos mesures.
07:07
And what we found was that, yes indeed,
127
415173
2293
Nous avons découvert que oui, en effet,
07:09
bots were accelerating
the spread of false news online,
the spread of false news online,
128
417490
3682
les robots accéléraient
la diffusion d'infox en ligne,
la diffusion d'infox en ligne,
07:13
but they were accelerating
the spread of true news
the spread of true news
129
421196
2651
mais ils accéléraient
la diffusion d'informations avérées
la diffusion d'informations avérées
07:15
at approximately the same rate.
130
423871
2405
approximativement au même rythme.
07:18
Which means bots are not responsible
131
426300
2858
Ce que signifie que les robots
ne sont pas responsables
ne sont pas responsables
07:21
for the differential diffusion
of truth and falsity online.
of truth and falsity online.
132
429182
4713
pour l'écart dans la diffusion
de la vérité et de la fausseté en ligne.
de la vérité et de la fausseté en ligne.
07:25
We can't abdicate that responsibility,
133
433919
2849
Nous ne pouvons pas
refuser cette responsabilité
refuser cette responsabilité
07:28
because we, humans,
are responsible for that spread.
are responsible for that spread.
134
436792
4259
car nous, êtres humains,
sommes responsables de cette diffusion.
sommes responsables de cette diffusion.
07:34
Now, everything
that I have told you so far,
that I have told you so far,
135
442472
3334
Tout ce que je vous ai dit jusqu'ici,
07:37
unfortunately for all of us,
136
445830
1754
malheureusement pour nous tous,
07:39
is the good news.
137
447608
1261
ce sont les bonnes nouvelles.
07:42
The reason is because
it's about to get a whole lot worse.
it's about to get a whole lot worse.
138
450670
4450
La raison en est que cela
va bientôt devenir bien pire.
va bientôt devenir bien pire.
07:47
And two specific technologies
are going to make it worse.
are going to make it worse.
139
455850
3682
Deux technologies en particulier
vont rendre cela bien pire.
vont rendre cela bien pire.
07:52
We are going to see the rise
of a tremendous wave of synthetic media.
of a tremendous wave of synthetic media.
140
460207
5172
Nous allons voir la montée
d'une énorme vague de média synthétiques :
d'une énorme vague de média synthétiques :
07:57
Fake video, fake audio
that is very convincing to the human eye.
that is very convincing to the human eye.
141
465403
6031
de fausses vidéos, de faux enregistrements
très convaincants pour l’œil humain.
très convaincants pour l’œil humain.
08:03
And this will powered by two technologies.
142
471458
2754
Cela sera propulsé par deux technologies.
08:06
The first of these is known
as "generative adversarial networks."
as "generative adversarial networks."
143
474236
3833
La première est connue sous le nom
de « réseaux adverses génératifs ».
de « réseaux adverses génératifs ».
08:10
This is a machine-learning model
with two networks:
with two networks:
144
478093
2563
C'est un modèle d'apprentissage
automatique avec deux réseaux :
automatique avec deux réseaux :
08:12
a discriminator,
145
480680
1547
un discriminateur,
08:14
whose job it is to determine
whether something is true or false,
whether something is true or false,
146
482251
4200
dont le rôle est de déterminer
si quelque chose est vrai ou faux,
si quelque chose est vrai ou faux,
08:18
and a generator,
147
486475
1167
et un générateur,
08:19
whose job it is to generate
synthetic media.
synthetic media.
148
487666
3150
dont le rôle est de générer
des médias synthétiques.
des médias synthétiques.
08:22
So the synthetic generator
generates synthetic video or audio,
generates synthetic video or audio,
149
490840
5102
Le générateur synthétique génère une vidéo
ou un enregistrement audio synthétique
ou un enregistrement audio synthétique
08:27
and the discriminator tries to tell,
"Is this real or is this fake?"
"Is this real or is this fake?"
150
495966
4675
et le discriminateur essaye de dire
s'il est réel ou falsifié.
s'il est réel ou falsifié.
08:32
And in fact, it is the job
of the generator
of the generator
151
500665
2874
La tâche du générateur
08:35
to maximize the likelihood
that it will fool the discriminator
that it will fool the discriminator
152
503563
4435
consiste à maximiser la probabilité
de faire croire au discriminateur
de faire croire au discriminateur
08:40
into thinking the synthetic
video and audio that it is creating
video and audio that it is creating
153
508022
3587
que la vidéo et l'enregistrement audio
qu'il crée sont réels.
qu'il crée sont réels.
08:43
is actually true.
154
511633
1730
08:45
Imagine a machine in a hyperloop,
155
513387
2373
Imaginez une machine
dans une boucle infinie
dans une boucle infinie
08:47
trying to get better
and better at fooling us.
and better at fooling us.
156
515784
2803
et essayant d'améliorer
sa capacité à nous tromper.
sa capacité à nous tromper.
08:51
This, combined with the second technology,
157
519114
2500
Cela, en combinaison
avec la deuxième technologie,
avec la deuxième technologie,
08:53
which is essentially the democratization
of artificial intelligence to the people,
of artificial intelligence to the people,
158
521638
5722
qui est essentiellement la démocratisation
de l'intelligence artificielle,
de l'intelligence artificielle,
08:59
the ability for anyone,
159
527384
2189
la capacité offerte à tous,
09:01
without any background
in artificial intelligence
in artificial intelligence
160
529597
2830
sans aucune formation
en intelligence artificielle
en intelligence artificielle
ou en apprentissage automatique,
09:04
or machine learning,
161
532451
1182
09:05
to deploy these kinds of algorithms
to generate synthetic media
to generate synthetic media
162
533657
4103
de déployer ce genre d'algorithmes
pour générer des médias synthétiques
pour générer des médias synthétiques
09:09
makes it ultimately so much easier
to create videos.
to create videos.
163
537784
4547
rendant cela tellement plus simple
de créer des vidéos.
de créer des vidéos.
09:14
The White House issued
a false, doctored video
a false, doctored video
164
542355
4421
La Maison-Blanche a publié
une vidéo falsifiée, truquée
une vidéo falsifiée, truquée
09:18
of a journalist interacting with an intern
who was trying to take his microphone.
who was trying to take his microphone.
165
546800
4288
d'un journaliste interagissant
avec une stagiaire
avec une stagiaire
et essayant de prendre son micro.
09:23
They removed frames from this video
166
551427
1999
Ils ont enlevé des images de cette vidéo
09:25
in order to make his actions
seem more punchy.
seem more punchy.
167
553450
3287
afin que ces actes
paraissent plus percutants.
paraissent plus percutants.
09:29
And when videographers
and stuntmen and women
and stuntmen and women
168
557157
3385
Quand des vidéastes,
des cascadeurs et des cascadeuses
des cascadeurs et des cascadeuses
09:32
were interviewed
about this type of technique,
about this type of technique,
169
560566
2427
ont été interrogés
sur ce genre de technique,
sur ce genre de technique,
09:35
they said, "Yes, we use this
in the movies all the time
in the movies all the time
170
563017
3828
ils ont dit : « Oui, nous utilisons
constamment cela dans les films
constamment cela dans les films
09:38
to make our punches and kicks
look more choppy and more aggressive."
look more choppy and more aggressive."
171
566869
4763
pour que nos coups de poing et de pied
paraissent plus musclés et agressifs. »
paraissent plus musclés et agressifs. »
09:44
They then put out this video
172
572268
1867
Ils ont ensuite publié cette vidéo
09:46
and partly used it as justification
173
574159
2500
l'ont utilisée
comme justification partielle
comme justification partielle
09:48
to revoke Jim Acosta,
the reporter's, press pass
the reporter's, press pass
174
576683
3999
pour révoquer la carte de presse
de Jim Acosta, le journaliste,
de Jim Acosta, le journaliste,
09:52
from the White House.
175
580706
1339
pour la Maison-Blanche.
09:54
And CNN had to sue
to have that press pass reinstated.
to have that press pass reinstated.
176
582069
4809
CNN a dû aller en justice pour faire
rétablir cette carte de presse.
rétablir cette carte de presse.
10:00
There are about five different paths
that I can think of that we can follow
that I can think of that we can follow
177
588538
5603
Il y a environ cinq chemins différents
que je peux imaginer
et que nous pourrions suivre
et que nous pourrions suivre
10:06
to try and address some
of these very difficult problems today.
of these very difficult problems today.
178
594165
3739
pour essayer de remédier
à ces problèmes très difficiles.
à ces problèmes très difficiles.
10:10
Each one of them has promise,
179
598379
1810
Chacun est prometteur
10:12
but each one of them
has its own challenges.
has its own challenges.
180
600213
2999
mais chacun a des défis
qui lui sont propres.
qui lui sont propres.
10:15
The first one is labeling.
181
603236
2008
Le premier est l'étiquetage.
10:17
Think about it this way:
182
605268
1357
Réfléchissez-y :
10:18
when you go to the grocery store
to buy food to consume,
to buy food to consume,
183
606649
3611
quand vous allez au supermarché
pour acheter de la nourriture,
pour acheter de la nourriture,
10:22
it's extensively labeled.
184
610284
1904
elle est amplement étiquetée.
10:24
You know how many calories it has,
185
612212
1992
Vous savez combien
de calories elle contient,
de calories elle contient,
10:26
how much fat it contains --
186
614228
1801
combien de graisses --
10:28
and yet when we consume information,
we have no labels whatsoever.
we have no labels whatsoever.
187
616053
4278
et pourtant, quand
nous consommons des informations,
nous consommons des informations,
nous n'avons pas d'étiquettes.
10:32
What is contained in this information?
188
620355
1928
Que contient cette information ?
10:34
Is the source credible?
189
622307
1453
La source est-elle crédible ?
10:35
Where is this information gathered from?
190
623784
2317
Où cette information
a-t-elle été recueillie ?
a-t-elle été recueillie ?
10:38
We have none of that information
191
626125
1825
Nous n'avons aucune de ces informations
10:39
when we are consuming information.
192
627974
2103
quand nous consommons des informations.
10:42
That is a potential avenue,
but it comes with its challenges.
but it comes with its challenges.
193
630101
3238
C'est une solution potentielle,
mais elle a ses défis.
mais elle a ses défis.
10:45
For instance, who gets to decide,
in society, what's true and what's false?
in society, what's true and what's false?
194
633363
6451
Par exemple, qui décide, dans la société,
ce qui est vrai et ce qui est faux ?
ce qui est vrai et ce qui est faux ?
10:52
Is it the governments?
195
640387
1642
Est-ce que ce sont les gouvernements ?
10:54
Is it Facebook?
196
642053
1150
Est-ce Facebook ?
10:55
Is it an independent
consortium of fact-checkers?
consortium of fact-checkers?
197
643601
3762
Est-ce un consortium indépendant
de vérificateurs d'informations ?
de vérificateurs d'informations ?
10:59
And who's checking the fact-checkers?
198
647387
2466
Et qui contrôle ceux
qui vérifient les informations ?
qui vérifient les informations ?
11:02
Another potential avenue is incentives.
199
650427
3084
Une autre option possible,
ce sont les incitations.
ce sont les incitations.
11:05
We know that during
the US presidential election
the US presidential election
200
653535
2634
Nous savons que durant les élections
présidentielles américaines,
présidentielles américaines,
11:08
there was a wave of misinformation
that came from Macedonia
that came from Macedonia
201
656193
3690
il y a eu une vague de désinformation
venue de Macédoine du Nord
venue de Macédoine du Nord
11:11
that didn't have any political motive
202
659907
2337
qui n'avait aucun mobile politique
11:14
but instead had an economic motive.
203
662268
2460
mais avait un mobile économique.
11:16
And this economic motive existed,
204
664752
2148
Ce mobile économique existait
11:18
because false news travels
so much farther, faster
so much farther, faster
205
666924
3524
car l'infox circule
tellement plus loin, plus vite
tellement plus loin, plus vite
11:22
and more deeply than the truth,
206
670472
2010
et plus profondément que la vérité
11:24
and you can earn advertising dollars
as you garner eyeballs and attention
as you garner eyeballs and attention
207
672506
4960
et vous pouvez gagner de l'argent
dans la publicité
dans la publicité
alors que vous recueillez
les regards et l'attention
les regards et l'attention
11:29
with this type of information.
208
677490
1960
avec ce genre d'informations.
11:31
But if we can depress the spread
of this information,
of this information,
209
679474
3833
Mais si nous pouvons réduire
la diffusion de ces informations,
la diffusion de ces informations,
11:35
perhaps it would reduce
the economic incentive
the economic incentive
210
683331
2897
peut-être cela réduirait-il
l'incitation économique à les produire.
l'incitation économique à les produire.
11:38
to produce it at all in the first place.
211
686252
2690
11:40
Third, we can think about regulation,
212
688966
2500
Troisièmement, nous pouvons
réfléchir à une réglementation
réfléchir à une réglementation
11:43
and certainly, we should think
about this option.
about this option.
213
691490
2325
et nous devrions réfléchir à cette option.
11:45
In the United States, currently,
214
693839
1611
Actuellement aux États-Unis,
11:47
we are exploring what might happen
if Facebook and others are regulated.
if Facebook and others are regulated.
215
695474
4848
nous explorons ce qu'il pourrait se passer
si Facebook et les autres
étaient réglementés.
étaient réglementés.
11:52
While we should consider things
like regulating political speech,
like regulating political speech,
216
700346
3801
Si nous devrions considérer des choses
comme réglementer le discours politique,
comme réglementer le discours politique,
11:56
labeling the fact
that it's political speech,
that it's political speech,
217
704171
2508
l'étiqueter comme étant
du discours politique,
du discours politique,
11:58
making sure foreign actors
can't fund political speech,
can't fund political speech,
218
706703
3819
nous assurer que les acteurs étrangers
ne puissent pas financer
un discours politique,
un discours politique,
12:02
it also has its own dangers.
219
710546
2547
cela a aussi ses dangers.
12:05
For instance, Malaysia just instituted
a six-year prison sentence
a six-year prison sentence
220
713522
4878
Par exemple, la Malaisie vient d'instituer
une peine de prison de six ans
une peine de prison de six ans
12:10
for anyone found spreading misinformation.
221
718424
2734
pour quiconque diffusant
de la désinformation.
de la désinformation.
12:13
And in authoritarian regimes,
222
721696
2079
Dans les régimes autoritaires,
12:15
these kinds of policies can be used
to suppress minority opinions
to suppress minority opinions
223
723799
4666
ce genre de politiques
peuvent être utilisées
peuvent être utilisées
pour étouffer les opinions minoritaires
12:20
and to continue to extend repression.
224
728489
3508
et continuer à accroître la répression.
12:24
The fourth possible option
is transparency.
is transparency.
225
732680
3543
La quatrième option possible
est la transparence.
est la transparence.
12:28
We want to know
how do Facebook's algorithms work.
how do Facebook's algorithms work.
226
736843
3714
Nous voulons savoir comment fonctionnent
les algorithmes de Facebook.
les algorithmes de Facebook.
12:32
How does the data
combine with the algorithms
combine with the algorithms
227
740581
2880
Comment les données
se combinent-elles aux algorithmes
se combinent-elles aux algorithmes
12:35
to produce the outcomes that we see?
228
743485
2838
pour générer les résultats
que nous observons ?
que nous observons ?
12:38
We want them to open the kimono
229
746347
2349
Nous voulons qu'ils ouvrent le kimono
12:40
and show us exactly the inner workings
of how Facebook is working.
of how Facebook is working.
230
748720
4214
et nous montrent les rouages internes
du fonctionnement de Facebook.
du fonctionnement de Facebook.
Pour connaître les effets
des réseaux sociaux sur la société,
des réseaux sociaux sur la société,
12:44
And if we want to know
social media's effect on society,
social media's effect on society,
231
752958
2779
12:47
we need scientists, researchers
232
755761
2086
il faut que les scientifiques,
les chercheurs
les chercheurs
12:49
and others to have access
to this kind of information.
to this kind of information.
233
757871
3143
et les autres aient accès
à ce genre d'informations.
à ce genre d'informations.
12:53
But at the same time,
234
761038
1547
Mais en même temps,
12:54
we are asking Facebook
to lock everything down,
to lock everything down,
235
762609
3801
nous demandons à Facebook
de tout verrouiller
de tout verrouiller
12:58
to keep all of the data secure.
236
766434
2173
pour assurer la sécurité des données.
13:00
So, Facebook and the other
social media platforms
social media platforms
237
768631
3159
Facebook et les autres plateformes
de réseaux sociaux
de réseaux sociaux
13:03
are facing what I call
a transparency paradox.
a transparency paradox.
238
771814
3134
font face à ce que j'appelle
un paradoxe de la transparence.
un paradoxe de la transparence.
13:07
We are asking them, at the same time,
239
775266
2674
Nous leur demandons à la fois
13:09
to be open and transparent
and, simultaneously secure.
and, simultaneously secure.
240
777964
4809
d'être ouverts et transparents
et, simultanément, d'être sécurisés.
et, simultanément, d'être sécurisés.
13:14
This is a very difficult needle to thread,
241
782797
2691
Cela est difficile à accomplir,
13:17
but they will need to thread this needle
242
785512
1913
mais ils devront le faire
13:19
if we are to achieve the promise
of social technologies
of social technologies
243
787449
3787
si nous voulons
que les technologies sociales
tiennent leurs promesses
tiennent leurs promesses
13:23
while avoiding their peril.
244
791260
1642
tout en évitant les risques.
13:24
The final thing that we could think about
is algorithms and machine learning.
is algorithms and machine learning.
245
792926
4691
Pour finir, nous pourrions réfléchir
aux algorithmes
et à l'apprentissage automatique.
et à l'apprentissage automatique.
13:29
Technology devised to root out
and understand fake news, how it spreads,
and understand fake news, how it spreads,
246
797641
5277
Une technologie conçue pour éradiquer
et comprendre l'infox, sa diffusion,
et comprendre l'infox, sa diffusion,
13:34
and to try and dampen its flow.
247
802942
2331
et essayer d'atténuer sa circulation.
13:37
Humans have to be in the loop
of this technology,
of this technology,
248
805824
2897
Les êtres humains doivent
jouer un rôle dans cette technologie
jouer un rôle dans cette technologie
13:40
because we can never escape
249
808745
2278
car nous ne pourrons jamais
échapper au fait
échapper au fait
13:43
that underlying any technological
solution or approach
solution or approach
250
811047
4038
que pour toute solution
ou approche technologie,
ou approche technologie,
13:47
is a fundamental ethical
and philosophical question
and philosophical question
251
815109
4047
il y a une question éthique
et philosophique fondamentale
et philosophique fondamentale
13:51
about how do we define truth and falsity,
252
819180
3270
quant à notre définition
du vrai et du faux,
du vrai et du faux,
13:54
to whom do we give the power
to define truth and falsity
to define truth and falsity
253
822474
3180
à qui nous donnons le pouvoir
de définir le vrai et le faux
de définir le vrai et le faux
13:57
and which opinions are legitimate,
254
825678
2460
et quelles opinions sont légitimes,
14:00
which type of speech
should be allowed and so on.
should be allowed and so on.
255
828162
3706
une rapidité de quel ordre de grandeur
devrait être autorisée et ainsi de suite.
devrait être autorisée et ainsi de suite.
14:03
Technology is not a solution for that.
256
831892
2328
La technologie n'est pas la solution.
14:06
Ethics and philosophy
is a solution for that.
is a solution for that.
257
834244
3698
L'éthique et la philosophie le sont.
14:10
Nearly every theory
of human decision making,
of human decision making,
258
838950
3318
Presque toutes les théories
sur la prise de décision humaine,
sur la prise de décision humaine,
14:14
human cooperation and human coordination
259
842292
2761
la coopération humaine
et la coordination humaine
et la coordination humaine
14:17
has some sense of the truth at its core.
260
845077
3674
ont une part de vérité en elles.
14:21
But with the rise of fake news,
261
849347
2056
Mais avec l'essor des infox,
14:23
the rise of fake video,
262
851427
1443
l'essor des vidéos truquées,
14:24
the rise of fake audio,
263
852894
1882
l'essor des enregistrements
audios truqués,
audios truqués,
14:26
we are teetering on the brink
of the end of reality,
of the end of reality,
264
854800
3924
nous vacillons au bord
de la fin de la réalité,
de la fin de la réalité,
14:30
where we cannot tell
what is real from what is fake.
what is real from what is fake.
265
858748
3889
où nous ne pouvons pas discerner
ce qui est réel et ce qui est faux.
ce qui est réel et ce qui est faux.
14:34
And that's potentially
incredibly dangerous.
incredibly dangerous.
266
862661
3039
Cela est potentiellement
incroyablement dangereux.
incroyablement dangereux.
14:38
We have to be vigilant
in defending the truth
in defending the truth
267
866931
3948
Nous devons être vigilants
dans la défense de la vérité
dans la défense de la vérité
14:42
against misinformation.
268
870903
1534
face à la désinformation.
14:44
With our technologies, with our policies
269
872919
3436
Avec nos technologies, avec nos politiques
14:48
and, perhaps most importantly,
270
876379
1920
et, peut-être surtout, individuellement,
14:50
with our own individual responsibilities,
271
878323
3214
avec nos responsabilités, nos décisions,
14:53
decisions, behaviors and actions.
272
881561
3555
nos comportements
et nos actions.
et nos actions.
14:57
Thank you very much.
273
885553
1437
Merci beaucoup.
14:59
(Applause)
274
887014
3517
(Applaudissements)