TEDxCERN

Sinan Aral: How we can protect truth in the age of misinformation

Sinan Aral: Comment nous pouvons protéger la vérité à l'ère de la désinformation

Filmed:
1,289,169 views

L'infox peut influencer des élections, faire couler des économies et semer la discorde dans la vie quotidienne. Le scientifique des données Sinan Aral démystifie comment et pourquoi elle se propage si rapidement -- citant l'une des plus grandes études sur la désinformation -- et identifie cinq stratégies pour nous aider à démêler l'enchevêtrement entre la vérité et le mensonge.

Double-click the English transcript below to play the video.

00:13
So, on AprilAvril 23 of 2013,
0
1468
5222
Le 23 avril 2013,
00:18
the AssociatedAssociés PressPresse
put out the followingSuivant tweetTweet on TwitterTwitter.
1
6714
5514
l'Associated Press a publié
le tweet suivant sur Twitter.
00:24
It said, "BreakingRupture newsnouvelles:
2
12252
2397
Il disait : « Flash info :
00:26
Two explosionsexplosions at the WhiteBlanc HouseMaison
3
14673
2571
deux explosions à la Maison-Blanche
00:29
and BarackBarack ObamaObama has been injuredblessé."
4
17268
2333
et Barack Obama a été blessé. »
00:32
This tweetTweet was retweetedretweeted 4,000 timesfois
in lessMoins than fivecinq minutesminutes,
5
20212
5425
Ce tweet a été retweeté 4 000 fois
en moins de cinq minutes
00:37
and it wentest allé viralvirale thereafterpar la suite.
6
25661
2217
et est ensuite devenu viral.
00:40
Now, this tweetTweet wasn'tn'était pas realréal newsnouvelles
put out by the AssociatedAssociés PressPresse.
7
28760
4350
Ce tweet n'était pas une vraie info
publiée par l'Associated Press.
00:45
In factfait it was falsefaux newsnouvelles, or fakefaux newsnouvelles,
8
33134
3333
C'était une fausse info, ou une infox,
00:48
that was propagatedpropagé by SyrianSyrien hackerspirates
9
36491
2825
qui a été propagée par des pirates syriens
00:51
that had infiltratedinfiltré
the AssociatedAssociés PressPresse TwitterTwitter handlemanipuler.
10
39340
4694
qui avaient piraté le compte
de l'Associated Press sur Twitter.
00:56
TheirLeur purposeobjectif was to disruptperturber societysociété,
but they disruptedperturbée much more.
11
44407
3889
Leur objectif était
de perturber la société,
mais ils ont perturbé bien plus que cela.
01:00
Because automatedautomatique tradingcommerce algorithmsalgorithmes
12
48320
2476
Car les algorithmes automatisés de trading
01:02
immediatelyimmédiatement seizedsaisis
on the sentimentsentiment on this tweetTweet,
13
50820
3360
ont immédiatement saisi
le sentiment de ce tweet
01:06
and begana commencé tradingcommerce basedbasé on the potentialpotentiel
14
54204
2968
et ont commencé à faire des opérations
basées sur la possibilité
01:09
that the presidentPrésident of the UnitedUnie StatesÉtats
had been injuredblessé or killedtué
15
57196
3381
que le président des États-Unis
ait été blessé ou tué
01:12
in this explosionexplosion.
16
60601
1200
dans une explosion.
01:14
And as they startedcommencé tweetinggazouille,
17
62188
1992
Alors qu'ils ont commencé à tweeter,
01:16
they immediatelyimmédiatement sentenvoyé
the stockStock marketmarché crashings’écraser,
18
64204
3349
ils ont immédiatement causé
l’écroulement du cours de la bourse,
01:19
wipingessuyage out 140 billionmilliard dollarsdollars
in equitycapitaux propres valuevaleur in a singleunique day.
19
67577
5167
anéantissant 140 milliards de dollars
de valeur de fonds propres en un jour.
01:25
RobertRobert MuellerMueller, specialspécial counselConseil
prosecutorProcureur in the UnitedUnie StatesÉtats,
20
73062
4476
Robert Mueller,
procureur spécial aux États-Unis,
01:29
issuedPublié indictmentsAccusation
againstcontre threeTrois RussianRusse companiesentreprises
21
77562
3892
a prononcé des chefs d'accusation
contre trois entreprises russes
01:33
and 13 RussianRusse individualspersonnes
22
81478
2619
et 13 ressortissants russes
01:36
on a conspiracyconspiration to defraudfrauder
the UnitedUnie StatesÉtats
23
84121
3167
au sujet d'un complot
pour escroquer les États-Unis
01:39
by meddlingl’ingérence in the 2016
presidentialprésidentiel electionélection.
24
87312
3780
via une ingérence durant les élections
présidentielles de 2016.
01:43
And what this indictmentaccusation tellsraconte as a storyrécit
25
91855
3564
L'histoire que raconte
ce chef d'accusation
01:47
is the storyrécit of the InternetInternet
ResearchRecherche AgencyAgence,
26
95443
3142
est celle de l'Internet Research Agency,
01:50
the shadowyombragé armbras of the KremlinKremlin
on socialsocial mediamédias.
27
98609
3594
le bras armé du Kremlin
sur les réseaux sociaux.
01:54
DuringAu cours de the presidentialprésidentiel electionélection aloneseul,
28
102815
2777
Durant les élections
présidentielles uniquement,
01:57
the InternetInternet Agency'sAgence effortsefforts
29
105616
1889
les efforts de l'Internet Agency
01:59
reachedatteint 126 millionmillion people
on FacebookFacebook in the UnitedUnie StatesÉtats,
30
107529
5167
ont touché 126 millions de personnes
sur Facebook aux États-Unis,
02:04
issuedPublié threeTrois millionmillion individualindividuel tweetsTweets
31
112720
3277
ont publié trois millions de tweets
02:08
and 43 hours'des heures worthvaut of YouTubeYouTube contentcontenu.
32
116021
3842
et 43 heures de contenu sur YouTube.
02:11
All of whichlequel was fakefaux --
33
119887
1652
Tout cela était faux --
02:13
misinformationdésinformation designedconçu to sowcahier des charges discorddiscorde
in the US presidentialprésidentiel electionélection.
34
121563
6323
de la désinformation
conçue pour semer la discorde
au sein des élections
présidentielles américaines.
02:20
A recentrécent studyétude by OxfordOxford UniversityUniversité
35
128996
2650
Une étude récente de l'université d'Oxford
02:23
showedmontré that in the recentrécent
SwedishSuédois electionsélections,
36
131670
3270
a montré que durant
les récentes élections suédoises,
02:26
one thirdtroisième of all of the informationinformation
spreadingdiffusion on socialsocial mediamédias
37
134964
4375
un tiers de toutes les informations
se propageant sur les réseaux sociaux
02:31
about the electionélection
38
139363
1198
au sujet des élections
02:32
was fakefaux or misinformationdésinformation.
39
140585
2087
étaient fausses ou de la désinformation.
02:35
In additionune addition, these typesles types
of social-mediamédias sociaux misinformationdésinformation campaignscampagnes
40
143037
5078
De plus, ce genre de campagne
de désinformation sur les réseaux sociaux
02:40
can spreadpropager what has been calledappelé
"genocidalgénocidaire propagandapropagande,"
41
148139
4151
peut propager ce qu’on en est venu à
appeler de la « propagande génocidaire »,
02:44
for instanceexemple againstcontre
the RohingyaRohingya in BurmaBirmanie,
42
152314
3111
par exemple contre
les Rohingyas en Birmanie,
02:47
triggeringdéclenchement de mobMob killingsmeurtres in IndiaInde.
43
155449
2303
ou entraînant des massacres
collectifs en Inde.
02:49
We studiedétudié fakefaux newsnouvelles
44
157776
1494
Nous avons étudié l'infox
02:51
and begana commencé studyingen train d'étudier it
before it was a popularpopulaire termterme.
45
159294
3219
et avons commencé à l'étudier
avant que ce ne soit un terme populaire.
02:55
And we recentlyrécemment publishedpublié
the largest-everle plus grand jamais longitudinallongitudinale studyétude
46
163030
5040
Nous avons récemment publié la plus longue
étude longitudinale qui soit
03:00
of the spreadpropager of fakefaux newsnouvelles onlineen ligne
47
168094
2286
sur la propagation de l'infox en ligne
03:02
on the covercouverture of "ScienceScience"
in MarchMars of this yearan.
48
170404
3204
en couverture de « Science »
en mars cette année.
03:06
We studiedétudié all of the verifiedvérifié
truevrai and falsefaux newsnouvelles storieshistoires
49
174523
4161
Nous avons étudié toutes les infos
confirmées comme étant vraies ou fausses
03:10
that ever spreadpropager on TwitterTwitter,
50
178708
1753
qui se sont propagées sur Twitter,
03:12
from its inceptiondébut in 2006 to 2017.
51
180485
3818
depuis son lancement en 2006 jusqu'à 2017.
03:16
And when we studiedétudié this informationinformation,
52
184612
2314
Quand nous avons étudié ces informations,
03:18
we studiedétudié verifiedvérifié newsnouvelles storieshistoires
53
186950
2876
nous avons étudié des informations
03:21
that were verifiedvérifié by sixsix
independentindépendant fact-checkingvérification des faits organizationsorganisations.
54
189850
3918
qui avaient été vérifiées
par six organisations
de vérification indépendantes.
03:25
So we knewa connu whichlequel storieshistoires were truevrai
55
193792
2762
Nous savions donc
quelles informations étaient vraies
03:28
and whichlequel storieshistoires were falsefaux.
56
196578
2126
et quelles informations étaient fausses.
03:30
We can measuremesure theirleur diffusionla diffusion,
57
198728
1873
Nous pouvons mesurer leur diffusion,
03:32
the speedla vitesse of theirleur diffusionla diffusion,
58
200625
1651
la vitesse de leur diffusion,
03:34
the depthprofondeur and breadthlargeur of theirleur diffusionla diffusion,
59
202300
2095
la portée et l'ampleur de leur diffusion,
03:36
how manybeaucoup people becomedevenir entangledenchevêtrer
in this informationinformation cascadecascade and so on.
60
204419
4142
combien de gens se sont empêtrés
dans cette cascade d'informations, etc.
03:40
And what we did in this paperpapier
61
208942
1484
Dans cette publication,
03:42
was we comparedpar rapport the spreadpropager of truevrai newsnouvelles
to the spreadpropager of falsefaux newsnouvelles.
62
210450
3865
nous avons comparé la propagation
d'informations vraies et d'infox.
03:46
And here'svoici what we founda trouvé.
63
214339
1683
Voici ce que nous avons découvert.
03:48
We founda trouvé that falsefaux newsnouvelles
diffuseddiffusé furtherplus loin, fasterPlus vite, deeperPlus profond
64
216046
3979
Nous avons découvert
que l'infox se diffusait plus loin,
plus vite, plus profondément
03:52
and more broadlylargement than the truthvérité
65
220049
1806
et plus largement que la vérité
03:53
in everychaque categoryCatégorie of informationinformation
that we studiedétudié,
66
221879
3003
dans chacune des catégories d'informations
que nous avons étudiées,
03:56
sometimesparfois by an ordercommande of magnitudeordre de grandeur.
67
224906
2499
la différence étant parfois
d'un ordre de grandeur.
03:59
And in factfait, falsefaux politicalpolitique newsnouvelles
was the mostles plus viralvirale.
68
227842
3524
Les infox politiques
étaient les plus virales.
04:03
It diffuseddiffusé furtherplus loin, fasterPlus vite,
deeperPlus profond and more broadlylargement
69
231390
3147
Elles se diffusaient plus loin, vite,
profondément et largement
04:06
than any other typetype of falsefaux newsnouvelles.
70
234561
2802
que n'importe quel autre type d'infox.
04:09
When we saw this,
71
237387
1293
Quand nous avons vu cela,
04:10
we were at onceune fois que worriedinquiet but alsoaussi curiouscurieuse.
72
238704
2841
nous étions à la fois inquiets
mais aussi curieux.
04:13
Why?
73
241569
1151
Pourquoi ?
04:14
Why does falsefaux newsnouvelles travelVoyage
so much furtherplus loin, fasterPlus vite, deeperPlus profond
74
242744
3373
Pourquoi est-ce que l'infox circule
tellement plus loin, vite, profondément
04:18
and more broadlylargement than the truthvérité?
75
246141
1864
et largement que la vérité ?
04:20
The first hypothesishypothèse
that we camevenu up with was,
76
248339
2961
Notre première hypothèse était :
04:23
"Well, maybe people who spreadpropager falsefaux newsnouvelles
have more followersdisciples or followsuivre more people,
77
251324
4792
« Peut-être que les gens
diffusant de l'infox
ont plus de suiveurs
ou suivent plus de monde,
04:28
or tweetTweet more oftensouvent,
78
256140
1557
tweetent plus souvent,
peut-être sont-ils plus souvent
des utilisateurs « vérifiés » de Twitter,
04:29
or maybe they're more oftensouvent 'verified''vérifié'
usersutilisateurs of TwitterTwitter, with more credibilitycrédibilité,
79
257721
4126
avec plus de crédibilité,
04:33
or maybe they'veils ont been on TwitterTwitter longerplus long."
80
261871
2182
ou sont-ils là depuis plus longtemps. »
04:36
So we checkedvérifié eachchaque one of these in turntour.
81
264077
2298
Nous avons vérifié
chacune de ces hypothèses.
04:38
And what we founda trouvé
was exactlyexactement the oppositecontraire.
82
266691
2920
Nous avons découvert
exactement le contraire.
04:41
False-newsFausses nouvelles spreadersÉpandeurs had fewermoins followersdisciples,
83
269635
2436
Les diffuseurs d'infox
avaient moins de suiveurs,
04:44
followedsuivi fewermoins people, were lessMoins activeactif,
84
272095
2254
suivaient moins de gens,
étaient moins actifs,
04:46
lessMoins oftensouvent "verifiedvérifié"
85
274373
1460
moins souvent « vérifiés »
04:47
and had been on TwitterTwitter
for a shorterplus court periodpériode of time.
86
275857
2960
et étaient sur Twitter
depuis moins longtemps.
04:50
And yetencore,
87
278841
1189
Et pourtant,
04:52
falsefaux newsnouvelles was 70 percentpour cent more likelyprobable
to be retweetedretweeted than the truthvérité,
88
280054
5033
les infox avaient
70% de probabilités de plus
d'être retweetées par rapport à la vérité,
04:57
controllingcontrôler for all of these
and manybeaucoup other factorsfacteurs.
89
285111
3363
en contrôlant ces facteurs
et de nombreux autres.
05:00
So we had to come up
with other explanationsexplications.
90
288498
2690
Nous devions trouver
d'autres explications.
05:03
And we devisedmis au point what we calledappelé
a "noveltynouveauté hypothesishypothèse."
91
291212
3467
Nous avons formulé
ce que nous avons appelé
« l'hypothèse de la nouveauté ».
05:07
So if you readlis the literatureLittérature,
92
295038
1960
Si vous lisez la littérature,
05:09
it is well knownconnu that humanHumain attentionattention
is drawntiré to noveltynouveauté,
93
297022
3754
il est bien connu que l'attention humaine
est attirée par la nouveauté,
05:12
things that are newNouveau in the environmentenvironnement.
94
300800
2519
les choses nouvelles dans l'environnement.
05:15
And if you readlis the sociologysociologie literatureLittérature,
95
303343
1985
Si vous lisez la littérature sociologique,
05:17
you know that we like to sharepartager
novelroman informationinformation.
96
305352
4300
vous savez que nous aimons partager
des informations nouvelles.
05:21
It makesfait du us seemsembler like we have accessaccès
to insideà l'intérieur informationinformation,
97
309676
3838
Cela nous donne l'impression d'avoir
un accès privilégié à des informations
05:25
and we gainGain in statusstatut
by spreadingdiffusion this kindgentil of informationinformation.
98
313538
3785
et nous gagnons en statut
en diffusant ce genre d'informations.
05:29
So what we did was we measuredmesuré the noveltynouveauté
of an incomingentrants truevrai or falsefaux tweetTweet,
99
317792
6452
Nous avons alors mesuré la nouveauté
d'un tweet, qu'il soit vrai ou faux,
05:36
comparedpar rapport to the corpuscorpus
of what that individualindividuel had seenvu
100
324268
4055
l'avons comparé au corpus
de ce que l'individu avait vu
05:40
in the 60 daysjournées prioravant on TwitterTwitter.
101
328347
2952
sur Twitter les 60 derniers jours.
05:43
But that wasn'tn'était pas enoughassez,
because we thought to ourselvesnous-mêmes,
102
331323
2659
Mais cela ne suffisait pas
car nous avons pensé :
05:46
"Well, maybe falsefaux newsnouvelles is more novelroman
in an information-theoreticinformation-théorétique sensesens,
103
334006
4208
« Peut-être que l'infox
représente plus de nouveauté
dans un sens théorique,
05:50
but maybe people
don't perceivepercevoir it as more novelroman."
104
338238
3258
mais peut-être que les gens
n'y perçoivent pas plus de nouveauté. »
05:53
So to understandcomprendre people'sles gens
perceptionsperceptions of falsefaux newsnouvelles,
105
341849
3927
Pour comprendre la perception
que les gens avaient des infox,
05:57
we lookedregardé at the informationinformation
and the sentimentsentiment
106
345800
3690
nous avons considéré
l'information et le sentiment
06:01
containedcontenu in the repliesréponses
to truevrai and falsefaux tweetsTweets.
107
349514
4206
que les réponses des tweets
vrais et faux incluaient.
06:06
And what we founda trouvé
108
354022
1206
Nous avons découvert
06:07
was that acrossà travers a bunchbouquet
of differentdifférent measuresles mesures of sentimentsentiment --
109
355252
4214
que parmi tout un tas
de mesures différentes des sentiments --
06:11
surprisesurprise, disgustdégoût, fearpeur, sadnesstristesse,
110
359490
3301
la surprise, le dégoût,
la peur, la tristesse,
06:14
anticipationanticipation, joyjoie and trustconfiance --
111
362815
2484
l'anticipation, la joie et la confiance --
06:17
falsefaux newsnouvelles exhibitedexposé significantlysignificativement more
surprisesurprise and disgustdégoût
112
365323
5857
les infox présentaient notablement
plus de surprise et de dégoût
06:23
in the repliesréponses to falsefaux tweetsTweets.
113
371204
2806
dans les réponses aux tweets.
06:26
And truevrai newsnouvelles exhibitedexposé
significantlysignificativement more anticipationanticipation,
114
374392
3789
Les informations avérées présentaient
notablement plus d'anticipation,
06:30
joyjoie and trustconfiance
115
378205
1547
de joie et de confiance
06:31
in replyrépondre to truevrai tweetsTweets.
116
379776
2547
dans les réponses aux tweets.
06:34
The surprisesurprise corroboratesCorrobore
our noveltynouveauté hypothesishypothèse.
117
382347
3786
La surprise corrobore
notre hypothèse de la nouveauté.
06:38
This is newNouveau and surprisingsurprenant,
and so we're more likelyprobable to sharepartager it.
118
386157
4609
C'est nouveau et surprenant,
nous allons donc
plus probablement le partager.
06:43
At the sameMême time,
there was congressionaldu Congrès testimonytémoignage
119
391092
2925
En même temps, il y avait
un témoignage au Congrès,
06:46
in frontde face of bothtous les deux housesMaisons of CongressCongress
in the UnitedUnie StatesÉtats,
120
394041
3036
devant les deux chambres
du Congrès des États-Unis,
06:49
looking at the rolerôle of botsbots
in the spreadpropager of misinformationdésinformation.
121
397101
3738
considérant le rôle des robots
dans la diffusion de la désinformation.
06:52
So we lookedregardé at this too --
122
400863
1354
Nous l'avons envisagé --
06:54
we used multipleplusieurs sophisticatedsophistiqué
bot-detectiondétection de bot algorithmsalgorithmes
123
402241
3598
nous avons utilisé
de multiples algorithmes sophistiqués
de détection de robots
06:57
to find the botsbots in our dataLes données
and to pulltirer them out.
124
405863
3074
pour trouver les robots
dans nos données et les en extraire.
07:01
So we pulledtiré them out,
we put them back in
125
409347
2659
Nous les en avons extraits,
les avons inclus à nouveau
07:04
and we comparedpar rapport what happensarrive
to our measurementmesure.
126
412030
3119
et avons comparé
ce qu'il arrivait à nos mesures.
07:07
And what we founda trouvé was that, yes indeedeffectivement,
127
415173
2293
Nous avons découvert que oui, en effet,
07:09
botsbots were acceleratingaccélérer
the spreadpropager of falsefaux newsnouvelles onlineen ligne,
128
417490
3682
les robots accéléraient
la diffusion d'infox en ligne,
07:13
but they were acceleratingaccélérer
the spreadpropager of truevrai newsnouvelles
129
421196
2651
mais ils accéléraient
la diffusion d'informations avérées
07:15
at approximatelyapproximativement the sameMême ratetaux.
130
423871
2405
approximativement au même rythme.
07:18
WhichQui meansveux dire botsbots are not responsibleresponsable
131
426300
2858
Ce que signifie que les robots
ne sont pas responsables
07:21
for the differentialdifférentiel diffusionla diffusion
of truthvérité and falsityFausseté onlineen ligne.
132
429182
4713
pour l'écart dans la diffusion
de la vérité et de la fausseté en ligne.
07:25
We can't abdicateabdiquer that responsibilityresponsabilité,
133
433919
2849
Nous ne pouvons pas
refuser cette responsabilité
07:28
because we, humanshumains,
are responsibleresponsable for that spreadpropager.
134
436792
4259
car nous, êtres humains,
sommes responsables de cette diffusion.
07:34
Now, everything
that I have told you so farloin,
135
442472
3334
Tout ce que je vous ai dit jusqu'ici,
07:37
unfortunatelymalheureusement for all of us,
136
445830
1754
malheureusement pour nous tous,
07:39
is the good newsnouvelles.
137
447608
1261
ce sont les bonnes nouvelles.
07:42
The reasonraison is because
it's about to get a wholeentier lot worsepire.
138
450670
4450
La raison en est que cela
va bientôt devenir bien pire.
07:47
And two specificspécifique technologiesles technologies
are going to make it worsepire.
139
455850
3682
Deux technologies en particulier
vont rendre cela bien pire.
07:52
We are going to see the riseaugmenter
of a tremendousénorme wavevague of syntheticsynthétique mediamédias.
140
460207
5172
Nous allons voir la montée
d'une énorme vague de média synthétiques :
07:57
FakeFake videovidéo, fakefaux audiol'audio
that is very convincingconvaincant to the humanHumain eyeœil.
141
465403
6031
de fausses vidéos, de faux enregistrements
très convaincants pour l’œil humain.
08:03
And this will poweredalimenté by two technologiesles technologies.
142
471458
2754
Cela sera propulsé par deux technologies.
08:06
The first of these is knownconnu
as "generativegénératif adversarialaccusatoire networksréseaux."
143
474236
3833
La première est connue sous le nom
de « réseaux adverses génératifs ».
08:10
This is a machine-learningapprentissage automatique modelmaquette
with two networksréseaux:
144
478093
2563
C'est un modèle d'apprentissage
automatique avec deux réseaux :
08:12
a discriminatorDiscriminateur,
145
480680
1547
un discriminateur,
08:14
whosedont jobemploi it is to determinedéterminer
whetherqu'il s'agisse something is truevrai or falsefaux,
146
482251
4200
dont le rôle est de déterminer
si quelque chose est vrai ou faux,
08:18
and a generatorGénérateur,
147
486475
1167
et un générateur,
08:19
whosedont jobemploi it is to generateGénérer
syntheticsynthétique mediamédias.
148
487666
3150
dont le rôle est de générer
des médias synthétiques.
08:22
So the syntheticsynthétique generatorGénérateur
generatesgénère syntheticsynthétique videovidéo or audiol'audio,
149
490840
5102
Le générateur synthétique génère une vidéo
ou un enregistrement audio synthétique
08:27
and the discriminatorDiscriminateur triesessais to tell,
"Is this realréal or is this fakefaux?"
150
495966
4675
et le discriminateur essaye de dire
s'il est réel ou falsifié.
08:32
And in factfait, it is the jobemploi
of the generatorGénérateur
151
500665
2874
La tâche du générateur
08:35
to maximizemaximiser the likelihoodprobabilité
that it will foolimbécile the discriminatorDiscriminateur
152
503563
4435
consiste à maximiser la probabilité
de faire croire au discriminateur
08:40
into thinkingen pensant the syntheticsynthétique
videovidéo and audiol'audio that it is creatingcréer
153
508022
3587
que la vidéo et l'enregistrement audio
qu'il crée sont réels.
08:43
is actuallyréellement truevrai.
154
511633
1730
08:45
ImagineImaginez a machinemachine in a hyperloophyperloop (hyperloop),
155
513387
2373
Imaginez une machine
dans une boucle infinie
08:47
tryingen essayant to get better
and better at foolingtromper us.
156
515784
2803
et essayant d'améliorer
sa capacité à nous tromper.
08:51
This, combinedcombiné with the secondseconde technologyLa technologie,
157
519114
2500
Cela, en combinaison
avec la deuxième technologie,
08:53
whichlequel is essentiallyessentiellement the democratizationdémocratisation
of artificialartificiel intelligenceintelligence to the people,
158
521638
5722
qui est essentiellement la démocratisation
de l'intelligence artificielle,
08:59
the abilitycapacité for anyonen'importe qui,
159
527384
2189
la capacité offerte à tous,
09:01
withoutsans pour autant any backgroundContexte
in artificialartificiel intelligenceintelligence
160
529597
2830
sans aucune formation
en intelligence artificielle
ou en apprentissage automatique,
09:04
or machinemachine learningapprentissage,
161
532451
1182
09:05
to deploydéployer these kindssortes of algorithmsalgorithmes
to generateGénérer syntheticsynthétique mediamédias
162
533657
4103
de déployer ce genre d'algorithmes
pour générer des médias synthétiques
09:09
makesfait du it ultimatelyen fin de compte so much easierPlus facile
to createcréer videosvidéos.
163
537784
4547
rendant cela tellement plus simple
de créer des vidéos.
09:14
The WhiteBlanc HouseMaison issuedPublié
a falsefaux, doctoredtrafiqué videovidéo
164
542355
4421
La Maison-Blanche a publié
une vidéo falsifiée, truquée
09:18
of a journalistjournaliste interactinginteragir with an interninterne
who was tryingen essayant to take his microphonemicrophone.
165
546800
4288
d'un journaliste interagissant
avec une stagiaire
et essayant de prendre son micro.
09:23
They removedsupprimé framescadres from this videovidéo
166
551427
1999
Ils ont enlevé des images de cette vidéo
09:25
in ordercommande to make his actionsactes
seemsembler more punchyPunchy.
167
553450
3287
afin que ces actes
paraissent plus percutants.
09:29
And when videographersvidéastes
and stuntmencascadeurs and womenfemmes
168
557157
3385
Quand des vidéastes,
des cascadeurs et des cascadeuses
09:32
were interviewedinterviewé
about this typetype of techniquetechnique,
169
560566
2427
ont été interrogés
sur ce genre de technique,
09:35
they said, "Yes, we use this
in the moviesfilms all the time
170
563017
3828
ils ont dit : « Oui, nous utilisons
constamment cela dans les films
09:38
to make our punchescoups de poing and kickscoups de pied
look more choppysaccadé and more aggressiveagressif."
171
566869
4763
pour que nos coups de poing et de pied
paraissent plus musclés et agressifs. »
09:44
They then put out this videovidéo
172
572268
1867
Ils ont ensuite publié cette vidéo
09:46
and partlypartiellement used it as justificationJustification
173
574159
2500
l'ont utilisée
comme justification partielle
09:48
to revokeannuler JimJim AcostaAcosta,
the reporter'sjournaliste, presspresse passpasser
174
576683
3999
pour révoquer la carte de presse
de Jim Acosta, le journaliste,
09:52
from the WhiteBlanc HouseMaison.
175
580706
1339
pour la Maison-Blanche.
09:54
And CNNCNN had to sueintenter une action
to have that presspresse passpasser reinstatedréintégré.
176
582069
4809
CNN a dû aller en justice pour faire
rétablir cette carte de presse.
10:00
There are about fivecinq differentdifférent pathssentiers
that I can think of that we can followsuivre
177
588538
5603
Il y a environ cinq chemins différents
que je peux imaginer
et que nous pourrions suivre
10:06
to try and addressadresse some
of these very difficultdifficile problemsproblèmes todayaujourd'hui.
178
594165
3739
pour essayer de remédier
à ces problèmes très difficiles.
10:10
EachChaque one of them has promisepromettre,
179
598379
1810
Chacun est prometteur
10:12
but eachchaque one of them
has its ownposséder challengesdéfis.
180
600213
2999
mais chacun a des défis
qui lui sont propres.
10:15
The first one is labelingl’étiquetage.
181
603236
2008
Le premier est l'étiquetage.
10:17
Think about it this way:
182
605268
1357
Réfléchissez-y :
10:18
when you go to the groceryépicerie storele magasin
to buyacheter foodaliments to consumeconsommer,
183
606649
3611
quand vous allez au supermarché
pour acheter de la nourriture,
10:22
it's extensivelylargement labeledétiqueté.
184
610284
1904
elle est amplement étiquetée.
10:24
You know how manybeaucoup caloriescalories it has,
185
612212
1992
Vous savez combien
de calories elle contient,
10:26
how much fatgraisse it containscontient --
186
614228
1801
combien de graisses --
10:28
and yetencore when we consumeconsommer informationinformation,
we have no labelsétiquettes whatsoeverquoi que ce soit.
187
616053
4278
et pourtant, quand
nous consommons des informations,
nous n'avons pas d'étiquettes.
10:32
What is containedcontenu in this informationinformation?
188
620355
1928
Que contient cette information ?
10:34
Is the sourcela source crediblecrédible?
189
622307
1453
La source est-elle crédible ?
10:35
Where is this informationinformation gatheredrecueillies from?
190
623784
2317
Où cette information
a-t-elle été recueillie ?
10:38
We have noneaucun of that informationinformation
191
626125
1825
Nous n'avons aucune de ces informations
10:39
when we are consumingconsommer informationinformation.
192
627974
2103
quand nous consommons des informations.
10:42
That is a potentialpotentiel avenuerue,
but it comesvient with its challengesdéfis.
193
630101
3238
C'est une solution potentielle,
mais elle a ses défis.
10:45
For instanceexemple, who getsobtient to decidedécider,
in societysociété, what's truevrai and what's falsefaux?
194
633363
6451
Par exemple, qui décide, dans la société,
ce qui est vrai et ce qui est faux ?
10:52
Is it the governmentsGouvernements?
195
640387
1642
Est-ce que ce sont les gouvernements ?
10:54
Is it FacebookFacebook?
196
642053
1150
Est-ce Facebook ?
10:55
Is it an independentindépendant
consortiumConsortium of fact-checkersfact-checkers (en)?
197
643601
3762
Est-ce un consortium indépendant
de vérificateurs d'informations ?
10:59
And who'squi est checkingvérification the fact-checkersfact-checkers (en)?
198
647387
2466
Et qui contrôle ceux
qui vérifient les informations ?
11:02
AnotherUn autre potentialpotentiel avenuerue is incentivesmesures incitatives.
199
650427
3084
Une autre option possible,
ce sont les incitations.
11:05
We know that duringpendant
the US presidentialprésidentiel electionélection
200
653535
2634
Nous savons que durant les élections
présidentielles américaines,
11:08
there was a wavevague of misinformationdésinformation
that camevenu from MacedoniaMacédoine
201
656193
3690
il y a eu une vague de désinformation
venue de Macédoine du Nord
11:11
that didn't have any politicalpolitique motivemotif
202
659907
2337
qui n'avait aucun mobile politique
11:14
but insteadau lieu had an economicéconomique motivemotif.
203
662268
2460
mais avait un mobile économique.
11:16
And this economicéconomique motivemotif existedexisté,
204
664752
2148
Ce mobile économique existait
11:18
because falsefaux newsnouvelles travelsvoyages
so much fartherplus loin, fasterPlus vite
205
666924
3524
car l'infox circule
tellement plus loin, plus vite
11:22
and more deeplyprofondément than the truthvérité,
206
670472
2010
et plus profondément que la vérité
11:24
and you can earnGagnez advertisingLa publicité dollarsdollars
as you garnerGarner eyeballsglobes oculaires and attentionattention
207
672506
4960
et vous pouvez gagner de l'argent
dans la publicité
alors que vous recueillez
les regards et l'attention
11:29
with this typetype of informationinformation.
208
677490
1960
avec ce genre d'informations.
11:31
But if we can depressappuyer sur the spreadpropager
of this informationinformation,
209
679474
3833
Mais si nous pouvons réduire
la diffusion de ces informations,
11:35
perhapspeut être it would reduceréduire
the economicéconomique incentivemotivation
210
683331
2897
peut-être cela réduirait-il
l'incitation économique à les produire.
11:38
to produceproduire it at all in the first placeendroit.
211
686252
2690
11:40
ThirdTierce, we can think about regulationrèglement,
212
688966
2500
Troisièmement, nous pouvons
réfléchir à une réglementation
11:43
and certainlycertainement, we should think
about this optionoption.
213
691490
2325
et nous devrions réfléchir à cette option.
11:45
In the UnitedUnie StatesÉtats, currentlyactuellement,
214
693839
1611
Actuellement aux États-Unis,
11:47
we are exploringexplorant what mightpourrait happense produire
if FacebookFacebook and othersautres are regulatedréglementé.
215
695474
4848
nous explorons ce qu'il pourrait se passer
si Facebook et les autres
étaient réglementés.
11:52
While we should considerconsidérer things
like regulatingrégulation de politicalpolitique speechdiscours,
216
700346
3801
Si nous devrions considérer des choses
comme réglementer le discours politique,
11:56
labelingl’étiquetage the factfait
that it's politicalpolitique speechdiscours,
217
704171
2508
l'étiqueter comme étant
du discours politique,
11:58
makingfabrication sure foreignétranger actorsacteurs
can't fundfonds politicalpolitique speechdiscours,
218
706703
3819
nous assurer que les acteurs étrangers
ne puissent pas financer
un discours politique,
12:02
it alsoaussi has its ownposséder dangersles dangers.
219
710546
2547
cela a aussi ses dangers.
12:05
For instanceexemple, MalaysiaMalaisie just institutedmis en place
a six-yearsix ans prisonprison sentencephrase
220
713522
4878
Par exemple, la Malaisie vient d'instituer
une peine de prison de six ans
12:10
for anyonen'importe qui founda trouvé spreadingdiffusion misinformationdésinformation.
221
718424
2734
pour quiconque diffusant
de la désinformation.
12:13
And in authoritarianautoritaire regimesrégimes,
222
721696
2079
Dans les régimes autoritaires,
12:15
these kindssortes of policiespolitiques can be used
to suppressréprimer minorityminorité opinionsdes avis
223
723799
4666
ce genre de politiques
peuvent être utilisées
pour étouffer les opinions minoritaires
12:20
and to continuecontinuer to extendétendre repressionrépression.
224
728489
3508
et continuer à accroître la répression.
12:24
The fourthQuatrième possiblepossible optionoption
is transparencytransparence.
225
732680
3543
La quatrième option possible
est la transparence.
12:28
We want to know
how do Facebook'sDe Facebook algorithmsalgorithmes work.
226
736843
3714
Nous voulons savoir comment fonctionnent
les algorithmes de Facebook.
12:32
How does the dataLes données
combinecombiner with the algorithmsalgorithmes
227
740581
2880
Comment les données
se combinent-elles aux algorithmes
12:35
to produceproduire the outcomesrésultats that we see?
228
743485
2838
pour générer les résultats
que nous observons ?
12:38
We want them to openouvrir the kimonokimono
229
746347
2349
Nous voulons qu'ils ouvrent le kimono
12:40
and showmontrer us exactlyexactement the innerinterne workingsfonctionnements
of how FacebookFacebook is workingtravail.
230
748720
4214
et nous montrent les rouages internes
du fonctionnement de Facebook.
Pour connaître les effets
des réseaux sociaux sur la société,
12:44
And if we want to know
socialsocial media'spar les médias effecteffet on societysociété,
231
752958
2779
12:47
we need scientistsscientifiques, researchersdes chercheurs
232
755761
2086
il faut que les scientifiques,
les chercheurs
12:49
and othersautres to have accessaccès
to this kindgentil of informationinformation.
233
757871
3143
et les autres aient accès
à ce genre d'informations.
12:53
But at the sameMême time,
234
761038
1547
Mais en même temps,
12:54
we are askingdemandant FacebookFacebook
to lockfermer à clé everything down,
235
762609
3801
nous demandons à Facebook
de tout verrouiller
12:58
to keep all of the dataLes données securegarantir.
236
766434
2173
pour assurer la sécurité des données.
13:00
So, FacebookFacebook and the other
socialsocial mediamédias platformsplateformes
237
768631
3159
Facebook et les autres plateformes
de réseaux sociaux
13:03
are facingorienté vers what I call
a transparencytransparence paradoxparadoxe.
238
771814
3134
font face à ce que j'appelle
un paradoxe de la transparence.
13:07
We are askingdemandant them, at the sameMême time,
239
775266
2674
Nous leur demandons à la fois
13:09
to be openouvrir and transparenttransparent
and, simultaneouslysimultanément securegarantir.
240
777964
4809
d'être ouverts et transparents
et, simultanément, d'être sécurisés.
13:14
This is a very difficultdifficile needleaiguille to threadfil,
241
782797
2691
Cela est difficile à accomplir,
13:17
but they will need to threadfil this needleaiguille
242
785512
1913
mais ils devront le faire
13:19
if we are to achieveatteindre the promisepromettre
of socialsocial technologiesles technologies
243
787449
3787
si nous voulons
que les technologies sociales
tiennent leurs promesses
13:23
while avoidingéviter theirleur perilpéril.
244
791260
1642
tout en évitant les risques.
13:24
The finalfinal thing that we could think about
is algorithmsalgorithmes and machinemachine learningapprentissage.
245
792926
4691
Pour finir, nous pourrions réfléchir
aux algorithmes
et à l'apprentissage automatique.
13:29
TechnologyTechnologie devisedmis au point to rootracine out
and understandcomprendre fakefaux newsnouvelles, how it spreadsse propage,
246
797641
5277
Une technologie conçue pour éradiquer
et comprendre l'infox, sa diffusion,
13:34
and to try and dampenhumidifier its flowcouler.
247
802942
2331
et essayer d'atténuer sa circulation.
13:37
HumansÊtres humains have to be in the loopboucle
of this technologyLa technologie,
248
805824
2897
Les êtres humains doivent
jouer un rôle dans cette technologie
13:40
because we can never escapeéchapper
249
808745
2278
car nous ne pourrons jamais
échapper au fait
13:43
that underlyingsous-jacent any technologicaltechnologique
solutionSolution or approachapproche
250
811047
4038
que pour toute solution
ou approche technologie,
13:47
is a fundamentalfondamental ethicaléthique
and philosophicalphilosophique questionquestion
251
815109
4047
il y a une question éthique
et philosophique fondamentale
13:51
about how do we definedéfinir truthvérité and falsityFausseté,
252
819180
3270
quant à notre définition
du vrai et du faux,
13:54
to whomqui do we give the powerPuissance
to definedéfinir truthvérité and falsityFausseté
253
822474
3180
à qui nous donnons le pouvoir
de définir le vrai et le faux
13:57
and whichlequel opinionsdes avis are legitimatelégitime,
254
825678
2460
et quelles opinions sont légitimes,
14:00
whichlequel typetype of speechdiscours
should be allowedpermis and so on.
255
828162
3706
une rapidité de quel ordre de grandeur
devrait être autorisée et ainsi de suite.
14:03
TechnologyTechnologie is not a solutionSolution for that.
256
831892
2328
La technologie n'est pas la solution.
14:06
EthicsDéontologie and philosophyphilosophie
is a solutionSolution for that.
257
834244
3698
L'éthique et la philosophie le sont.
14:10
NearlyPrès everychaque theorythéorie
of humanHumain decisiondécision makingfabrication,
258
838950
3318
Presque toutes les théories
sur la prise de décision humaine,
14:14
humanHumain cooperationla coopération and humanHumain coordinationcoordination
259
842292
2761
la coopération humaine
et la coordination humaine
14:17
has some sensesens of the truthvérité at its corecoeur.
260
845077
3674
ont une part de vérité en elles.
14:21
But with the riseaugmenter of fakefaux newsnouvelles,
261
849347
2056
Mais avec l'essor des infox,
14:23
the riseaugmenter of fakefaux videovidéo,
262
851427
1443
l'essor des vidéos truquées,
14:24
the riseaugmenter of fakefaux audiol'audio,
263
852894
1882
l'essor des enregistrements
audios truqués,
14:26
we are teeteringvacille on the brinkbord
of the endfin of realityréalité,
264
854800
3924
nous vacillons au bord
de la fin de la réalité,
14:30
where we cannotne peux pas tell
what is realréal from what is fakefaux.
265
858748
3889
où nous ne pouvons pas discerner
ce qui est réel et ce qui est faux.
14:34
And that's potentiallypotentiellement
incrediblyincroyablement dangerousdangereux.
266
862661
3039
Cela est potentiellement
incroyablement dangereux.
14:38
We have to be vigilantvigilant
in defendingdéfendant the truthvérité
267
866931
3948
Nous devons être vigilants
dans la défense de la vérité
14:42
againstcontre misinformationdésinformation.
268
870903
1534
face à la désinformation.
14:44
With our technologiesles technologies, with our policiespolitiques
269
872919
3436
Avec nos technologies, avec nos politiques
14:48
and, perhapspeut être mostles plus importantlyimportant,
270
876379
1920
et, peut-être surtout, individuellement,
14:50
with our ownposséder individualindividuel responsibilitiesresponsabilités,
271
878323
3214
avec nos responsabilités, nos décisions,
14:53
decisionsles décisions, behaviorscomportements and actionsactes.
272
881561
3555
nos comportements
et nos actions.
14:57
Thank you very much.
273
885553
1437
Merci beaucoup.
14:59
(ApplauseApplaudissements)
274
887014
3517
(Applaudissements)
Translated by Morgane Quilfen
Reviewed by Claire Ghyselen

▲Back to top

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee