ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com
TED2019

Claire Wardle: How you can help transform the internet into a place of trust

Claire Wardle: Comment pouvons-nous transformer l'Internet en un lieu de confiance ?

Filmed:
1,319,606 views

Comment empêcher la diffusion de contenus mensongers et parfois dangereux sur Internet tout en perpétuant sa liberté d'expression ? Claire Wardle est spécialiste en désinformation et elle explore les défis récents liés à la pollution de notre environnement en ligne. Elle trace les lignes pour transformer l'Internet en un espace de confiance, avec la contribution de tous ses usagers. « Ensemble, reconstruisons nos bases communes de l'information, » nous propose-t-elle.
- Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online. Full bio

Double-click the English transcript below to play the video.

00:13
No mattermatière who you are or where you livevivre,
0
1548
2516
Peu importe qui vous êtes
ou où vous habitez,
je suis convaincue que vous avez
au moins un parent
00:16
I'm guessingdevinant that you have
at leastmoins one relativerelatif
1
4088
2356
00:18
that likesaime to forwardvers l'avant those emailsemails.
2
6468
2334
qui adore transférer ces courriels.
00:21
You know the onesceux I'm talkingparlant about --
3
9206
1900
Vous savez de quoi je parle,
ceux avec des affirmations douteuses
ou des vidéos de conspiration.
00:23
the onesceux with dubiousdouteuse claimsréclamations
or conspiracyconspiration videosvidéos.
4
11130
2854
00:26
And you've probablyProbablement
alreadydéjà muteden sourdine them on FacebookFacebook
5
14315
2668
Vous les avez sans doute bloqués
sur Facebook
00:29
for sharingpartage socialsocial postsmessages like this one.
6
17007
2348
parce qu'ils partagent ce genre de posts.
C'est l'illustration d'une banane
00:31
It's an imageimage of a bananabanane
7
19379
1404
00:32
with a strangeétrange redrouge crosstraverser
runningfonctionnement throughpar the centercentre.
8
20807
2667
avec une étrange croix rouge
en son cœur.
00:35
And the texttexte around it is warningAttention people
9
23498
2139
Le message avertit le lecteur
00:37
not to eatmanger fruitsfruits that look like this,
10
25661
2158
d'éviter de manger un fruit pareil
00:39
suggestingsuggérant they'veils ont been
injectedinjecté with blooddu sang
11
27843
2028
car on y aurait injecté du sang
00:41
contaminatedcontaminés with the HIVVIH virusvirus.
12
29895
2130
contaminé par le virus du VIH.
00:44
And the socialsocial sharepartager messagemessage
aboveau dessus it simplysimplement saysdit,
13
32049
2603
L'intitulé du message est simplement :
00:46
"Please forwardvers l'avant to saveenregistrer livesvies."
14
34676
2181
« Transférez pour sauver des vies ! »
00:49
Now, fact-checkersfact-checkers (en) have been debunkingDémystification
this one for yearsannées,
15
37672
3294
Les vérificateurs de faits tentent
de le désamorcer depuis des années
mais c'est le genre de rumeurs
qui ne veulent pas s'éteindre.
00:52
but it's one of those rumorsrumeurs
that just won'thabitude diemourir.
16
40990
2809
00:55
A zombieZombie rumorrumeur.
17
43823
1271
Une rumeur zombie.
00:57
And, of coursecours, it's entirelyentièrement falsefaux.
18
45513
2093
Naturellement, totalement fausse.
01:00
It mightpourrait be temptingTempting to laughrire
at an exampleExemple like this, to say,
19
48180
2959
Cela pourrait être risible
et on pourrait se demander
01:03
"Well, who would believe this, anywayen tous cas?"
20
51163
1884
qui va bien pouvoir croire ça.
01:05
But the reasonraison it's a zombieZombie rumorrumeur
21
53419
1626
C'est précisément une rumeur zombie
01:07
is because it tapsrobinets into people'sles gens
deepestle plus profond fearscraintes about theirleur ownposséder safetysécurité
22
55069
3889
car elle se nourrit des peurs les plus
profondes des gens quant à leur sécurité
01:10
and that of the people they love.
23
58982
2175
et celles des personnes
qui leur sont chères.
01:13
And if you spenddépenser as enoughassez time
as I have looking at misinformationdésinformation,
24
61783
3273
Quand on passe autant de temps
que moi à étudier la désinformation,
on comprend vite qu'il s'agit d'un exemple
parmi tant d'autres
01:17
you know that this is just
one exampleExemple of manybeaucoup
25
65080
2420
01:19
that tapsrobinets into people'sles gens deepestle plus profond
fearscraintes and vulnerabilitiesvulnérabilités.
26
67524
3047
qui fait appel aux craintes
et vulnérabilités des gens.
01:23
EveryChaque day, acrossà travers the worldmonde,
we see scoresscores of newNouveau memesmemes on InstagramInstagram
27
71214
4369
Tous les jours, partout dans le monde,
des nouveaux mèmes sur Instagram
01:27
encouragingencourageant parentsParents
not to vaccinatevacciner theirleur childrenles enfants.
28
75607
3039
encouragent les parents
à ne pas vacciner leurs enfants,
01:30
We see newNouveau videosvidéos on YouTubeYouTube
explainingexpliquer that climateclimat changechangement is a hoaxcanular.
29
78670
4532
des vidéos sur YouTube expliquent
que le changement climatique est un hoax.
01:35
And acrossà travers all platformsplateformes, we see
endlessinterminable postsmessages designedconçu to demonizediaboliser othersautres
30
83226
4302
Sur toutes les plateformes, un nombre
infini de messages diabolisent l'autre
01:39
on the basisbase of theirleur racecourse,
religionreligion or sexualitysexualité.
31
87552
3501
sur base de leur race, de leur religion
ou de leur orientation sexuelle.
01:44
WelcomeBienvenue to one of the centralcentral
challengesdéfis of our time.
32
92314
3030
Bienvenue au cœur d'un des plus
grands défis de notre temps.
01:47
How can we maintainmaintenir an internetl'Internet
with freedomliberté of expressionexpression at the corecoeur,
33
95647
4025
Comment perpétuer un Internet
fondé sur la liberté d'expression
01:51
while alsoaussi ensuringveiller à ce that the contentcontenu
that's beingétant disseminateddisséminée
34
99696
3303
tout en garantissant que le contenu
qui y est propagé
01:55
doesn't causecause irreparableirréparable harmsHarms
to our democraciesdémocraties, our communitiescommunautés
35
103023
3886
ne cause pas de préjudice irréversible
à nos démocraties, à nos communautés
01:58
and to our physicalphysique and mentalmental well-beingbien-être?
36
106933
2238
et à notre bien-être physique et mental ?
02:01
Because we livevivre in the informationinformation ageâge,
37
109998
2087
Nous vivons en effet
dans l'ère de l'information
02:04
yetencore the centralcentral currencydevise
uponsur whichlequel we all dependdépendre -- informationinformation --
38
112109
3547
et pourtant notre devise principale,
celle dont on dépend tous, l'information,
02:07
is no longerplus long deemedréputé entirelyentièrement trustworthydigne de confiance
39
115680
2357
n'est plus considérée totalement fiable
02:10
and, at timesfois, can appearapparaître
downrightcarrément dangerousdangereux.
40
118061
2328
et semble parfois même
franchement dangereuse.
02:12
This is thanksMerci in partpartie to the runawayfuyez
growthcroissance of socialsocial sharingpartage platformsplateformes
41
120811
3937
C'est partiellement dû à la croissance
monstrueuse des plateformes sociales
02:16
that allowpermettre us to scrollrouleau throughpar,
42
124772
1642
qui nous permettent de parcourir
contenus mensongers et des faits
l'un à côté de l'autre
02:18
where liesmentir and factsfaits sitasseoir sidecôté by sidecôté,
43
126438
2222
02:20
but with noneaucun of the traditionaltraditionnel
signalssignaux of trustworthinessfiabilité.
44
128684
3071
mais sans les signaux traditionnels
de véracité.
02:24
And goodnessla bonté -- our languagela langue around this
is horriblyhorriblement muddledconfus.
45
132268
3619
Et bon dieu, notre langage à ce sujet
est affreusement confus.
02:27
People are still obsessedobsédé
with the phrasephrase "fakefaux newsnouvelles,"
46
135911
3103
On est encore obsédé
par le terme « intox »,
02:31
despitemalgré the factfait that
it's extraordinarilyextraordinairement unhelpfulinutile
47
139038
2531
même s'il est particulièrement obscur
02:33
and used to describedécrire a numbernombre of things
that are actuallyréellement very differentdifférent:
48
141593
3460
et utilisé pour décrire
des phénomènes très différents :
02:37
liesmentir, rumorsrumeurs, hoaxescanulars,
conspiraciescomplots, propagandapropagande.
49
145077
3386
mensonges, rumeurs, hoax,
conspirations et propagande.
02:40
And I really wishsouhait
we could stop usingen utilisant a phrasephrase
50
148911
2912
Je souhaite tant qu'on cesse
d'utiliser cette expression
02:43
that's been co-optedcoopté by politiciansLes politiciens
right around the worldmonde,
51
151847
2862
adoptée par les politiciens
partout dans le monde,
02:46
from the left and the right,
52
154733
1471
de gauche comme de droite,
02:48
used as a weaponarme to attackattaque
a freegratuit and independentindépendant presspresse.
53
156228
3222
et brandie comme une arme
contre une presse libre et indépendante.
02:52
(ApplauseApplaudissements)
54
160307
4702
(Applaudissements)
02:57
Because we need our professionalprofessionnel
newsnouvelles mediamédias now more than ever.
55
165033
3462
Car un journalisme professionnel
est plus que jamais indispensable.
03:00
And besidesoutre, mostles plus of this contentcontenu
doesn't even masquerademascarade as newsnouvelles.
56
168882
3373
De plus, la plupart de ces contenus
ne se déguisent même pas en info.
03:04
It's memesmemes, videosvidéos, socialsocial postsmessages.
57
172279
2642
Ce sont des mèmes, des vidéos
et des posts sociaux.
03:06
And mostles plus of it is not fakefaux;
it's misleadinginduire en erreur.
58
174945
3453
La plupart ne sont pas faux,
ils sont trompeurs.
03:10
We tendtendre to fixatese focaliser on what's truevrai or falsefaux.
59
178422
3015
On a tendance à se concentrer
sur ce qui est vrai ou faux.
03:13
But the biggestplus grand concernpréoccupation is actuallyréellement
the weaponizationarmement of contextle contexte.
60
181461
4032
Toutefois, la préoccupation principale
est le détournement abusif du contexte.
03:18
Because the mostles plus effectiveefficace disinformationdésinformation
61
186855
1968
Car la désinformation la plus efficace
03:20
has always been that
whichlequel has a kernelnoyau of truthvérité to it.
62
188847
3048
contient toujours une part de vérité.
03:23
Let's take this exampleExemple
from LondonLondres, from MarchMars 2017,
63
191919
3476
Prenons l'exemple de Londres.
Un tweet circule largement
depuis mars 2017,
03:27
a tweetTweet that circulateddistribué widelylargement
64
195419
1540
03:28
in the aftermathconséquences of a terroristactivités terroristes incidentincident
on WestminsterWestminster BridgePont.
65
196983
3587
juste après l'attentat terroriste
sur le pont de Westminster.
03:32
This is a genuineauthentique imageimage, not fakefaux.
66
200594
2428
Cette photo est vraie,
ce n'est pas un montage.
03:35
The womanfemme who appearsapparaît in the photographphotographier
was interviewedinterviewé afterwardsensuite,
67
203046
3169
On a interviewé la femme
qui apparaît sur la photo par la suite
03:38
and she explainedexpliqué that
she was utterlytotalement traumatizedtraumatisé.
68
206239
2409
et elle a expliqué qu'elle était
tétanisée de peur.
03:40
She was on the phonetéléphone to a lovedaimé one,
69
208672
1738
Elle parlait à une personne chère
03:42
and she wasn'tn'était pas looking
at the victimvictime out of respectle respect.
70
210434
2618
et détournait le regard
de la victime par respect.
03:45
But it still was circulateddistribué widelylargement
with this IslamophobicIslamophobes framingencadrement,
71
213076
3960
Mais la photo a circulé largement
avec un titre islamophobe
03:49
with multipleplusieurs hashtagshashtags,
includingcomprenant: #BanIslamBanIslam (en anglais).
72
217060
3046
et de multiples hashtags dont : #BanIslam.
03:52
Now, if you workedtravaillé at TwitterTwitter,
what would you do?
73
220425
2398
Si vous étiez employé par Twitter,
comment réagiriez-vous ?
03:54
Would you take that down,
or would you leavelaisser it up?
74
222847
2562
Vous le supprimeriez ou le laisseriez ?
03:58
My gutintestin reactionréaction, my emotionalémotif reactionréaction,
is to take this down.
75
226553
3429
Ma réaction viscérale et émotionnelle
serait de le supprimer.
04:02
I hatehaine the framingencadrement of this imageimage.
76
230006
2142
Je déteste le choix de l'angle.
04:04
But freedomliberté of expressionexpression
is a humanHumain right,
77
232585
2388
Mais la liberté d'expression
est un droit de l'homme.
04:06
and if we startdébut takingprise down speechdiscours
that makesfait du us feel uncomfortableinconfortable,
78
234997
3225
Et si on commence à censurer
les propos qui nous mettent mal à l'aise,
04:10
we're in troubledifficulté.
79
238246
1230
c'est le début des problèmes.
04:11
And this mightpourrait look like a clear-cutcoupe à blanc caseCas,
80
239500
2294
Ce cas semble évident
04:13
but, actuallyréellement, mostles plus speechdiscours isn't.
81
241818
1698
mais la plupart ne le sont pas.
04:15
These lineslignes are incrediblyincroyablement
difficultdifficile to drawdessiner.
82
243540
2436
La ligne de démarcation est floue.
04:18
What's a well-meaningbien intentionné
decisiondécision by one personla personne
83
246000
2281
Qu'est-ce qui sépare
une décision bien intentionnée
04:20
is outrightpure et simple censorshipcensure to the nextprochain.
84
248305
2077
de la censure ?
04:22
What we now know is that
this accountCompte, TexasTexas LoneSolitaire StarStar,
85
250759
2929
Nous savons à présent
que ce compte, Texas Lone Star,
04:25
was partpartie of a widerplus large RussianRusse
disinformationdésinformation campaigncampagne,
86
253712
3230
faisait partie d'une campagne
russe de désinformation
04:28
one that has sincedepuis been takenpris down.
87
256966
2151
qui a été démantelée depuis lors.
04:31
Would that changechangement your viewvue?
88
259141
1563
Cela change-t-il votre opinion ?
04:33
It would minemien,
89
261322
1159
Ça influencerait la mienne
04:34
because now it's a caseCas
of a coordinatedcoordonné campaigncampagne
90
262505
2301
car il s'agit d'une campagne orchestrée
04:36
to sowcahier des charges discorddiscorde.
91
264830
1215
pour semer la zizanie.
04:38
And for those of you who'dqui aurait like to think
92
266069
1961
Et pour ceux et celles qui pensent
que l'intelligence artificielle
va résoudre tous nos problèmes,
04:40
that artificialartificiel intelligenceintelligence
will solverésoudre all of our problemsproblèmes,
93
268054
2831
04:42
I think we can agreese mettre d'accord
that we're a long way away
94
270909
2225
Nous sommes tous d'accord pour dire
que le temps où l'IA pourra comprendre ça
n'est pas encore venu.
04:45
from AIAI that's ablecapable to make sensesens
of postsmessages like this.
95
273158
2587
04:48
So I'd like to explainExplique
threeTrois interlockingemboîtement issuesproblèmes
96
276856
2507
Je vais d'abord vous présenter
trois enjeux entrelacés
04:51
that make this so complexcomplexe
97
279387
2373
qui rendent tout ça si compliqué.
Ensuite, je vous proposerai quelques
manières de réfléchir à ces défis.
04:53
and then think about some waysfaçons
we can considerconsidérer these challengesdéfis.
98
281784
3122
04:57
First, we just don't have
a rationalrationnel relationshiprelation to informationinformation,
99
285348
3890
D'abord, notre relation à l'information
n'est pas rationnelle,
05:01
we have an emotionalémotif one.
100
289262
1468
elle est émotionnelle.
05:02
It's just not truevrai that more factsfaits
will make everything OK,
101
290754
3794
Il n'est pas vrai que davantage de faits
vont amender les choses
05:06
because the algorithmsalgorithmes that determinedéterminer
what contentcontenu we see,
102
294572
3100
car les algorithmes déterminent
ce que nous voyons,
05:09
well, they're designedconçu to rewardrécompense
our emotionalémotif responsesréponses.
103
297696
3127
ils sont conçus pour récompenser
nos réactions émotionnelles.
05:12
And when we're fearfulcraintif,
104
300847
1381
Or, quand on a peur,
05:14
oversimplifiedtrop simplifiée narrativesrécits,
conspiratorialconspiration explanationsexplications
105
302252
3174
les narrations simplifiées à outrance,
les théories de conspiration
05:17
and languagela langue that demonizesdiabolise othersautres
is farloin more effectiveefficace.
106
305450
3418
et les termes qui diabolisent l'autre
sont encore plus efficaces.
05:21
And besidesoutre, manybeaucoup of these companiesentreprises,
107
309538
1874
De surcroît, le modèle
de fonctionnement de ces plateformes
05:23
theirleur businessEntreprise modelmaquette
is attachedattaché to attentionattention,
108
311436
2546
est basé sur l'attention.
05:26
whichlequel meansveux dire these algorithmsalgorithmes
will always be skewedbiaisé towardsvers emotionémotion.
109
314006
3690
Ça signifie que leurs algorithmes
sont conçus pour favoriser l'émotion.
05:30
SecondSeconde, mostles plus of the speechdiscours
I'm talkingparlant about here is legallégal.
110
318371
4298
Ensuite, la plupart des discours
que j'évoque sont légaux.
05:35
It would be a differentdifférent mattermatière
111
323081
1446
La situation serait différente
05:36
if I was talkingparlant about
childenfant sexualsexuel abuseabuser de imageryimagerie
112
324551
2341
si on parlait d'images de pédophilie
05:38
or contentcontenu that incitesincite violencela violence.
113
326916
1927
ou de contenu incitant à la violence.
05:40
It can be perfectlyà la perfection legallégal
to postposter an outrightpure et simple liemensonge.
114
328867
3270
Il est parfaitement légal
de poster un mensonge patent.
05:45
But people keep talkingparlant about takingprise down
"problematicproblématique" or "harmfulnocif" contentcontenu,
115
333130
4034
Toutefois, on continue de censurer
les contenus problématiques ou nuisibles
05:49
but with no clearclair definitiondéfinition
of what they mean by that,
116
337188
2609
sans définition claire
de ce que ça signifie.
Mark Zuckerberg n'y échappe pas
05:51
includingcomprenant MarkMark ZuckerbergZuckerberg,
117
339821
1264
05:53
who recentlyrécemment calledappelé for globalglobal
regulationrèglement to moderatemodérer speechdiscours.
118
341109
3412
quand il plaide en faveur d'une
réglementation mondiale des discours.
05:56
And my concernpréoccupation is that
we're seeingvoyant governmentsGouvernements
119
344870
2215
Je crains que les gouvernements
05:59
right around the worldmonde
120
347109
1292
partout dans le monde
06:00
rollingroulant out hastyhâtives policypolitique decisionsles décisions
121
348425
2676
mettent en place
des décisions politiques précipitées
qui pourraient en réalité générer
des conséquences bien plus graves
06:03
that mightpourrait actuallyréellement triggergâchette
much more serioussérieux consequencesconséquences
122
351125
2746
06:05
when it comesvient to our speechdiscours.
123
353895
1714
en matière d'expression.
06:08
And even if we could decidedécider
whichlequel speechdiscours to take up or take down,
124
356006
3706
Même si nous pouvions décider
quels contenus conserver ou éliminer,
06:11
we'venous avons never had so much speechdiscours.
125
359736
2174
nous n'avons jamais eu tant de contenus.
06:13
EveryChaque secondseconde, millionsdes millions
of piecesdes morceaux of contentcontenu
126
361934
2131
Chaque seconde, des millions de contenus
sont téléchargés partout dans le monde,
06:16
are uploadedtéléchargé by people
right around the worldmonde
127
364089
2107
06:18
in differentdifférent languageslangues,
128
366220
1168
dans des langues différentes
06:19
drawingdessin on thousandsmilliers
of differentdifférent culturalculturel contextscontextes.
129
367412
2768
et basés sur des contextes
culturels multiples.
06:22
We'veNous avons simplysimplement never had
effectiveefficace mechanismsmécanismes
130
370204
2532
Nous n'avons aucun mécanisme efficace
pour modérer les discours à cette échelle,
06:24
to moderatemodérer speechdiscours at this scaleéchelle,
131
372760
1738
06:26
whetherqu'il s'agisse poweredalimenté by humanshumains
or by technologyLa technologie.
132
374522
2801
que ce soit avec des humains
ou de la technologie.
06:30
And thirdtroisième, these companiesentreprises --
GoogleGoogle, TwitterTwitter, FacebookFacebook, WhatsAppWhatsApp --
133
378284
3944
Troisièmement, ces sociétés,
Google, Twitter, Facebook, WhatsApp,
06:34
they're partpartie of a widerplus large
informationinformation ecosystemécosystème.
134
382252
2841
font part d'un écosystème
d'information plus vaste.
06:37
We like to layallonger all the blamefaire des reproches
at theirleur feetpieds, but the truthvérité is,
135
385117
3352
On a tendance à leur faire
porter le blâme mais en fait,
06:40
the massMasse mediamédias and electedélu officialsfonctionnaires
can alsoaussi playjouer an equalégal rolerôle
136
388493
3830
les médias et les représentants politiques
peuvent jouer un rôle aussi important
pour amplifier les rumeurs
et les conspirations qui les arrangent.
06:44
in amplifyingamplifier rumorsrumeurs and conspiraciescomplots
when they want to.
137
392347
2913
06:47
As can we, when we mindlesslysans réfléchir forwardvers l'avant
divisivequi sème la discorde or misleadinginduire en erreur contentcontenu
138
395800
4944
Nous aussi, nous sommes susceptibles
de diffuser du contenu trompeur
06:52
withoutsans pour autant tryingen essayant.
139
400768
1285
sans le vouloir.
06:54
We're addingajouter to the pollutionla pollution.
140
402077
1800
On accentue la pollution.
06:57
I know we're all looking for an easyfacile fixréparer.
141
405236
2618
Nous cherchons tous un remède miracle.
06:59
But there just isn't one.
142
407878
1667
Mais ça n'existe pas.
07:01
Any solutionSolution will have to be rolledlaminés out
at a massivemassif scaleéchelle, internetl'Internet scaleéchelle,
143
409950
4445
Toute solution devra être mise en place
à une échelle massive, celle d'Internet,
07:06
and yes, the platformsplateformes,
they're used to operatingen fonctionnement at that levelniveau.
144
414419
3261
et les plateformes en fait,
sont habituées à cette échelle.
07:09
But can and should we allowpermettre them
to fixréparer these problemsproblèmes?
145
417704
3472
Mais pouvons-nous et devrions-nous
les autoriser à gérer ces problèmes ?
07:13
They're certainlycertainement tryingen essayant.
146
421668
1232
Certes, elles essaient.
07:14
But mostles plus of us would agreese mettre d'accord that, actuallyréellement,
we don't want globalglobal corporationssociétés
147
422924
4086
Nous sommes presque tous d'accord de
ne pas souhaiter voir des multinationales
devenir les gardiens de la vérité
et de l'équité sur Internet.
07:19
to be the guardianstuteurs of truthvérité
and fairnesséquité onlineen ligne.
148
427034
2332
07:21
And I alsoaussi think the platformsplateformes
would agreese mettre d'accord with that.
149
429390
2537
Les plateformes seront
d'accord aussi, je crois.
07:24
And at the momentmoment,
they're markingmarquage theirleur ownposséder homeworkdevoirs.
150
432257
2881
Actuellement, elles sont en train
de s'accorder des bons points.
07:27
They like to tell us
151
435162
1198
Elles nous disent
07:28
that the interventionsinterventions
they're rollingroulant out are workingtravail,
152
436384
2579
que leurs interventions sont efficaces.
Mais elles rédigent elles-mêmes
leurs rapports sur leur transparence.
07:30
but because they writeécrire
theirleur ownposséder transparencytransparence reportsrapports,
153
438987
2540
07:33
there's no way for us to independentlyindépendamment
verifyVérifier what's actuallyréellement happeningévénement.
154
441551
3618
Il n'y a donc aucun moyen indépendant
pour vérifier les faits.
07:38
(ApplauseApplaudissements)
155
446431
3342
(Applaudissements)
Pour être franche, la plupart
des changements que nous observons
07:41
And let's alsoaussi be clearclair
that mostles plus of the changeschangements we see
156
449797
2952
07:44
only happense produire after journalistsjournalistes
undertakes’engagent an investigationenquête
157
452773
2994
ont lieu après une enquête journalistique
et la mise à nu de preuves de biais
07:47
and find evidencepreuve of biasbiais
158
455791
1611
07:49
or contentcontenu that breakspauses
theirleur communitycommunauté guidelinesdes lignes directrices.
159
457426
2829
ou de contenus qui enfreignent
les règles de fonctionnement.
07:52
So yes, these companiesentreprises have to playjouer
a really importantimportant rolerôle in this processprocessus,
160
460815
4595
Bien sûr, ces entreprises doivent jouer
un rôle crucial dans le processus
mais elles ne peuvent pas le contrôler.
07:57
but they can't controlcontrôle it.
161
465434
1560
07:59
So what about governmentsGouvernements?
162
467855
1518
Qu'en est-il alors des gouvernements ?
08:01
ManyDe nombreux people believe
that globalglobal regulationrèglement is our last hopeespérer
163
469863
3096
Beaucoup fondent leur dernier espoir
dans une réglementation mondiale
08:04
in termstermes of cleaningnettoyage up
our informationinformation ecosystemécosystème.
164
472983
2880
pour rendre notre écosystème propre.
08:07
But what I see are lawmakerslégislateurs
who are strugglingluttant to keep up to daterendez-vous amoureux
165
475887
3166
Mais les politiciens
peinent à rester à jour
08:11
with the rapidrapide changeschangements in technologyLa technologie.
166
479077
2341
avec la vélocité
de l'évolution technologique.
08:13
And worsepire, they're workingtravail in the darkfoncé,
167
481442
1904
Pire, ils travaillent dans le noir
08:15
because they don't have accessaccès to dataLes données
168
483370
1821
car ils n'ont pas accès aux données
08:17
to understandcomprendre what's happeningévénement
on these platformsplateformes.
169
485215
2650
pour comprendre ce qu'il se passe
sur ces plateformes.
08:20
And anywayen tous cas, whichlequel governmentsGouvernements
would we trustconfiance to do this?
170
488260
3071
Et puis, en quel gouvernement
pourrions-nous faire confiance ?
08:23
We need a globalglobal responseréponse,
not a nationalnationale one.
171
491355
2770
La réaction doit être mondiale
et pas au niveau national.
08:27
So the missingmanquant linklien is us.
172
495419
2277
Le maillon manquant, c'est nous.
Nous, femmes et hommes qui
utilisons ces technologies tous les jours.
08:29
It's those people who use
these technologiesles technologies everychaque day.
173
497720
3123
08:33
Can we designconception a newNouveau infrastructureInfrastructure
to supportsoutien qualityqualité informationinformation?
174
501260
4591
Saurons-nous concevoir
une nouvelle infrastructure
pour véhiculer
une information de qualité ?
08:38
Well, I believe we can,
175
506371
1230
Je pense que oui.
08:39
and I've got a fewpeu ideasidées about
what we mightpourrait be ablecapable to actuallyréellement do.
176
507625
3357
J'ai quelques idées pour y arriver.
08:43
So firstlyd'abord, if we're serioussérieux
about bringingapportant the publicpublic into this,
177
511006
3103
D'abord, si nous sommes
déterminés à engager le public,
Wikipedia pourrait
être une source d'inspiration.
08:46
can we take some inspirationinspiration
from WikipediaWikipedia?
178
514133
2381
Ils ont montré que c'est faisable.
08:48
They'veIls ont shownmontré us what's possiblepossible.
179
516538
1824
08:50
Yes, it's not perfectparfait,
180
518386
1151
Ce n'est pas parfait
08:51
but they'veils ont demonstrateddémontré
that with the right structuresles structures,
181
519561
2634
mais ils ont démontré
qu'avec les structures adéquates,
08:54
with a globalglobal outlookperspective
and lots and lots of transparencytransparence,
182
522219
2635
une vision mondiale
et une transparence totale,
on peut construire quelque chose
qui gagnera la confiance du public.
08:56
you can buildconstruire something
that will earnGagnez the trustconfiance of mostles plus people.
183
524878
3096
08:59
Because we have to find a way
to taprobinet into the collectivecollectif wisdomsagesse
184
527998
3162
Nous devons trouver un moyen
de puiser dans la sagesse collective
09:03
and experienceexpérience of all usersutilisateurs.
185
531184
2309
et l'expérience de tous les utilisateurs,
09:05
This is particularlyparticulièrement the caseCas
for womenfemmes, people of colorCouleur
186
533517
2646
particulièrement les femmes,
les personnes de couleur
09:08
and underrepresentedsous-représentés groupsgroupes.
187
536187
1346
et les minorités.
09:09
Because guessdeviner what?
188
537557
1166
Pourquoi ?
Parce qu'ils sont spécialisés
dans la haine et la désinformation
09:10
They are expertsexperts when it comesvient
to hatehaine and disinformationdésinformation,
189
538747
2735
09:13
because they have been the targetscibles
of these campaignscampagnes for so long.
190
541506
3516
dès lors qu'ils sont la cible
de ces campagnes depuis si longtemps.
09:17
And over the yearsannées,
they'veils ont been raisingélevage flagsdrapeaux,
191
545046
2350
Cela fait des années
qu'ils sonnent l'alarme
09:19
and they haven'tn'a pas been listenedécouté to.
192
547420
1665
mais personne ne les écoute.
09:21
This has got to changechangement.
193
549109
1280
Cela doit changer.
09:22
So could we buildconstruire a WikipediaWikipedia for trustconfiance?
194
550807
4326
Est-il possible de construire
un Wikipedia de la confiance ?
09:27
Could we find a way that usersutilisateurs
can actuallyréellement providefournir insightsdes idées?
195
555157
4189
Comment les utilisateurs pourraient-ils
nous nourrir de leurs idées ?
09:31
They could offeroffre insightsdes idées around
difficultdifficile content-moderationmodération du contenu decisionsles décisions.
196
559370
3697
Des idées au sujet des décisions complexes
de la modération de contenu.
09:35
They could providefournir feedbackretour d'information
197
563091
1463
Un retour quand les plateformes décident
de mettre en œuvre des changements.
09:36
when platformsplateformes decidedécider
they want to rollrouleau out newNouveau changeschangements.
198
564578
3041
09:40
SecondSeconde, people'sles gens experiencesexpériences
with the informationinformation is personalizedpersonnalisé.
199
568241
4162
Ensuite, l'expérience que les gens ont
de l'information est personnalisée.
09:44
My FacebookFacebook newsnouvelles feedalimentation
is very differentdifférent to yoursle tiens.
200
572427
2643
Mon fil de Facebook
est différent du vôtre.
09:47
Your YouTubeYouTube recommendationsrecommandations
are very differentdifférent to minemien.
201
575094
2745
Vos recommandations Youtube
sont différentes des miennes.
09:49
That makesfait du it impossibleimpossible for us
to actuallyréellement examineexaminer
202
577863
2492
Ceci rend impossible
l'analyse en profondeur
09:52
what informationinformation people are seeingvoyant.
203
580379
2023
des informations vues par les gens.
09:54
So could we imagineimaginer
204
582815
1389
On pourrait imaginer
09:56
developingdéveloppement some kindgentil of centralizedcentralisé
openouvrir repositorydépôt for anonymizedanonymisées dataLes données,
205
584228
4778
de créer une sorte de répertoire ouvert
pour les données anonymisées
10:01
with privacyvie privée and ethicaléthique
concernspréoccupations builtconstruit in?
206
589030
2864
qui prenne en considération
vie privée et éthique.
10:04
Because imagineimaginer what we would learnapprendre
207
592220
1778
Imaginez le potentiel de compréhension
10:06
if we builtconstruit out a globalglobal networkréseau
of concernedconcerné citizenscitoyens
208
594022
3261
issu de la création d'un réseau mondial
de citoyens engagés
10:09
who wanted to donatefaire un don
theirleur socialsocial dataLes données to sciencescience.
209
597307
3294
qui souhaitent faire don
de leurs données sociales à la science.
10:13
Because we actuallyréellement know very little
210
601141
1722
Nous ignorons en effet
les conséquences à long terme
de la haine et de la désinformation
10:14
about the long-termlong terme consequencesconséquences
of hatehaine and disinformationdésinformation
211
602887
2881
10:17
on people'sles gens attitudesattitudes and behaviorscomportements.
212
605792
1975
sur l'état d'esprit et les comportements.
10:20
And what we do know,
213
608236
1167
Et ce que nous en savons
10:21
mostles plus of that has been
carriedporté out in the US,
214
609427
2193
provient d'études
réalisées aux États-Unis,
10:23
despitemalgré the factfait that
this is a globalglobal problemproblème.
215
611644
2381
alors que le problème est mondial.
10:26
We need to work on that, too.
216
614049
1635
Nous devons aussi remédier à ça.
10:28
And thirdtroisième,
217
616192
1150
Troisièmement,
10:29
can we find a way to connectrelier the dotspoints?
218
617366
2310
comment relier toutes les parties ?
10:31
No one sectorsecteur, let aloneseul nonprofitnon lucratif,
start-upmise en service or governmentgouvernement,
219
619700
3438
Aucun secteur seul, encore moins une ONG,
une start-up ou un gouvernement
ne pourra résoudre ça.
10:35
is going to solverésoudre this.
220
623162
1422
Mais de nombreuses personnes
intelligentes dans le monde
10:36
But there are very smartintelligent people
right around the worldmonde
221
624608
2564
10:39
workingtravail on these challengesdéfis,
222
627196
1381
s'attaquent à ces défis
dans les salles de rédaction,
10:40
from newsroomssalles de presse, civilcivil societysociété,
academiamilieu universitaire, activistactiviste groupsgroupes.
223
628601
3576
la société civile, le monde académique,
les communautés activistes.
10:44
And you can see some of them here.
224
632201
1898
En voici quelques-uns.
Certains élaborent des indicateurs
de crédibilité des contenus.
10:46
Some are buildingbâtiment out indicatorsindicateurs
of contentcontenu credibilitycrédibilité.
225
634123
2927
D'autres vérifient les faits
10:49
OthersD’autres are fact-checkingvérification des faits,
226
637074
1246
10:50
so that falsefaux claimsréclamations, videosvidéos and imagesimages
can be down-rankedclassé sain d'estince by the platformsplateformes.
227
638344
3591
pour dégrader le taux de référencement
des allégations, vidéos et images fausses.
10:53
A nonprofitnon lucratif I helpedaidé
to founda trouvé, First DraftProjet,
228
641959
2213
J'ai participé à la création
d'une ONG, First Draft,
10:56
is workingtravail with normallynormalement competitivecompétitif
newsroomssalles de presse around the worldmonde
229
644196
2968
qui collabore avec des salles
de rédaction dans le monde
10:59
to help them buildconstruire out investigatived’enquête,
collaborativecollaboratif programsprogrammes.
230
647188
3503
pour les aider à élaborer des programmes
collaboratifs d'investigation.
11:03
And DannyDanny HillisHillis, a softwareLogiciel architectarchitecte,
231
651231
2309
Dennis Hillis, un programmateur,
11:05
is designingconception a newNouveau systemsystème
calledappelé The UnderlaySous-couche,
232
653564
2381
conçoit un nouveau système appelé
The Underlay,
qui sera l'archive de toutes
les déclarations publiques de faits
11:07
whichlequel will be a recordrecord
of all publicpublic statementsdéclarations of factfait
233
655969
2775
11:10
connectedconnecté to theirleur sourcessources,
234
658768
1329
reliées à leurs sources
afin que le public et les algorithmes
11:12
so that people and algorithmsalgorithmes
can better judgejuge what is crediblecrédible.
235
660121
3654
puissent mieux évaluer
ce qui est crédible.
Des éducateurs dans le monde
testent diverses techniques
11:16
And educatorséducateurs around the worldmonde
are testingessai differentdifférent techniquestechniques
236
664800
3356
11:20
for findingdécouverte waysfaçons to make people
criticalcritique of the contentcontenu they consumeconsommer.
237
668180
3484
pour aiguiser l'esprit critique des gens
par rapport aux contenus.
11:24
All of these effortsefforts are wonderfulformidable,
but they're workingtravail in silossilos,
238
672633
3141
Tous ces efforts sont impressionnants
mais ils sont dans des silos
11:27
and manybeaucoup of them are woefullyterriblement underfundedsous-financé.
239
675798
2680
et la plupart sont lamentablement
sous-financés.
11:30
There are alsoaussi hundredsdes centaines
of very smartintelligent people
240
678502
2053
Des centaines de personnes brillantes
11:32
workingtravail insideà l'intérieur these companiesentreprises,
241
680579
1652
travaillent dans ces entreprises
mais à nouveau, leurs efforts
ne sont pas consolidés
11:34
but again, these effortsefforts
can feel disjointeddisjoints,
242
682255
2325
11:36
because they're actuallyréellement developingdéveloppement
differentdifférent solutionssolutions to the sameMême problemsproblèmes.
243
684604
3937
car ils développent des solutions
différentes aux mêmes problèmes.
11:41
How can we find a way
to bringapporter people togetherensemble
244
689205
2269
Comment associer ces personnes
11:43
in one physicalphysique locationemplacement
for daysjournées or weekssemaines at a time,
245
691498
3278
dans un seul lieu physique,
pendant quelques jours ou semaines,
11:46
so they can actuallyréellement tackletacle
these problemsproblèmes togetherensemble
246
694800
2396
pour leur permettre de réfléchir
ensemble à ces problèmes
11:49
but from theirleur differentdifférent perspectivespoints de vue?
247
697220
1818
mais avec leur propre perspective ?
11:51
So can we do this?
248
699062
1340
Est-ce possible ?
11:52
Can we buildconstruire out a coordinatedcoordonné,
ambitiousambitieux responseréponse,
249
700426
3239
Est-il possible de créer une réponse
ambitieuse et coordonnée,
11:55
one that matchescorrespond à the scaleéchelle
and the complexitycomplexité of the problemproblème?
250
703689
3709
à la hauteur de l'échelle
et de la complexité de ce problème ?
11:59
I really think we can.
251
707819
1373
J'en suis convaincue.
12:01
TogetherEnsemble, let's rebuildreconstruire
our informationinformation commonsChambre des communes.
252
709216
2959
Ensemble, reconstruisons
nos fondations communes de l'information.
12:04
Thank you.
253
712819
1190
Merci.
12:06
(ApplauseApplaudissements)
254
714033
3728
(Applaudissements)
Translated by Claire Ghyselen
Reviewed by Anne-Sophie Matichard

▲Back to top

ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com