ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com
TED2019

Claire Wardle: How you can help transform the internet into a place of trust

Claire Wardle: Come si può aiutare a trasformare internet in un luogo di fiducia

Filmed:
1,319,606 views

Come possiamo fermare la diffusione di contenuti ingannevoli, qualche volta pericolosi, e allo stesso tempo mantenere un internet che abbia al centro la libertà di espressione? L'esperta di disinformazione Claire Wardle esplora le nuove sfide dell'inquinato ambiente online e configura un piano per trasformare internet in un luogo di fiducia, con l'aiuto degli utenti di tutti i giorni. Ci dice: "Assieme, ricostruiamo le basi comuni dell'informazione".
- Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online. Full bio

Double-click the English transcript below to play the video.

00:13
No matterimporta who you are or where you livevivere,
0
1548
2516
Non importa chi siete o dove vivete,
credo che voi abbiate almeno un parente
00:16
I'm guessingindovinando that you have
at leastmeno one relativeparente
1
4088
2356
00:18
that likespiace to forwardinoltrare those emailsmessaggi di posta elettronica.
2
6468
2334
a cui piace inoltrare quelle email.
00:21
You know the onesquelli I'm talkingparlando about --
3
9206
1900
Sapete di quali mail sto parlando,
00:23
the onesquelli with dubiousdubbia claimsreclami
or conspiracycospirazione videosvideo.
4
11130
2854
quelle con dichiarazioni dubbie
o video di complotti.
00:26
And you've probablyprobabilmente
alreadygià mutedsilenziato them on FacebookFacebook
5
14315
2668
Probabilmente li avete
già silenziati su Facebook
proprio perché condividono
post \come questo.
00:29
for sharingcompartecipazione socialsociale postsPost like this one.
6
17007
2348
00:31
It's an imageImmagine of a bananaBanana
7
19379
1404
È l'immagine di una banana
00:32
with a strangestrano redrosso crossattraversare
runningin esecuzione throughattraverso the centercentro.
8
20807
2667
con una strana croce rossa
che attraversa il centro.
00:35
And the texttesto around it is warningavvertimento people
9
23498
2139
E il testo che l'accompagna
avverte la gente
00:37
not to eatmangiare fruitsfrutta that look like this,
10
25661
2158
di non mangiare la frutta
con quell'aspetto,
insinuando che vi abbiano
iniettato del sangue
00:39
suggestingsuggerendo they'veessi hanno been
injectediniettato with bloodsangue
11
27843
2028
00:41
contaminatedcontaminati with the HIVHIV virusvirus.
12
29895
2130
contaminato con il virus dell'HIV.
Il messaggio da condividere
sopra la foto dice solamente:
00:44
And the socialsociale shareCondividere messagemessaggio
abovesopra it simplysemplicemente saysdice,
13
32049
2603
"Per favore, inoltratelo
per salvare delle vite."
00:46
"Please forwardinoltrare to savesalvare livesvite."
14
34676
2181
00:49
Now, fact-checkersfact-cheer have been debunkingDebunking
this one for yearsanni,
15
37672
3294
Ora, chi effettua le verifiche
l'ha smentito per anni,
00:52
but it's one of those rumorsvoci
that just won'tnon lo farà diemorire.
16
40990
2809
ma è una di quelle dicerie
che non vogliono proprio morire.
00:55
A zombiezombie rumorpettegolezzo.
17
43823
1271
La diceria zombi.
00:57
And, of coursecorso, it's entirelyinteramente falsefalso.
18
45513
2093
E naturalmente, è assolutamente falsa.
Potremmo essere tentati di ridere
per una cosa come questa e dire:
01:00
It mightpotrebbe be temptingallettante to laughridere
at an exampleesempio like this, to say,
19
48180
2959
01:03
"Well, who would believe this, anywaycomunque?"
20
51163
1884
"Ma comunque, chi ci crederebbe?"
Ma la ragione per cui è una diceria zombi
01:05
But the reasonragionare it's a zombiezombie rumorpettegolezzo
21
53419
1626
01:07
is because it tapsrubinetti into people'spersone di
deepestpiù profondo fearspaure about theirloro ownproprio safetysicurezza
22
55069
3889
è che tocca le paure più profonde
della gente sulla propria sicurezza
01:10
and that of the people they love.
23
58982
2175
e la sicurezza di quelli che amano.
01:13
And if you spendtrascorrere as enoughabbastanza time
as I have looking at misinformationdisinformazione,
24
61783
3273
Se passate tanto tempo come me
a guardare la cattiva informazione,
01:17
you know that this is just
one exampleesempio of manymolti
25
65080
2420
sapete che questo
è solo uno dei molti esempi
01:19
that tapsrubinetti into people'spersone di deepestpiù profondo
fearspaure and vulnerabilitiesvulnerabilità.
26
67524
3047
che toccano le paure e le fragilità
più profonde delle persone.
01:23
EveryOgni day, acrossattraverso the worldmondo,
we see scorespunteggi of newnuovo memesmemi on InstagramInstagram
27
71214
4369
Ogni giorno in tutto il mondo,
vediamo un sacco di meme su Instagram
01:27
encouragingincoraggiante parentsgenitori
not to vaccinatevaccinare theirloro childrenbambini.
28
75607
3039
che incoraggiano i genitori
a non vaccinare i loro bambini.
Sempre nuovi video su YouTube spiegano
che il cambiamento climatico è una bufala.
01:30
We see newnuovo videosvideo on YouTubeYouTube
explainingspiegando that climateclima changemodificare is a hoaxinganno.
29
78670
4532
Su tutte le piattaforme vediamo
fiumi di post che demonizzano gli altri
01:35
And acrossattraverso all platformspiattaforme, we see
endlessinfinito postsPost designedprogettato to demonizedemonizzare othersaltri
30
83226
4302
01:39
on the basisbase of theirloro racegara,
religionreligione or sexualitysessualità.
31
87552
3501
sulla base della loro razza,
religione o sessualità.
01:44
WelcomeBenvenuto to one of the centralcentrale
challengessfide of our time.
32
92314
3030
Benvenuti in una delle sfide
fondamentali dei nostri tempi.
01:47
How can we maintainmantenere an internetInternet
with freedomla libertà of expressionespressione at the corenucleo,
33
95647
4025
Come possiamo avere una rete
con al centro la libertà di espressione,
01:51
while alsoanche ensuringgarantendo that the contentsoddisfare
that's beingessere disseminateddiffusi
34
99696
3303
e assicurare allo stesso tempo
che il contenuto che viene diffuso
01:55
doesn't causecausa irreparableirrimediabile harmsHarms
to our democraciesdemocrazie, our communitiescomunità
35
103023
3886
non causerà danni irreparabili
alle nostre democrazie, alle comunità
01:58
and to our physicalfisico and mentalmentale well-beingbenessere?
36
106933
2238
e al nostro benessere fisico e mentale?
02:01
Because we livevivere in the informationinformazione ageetà,
37
109998
2087
Perché viviamo nell'era dell'informazione,
02:04
yetancora the centralcentrale currencyvaluta
uponsu whichquale we all dependdipendere -- informationinformazione --
38
112109
3547
ma la valuta fondamentale
da cui tutti dipendiamo, l'informazione,
non è più ritenuta sempre affidabile
02:07
is no longerpiù a lungo deemedritenuto entirelyinteramente trustworthyaffidabile
39
115680
2357
02:10
and, at timesvolte, can appearapparire
downrightdecisamente dangerouspericoloso.
40
118061
2328
e, alle volte, può essere
veramente pericolosa.
02:12
This is thanksGrazie in partparte to the runawayscappa
growthcrescita of socialsociale sharingcompartecipazione platformspiattaforme
41
120811
3937
In parte lo si deve alla rapida crescita
di piattaforme di condivisione
dove possiamo leggere velocemente,
02:16
that allowpermettere us to scrollscorrere throughattraverso,
42
124772
1642
02:18
where liesbugie and factsfatti sitsedersi sidelato by sidelato,
43
126438
2222
e dove bugie e fatti
stanno fianco a fianco,
ma senza nessuno dei tradizionali
segnali di attendibilità.
02:20
but with nonenessuna of the traditionaltradizionale
signalssegnali of trustworthinessaffidabilità.
44
128684
3071
02:24
And goodnessbontà -- our languageLingua around this
is horriblyorribilmente muddledconfuso.
45
132268
3619
E mamma mia, la nostra lingua
su questo è orribilmente confusa.
02:27
People are still obsessedossessionato
with the phrasefrase "fakefalso newsnotizia,"
46
135911
3103
La gente è ancora ossessionata
dall'espressione "fake news",
02:31
despitenonostante the factfatto that
it's extraordinarilyeccezionalmente unhelpfulinutile
47
139038
2531
nonostante il fatto
che sia incredibilmente inutile
02:33
and used to describedescrivere a numbernumero of things
that are actuallyin realtà very differentdiverso:
48
141593
3460
e usata per descrivere cose
che in realtà sono molto diverse:
02:37
liesbugie, rumorsvoci, hoaxesbufale,
conspiraciescospirazioni, propagandapropaganda.
49
145077
3386
bugie, dicerie, bufale,
complotti, propaganda.
02:40
And I really wishdesiderio
we could stop usingutilizzando a phrasefrase
50
148911
2912
Vorrei davvero che la smettessimo
di usare un'espressione
02:43
that's been co-optedcooptato by politicianspolitici
right around the worldmondo,
51
151847
2862
che è stata cooptata
dai politici di tutto il mondo,
sia di destra che di sinistra,
02:46
from the left and the right,
52
154733
1471
02:48
used as a weaponarma to attackattacco
a freegratuito and independentindipendente pressstampa.
53
156228
3222
usata come un'arma per attaccare
la stampa libera e indipendente.
02:52
(ApplauseApplausi)
54
160307
4702
(Applausi)
02:57
Because we need our professionalprofessionale
newsnotizia mediamedia now more than ever.
55
165033
3462
Perché abbiamo bisogno dei nostri
mezzi d'informazione, ora più che mai.
Oltretutto, molti di questi contenuti
non si travestono nemmeno da notizie.
03:00
And besidesinoltre, mostmaggior parte of this contentsoddisfare
doesn't even masqueradeMasquerade as newsnotizia.
56
168882
3373
03:04
It's memesmemi, videosvideo, socialsociale postsPost.
57
172279
2642
Sono meme, video, post sui social.
03:06
And mostmaggior parte of it is not fakefalso;
it's misleadingfuorviante.
58
174945
3453
E la maggior parte non sono falsi;
sono fuorvianti.
03:10
We tendtendere to fixatefissarsi on what's truevero or falsefalso.
59
178422
3015
Tendiamo a fissarci
su ciò che è vero o falso.
03:13
But the biggestmaggiore concernpreoccupazione is actuallyin realtà
the weaponizationarmezzazione of contextcontesto.
60
181461
4032
Ma la più grande preoccupazione
è che il contesto si usa come un'arma.
03:18
Because the mostmaggior parte effectiveefficace disinformationDisinformazione
61
186855
1968
Perché la disinformazione più efficace
è sempre stata quella
che contiene un nucleo di verità.
03:20
has always been that
whichquale has a kernelkernel of truthverità to it.
62
188847
3048
03:23
Let's take this exampleesempio
from LondonLondra, from MarchMarzo 2017,
63
191919
3476
Prendiamo come esempio Londra
nel marzo del 2017,
un tweet che è circolato molto
03:27
a tweetTweet that circulatedcircolato widelyampiamente
64
195419
1540
03:28
in the aftermathconseguenze of a terroristterrorista incidentincidente
on WestminsterWestminster BridgePonte.
65
196983
3587
dopo il disastroso attacco terroristico
sul Westminster Bridge.
Quest'immagine è vera, non è un falso.
03:32
This is a genuinegenuino imageImmagine, not fakefalso.
66
200594
2428
03:35
The womandonna who appearsappare in the photographfotografia
was interviewedintervistato afterwardsin seguito,
67
203046
3169
La donna che appare nella foto
è stata intervistata subito dopo
e ha spiegato che era
assolutamente traumatizzata.
03:38
and she explainedha spiegato that
she was utterlycompletamente traumatizedtraumatizzati.
68
206239
2409
Era al telefono con una persona cara,
03:40
She was on the phoneTelefono to a lovedamato one,
69
208672
1738
e non stava guardando la vittima
per un senso di rispetto.
03:42
and she wasn'tnon era looking
at the victimvittima out of respectrispetto.
70
210434
2618
Ma continuava a circolare diffusamente
con questa didascalia islamofobica,
03:45
But it still was circulatedcircolato widelyampiamente
with this IslamophobicIslamofobo framinginquadratura,
71
213076
3960
con vari hashtag, incluso: #BanIslam.
03:49
with multiplemultiplo hashtagshashtags,
includingCompreso: #BanIslamBanIslam.
72
217060
3046
03:52
Now, if you workedlavorato at TwitterTwitter,
what would you do?
73
220425
2398
Ora, se voi lavoraste
per Twitter, cosa fareste?
La cancellereste o la lascereste?
03:54
Would you take that down,
or would you leavepartire it up?
74
222847
2562
03:58
My gutintestino reactionreazione, my emotionalemotivo reactionreazione,
is to take this down.
75
226553
3429
La mia reazione istintiva, una reazione
emotiva, sarebbe di cancellarla.
Odio la didascalia di quest'immagine.
04:02
I hateodiare the framinginquadratura of this imageImmagine.
76
230006
2142
04:04
But freedomla libertà of expressionespressione
is a humanumano right,
77
232585
2388
Ma la libertà di espressione
è un diritto umano,
04:06
and if we startinizio takingpresa down speechdiscorso
that makesfa us feel uncomfortablescomodo,
78
234997
3225
e se iniziamo a eliminare discorsi
che ci fanno sentire a disagio,
siamo nei guai.
04:10
we're in troubleguaio.
79
238246
1230
Questo potrebbe sembrare un caso evidente,
04:11
And this mightpotrebbe look like a clear-cutnetto casecaso,
80
239500
2294
ma molti discorsi non lo sono.
04:13
but, actuallyin realtà, mostmaggior parte speechdiscorso isn't.
81
241818
1698
04:15
These linesLinee are incrediblyincredibilmente
difficultdifficile to drawdisegnare.
82
243540
2436
Lo spartiacque è
molto difficile da individuare.
Una decisione con buone
intenzioni per una persona
04:18
What's a well-meaningben intenzionato
decisiondecisione by one personpersona
83
246000
2281
04:20
is outrighttitolo definitivo censorshipcensura to the nextIl prossimo.
84
248305
2077
è una censura assoluta per un'altra.
04:22
What we now know is that
this accountaccount, TexasTexas LoneLone StarStar,
85
250759
2929
Ora sappiamo che questo account,
Texas Lone Star,
fa parte di una campagna russa
di disinformazione più ampia,
04:25
was partparte of a widerpiù ampia RussianRusso
disinformationDisinformazione campaigncampagna,
86
253712
3230
una campagna che da allora è stata chiusa.
04:28
one that has sinceda been takenprese down.
87
256966
2151
04:31
Would that changemodificare your viewvista?
88
259141
1563
Questo vi farebbe cambiare idea?
04:33
It would mineil mio,
89
261322
1159
A me si,
perché qui si tratta
di una campagna concertata
04:34
because now it's a casecaso
of a coordinatedcoordinato campaigncampagna
90
262505
2301
per seminare discordia.
04:36
to sowscrofa discorddiscordia.
91
264830
1215
E per tutti quelli
a cui piacerebbe pensare
04:38
And for those of you who'dchi avrebbe like to think
92
266069
1961
che l'intelligenza artificiale
risolverà tutti i problemi,
04:40
that artificialartificiale intelligenceintelligenza
will solverisolvere all of our problemsi problemi,
93
268054
2831
penso siate d'accordo
nel ritenere che siamo lontani
04:42
I think we can agreeessere d'accordo
that we're a long way away
94
270909
2225
04:45
from AIAI that's ablecapace to make sensesenso
of postsPost like this.
95
273158
2587
da un'intelligenza artificiale
capace di analizzare un post come questo.
04:48
So I'd like to explainspiegare
threetre interlockingad incastro issuesproblemi
96
276856
2507
Vorrei spiegarvi
tre problematiche interconnesse
04:51
that make this so complexcomplesso
97
279387
2373
che rendono il tutto molto complesso,
04:53
and then think about some waysmodi
we can considerprendere in considerazione these challengessfide.
98
281784
3122
e poi cercare dei modi
per affrontare queste sfide.
04:57
First, we just don't have
a rationalrazionale relationshiprelazione to informationinformazione,
99
285348
3890
Primo, noi semplicemente non abbiamo
un rapporto razionale con l'informazione,
05:01
we have an emotionalemotivo one.
100
289262
1468
ne abbiamo uno emotivo.
05:02
It's just not truevero that more factsfatti
will make everything OK,
101
290754
3794
Semplicemente non è vero che più fatti
metterebbero tutto a posto,
05:06
because the algorithmsalgoritmi that determinedeterminare
what contentsoddisfare we see,
102
294572
3100
perché gli algoritmi che determinano
i contenuti che noi vediamo
05:09
well, they're designedprogettato to rewardricompensa
our emotionalemotivo responsesrisposte.
103
297696
3127
sono concepiti per premiare
le nostre risposte emotive.
E quando abbiamo paura,
05:12
And when we're fearfulpauroso,
104
300847
1381
05:14
oversimplifiedeccessivamente semplificata narrativesnarrazioni,
conspiratorialconspiratorial explanationsspiegazioni
105
302252
3174
una narrativa semplificata,
la cospirazione come spiegazione,
e un linguaggio che demonizza gli altri
sono molto più efficaci.
05:17
and languageLingua that demonizesdemonizza othersaltri
is farlontano more effectiveefficace.
106
305450
3418
05:21
And besidesinoltre, manymolti of these companiesaziende,
107
309538
1874
Inoltre, molte di queste compagnie,
05:23
theirloro businessattività commerciale modelmodello
is attachedallegato to attentionAttenzione,
108
311436
2546
il loro modello imprenditoriale
richiede attenzione,
05:26
whichquale meanssi intende these algorithmsalgoritmi
will always be skewedobliqua towardsin direzione emotionemozione.
109
314006
3690
il che significa che questi logaritmi
saranno sempre deviati verso l'emozione.
05:30
SecondSecondo, mostmaggior parte of the speechdiscorso
I'm talkingparlando about here is legallegale.
110
318371
4298
Secondo, la maggior parte di quello
di cui sto parlando ora è legale.
05:35
It would be a differentdiverso matterimporta
111
323081
1446
Sarebbe tutta un'altra cosa
se parlassi di immagini
di violenza su minori
05:36
if I was talkingparlando about
childbambino sexualsessuale abuseabuso imageryimmagini
112
324551
2341
o di contenuti che incitano alla violenza.
05:38
or contentsoddisfare that incitesincita violenceviolenza.
113
326916
1927
05:40
It can be perfectlyperfettamente legallegale
to postinviare an outrighttitolo definitivo liemenzogna.
114
328867
3270
Può essere perfettamente legale
pubblicare una palese bugia.
05:45
But people keep talkingparlando about takingpresa down
"problematicproblematico" or "harmfuldannoso" contentsoddisfare,
115
333130
4034
Ma si continua a parlare di oscurare
i contenuti "problematici" o "dannosi",
senza una chiara definizione
di ciò che si intende,
05:49
but with no clearchiaro definitiondefinizione
of what they mean by that,
116
337188
2609
incluso Mark Zuckerberg,
05:51
includingCompreso MarkMark ZuckerbergZuckerberg,
117
339821
1264
che di recente ha chiesto delle regole
per la moderazione globale del linguaggio.
05:53
who recentlyrecentemente calledchiamato for globalglobale
regulationregolamento to moderatemoderare speechdiscorso.
118
341109
3412
05:56
And my concernpreoccupazione is that
we're seeingvedendo governmentsi governi
119
344870
2215
La mia preoccupazione è che stiamo vedendo
governi di tutto il mondo
05:59
right around the worldmondo
120
347109
1292
06:00
rollingrotolamento out hastyfrettoloso policypolitica decisionsdecisioni
121
348425
2676
presentare decisioni politiche frettolose
06:03
that mightpotrebbe actuallyin realtà triggergrilletto
much more seriousgrave consequencesconseguenze
122
351125
2746
che potrebbero innescare
delle conseguenze molto più serie
06:05
when it comesviene to our speechdiscorso.
123
353895
1714
relativamente al nostro discorso.
06:08
And even if we could decidedecidere
whichquale speechdiscorso to take up or take down,
124
356006
3706
Anche se noi potessimo decidere
quale discorso lasciare e quale oscurare,
06:11
we'venoi abbiamo never had so much speechdiscorso.
125
359736
2174
non ci sono mai stati così tanti messaggi.
06:13
EveryOgni secondsecondo, millionsmilioni
of piecespezzi of contentsoddisfare
126
361934
2131
Ogni secondo, milioni di contenuti
vengono caricati nel mondo
06:16
are uploadedcaricato by people
right around the worldmondo
127
364089
2107
in diverse lingue,
06:18
in differentdiverso languagesle lingue,
128
366220
1168
e si riferiscono a migliaia
di contesti culturali diversi.
06:19
drawingdisegno on thousandsmigliaia
of differentdiverso culturalculturale contextscontesti.
129
367412
2768
06:22
We'veAbbiamo simplysemplicemente never had
effectiveefficace mechanismsmeccanismi
130
370204
2532
Non abbiamo mai avuto
dei meccanismi efficaci
per moderare interventi su questa scala,
06:24
to moderatemoderare speechdiscorso at this scalescala,
131
372760
1738
06:26
whetherse poweredmotorizzato by humansgli esseri umani
or by technologytecnologia.
132
374522
2801
che siano alimentati
dagli umani o dalla tecnologia.
06:30
And thirdterzo, these companiesaziende --
GoogleGoogle, TwitterTwitter, FacebookFacebook, WhatsAppWhatsApp --
133
378284
3944
E terzo, queste compagnie,
Google, Twitter, Facebook, WhatsApp,
06:34
they're partparte of a widerpiù ampia
informationinformazione ecosystemecosistema.
134
382252
2841
sono parte di un ecosistema più ampio.
06:37
We like to layposare all the blamecolpa
at theirloro feetpiedi, but the truthverità is,
135
385117
3352
Ci piace dare tutta la colpa a loro,
ma la verità è che
06:40
the massmassa mediamedia and electedeletto officialsfunzionari
can alsoanche playgiocare an equalpari roleruolo
136
388493
3830
i mass media e i politici possono giocare
un ruolo ugualmente importante
06:44
in amplifyingamplificando rumorsvoci and conspiraciescospirazioni
when they want to.
137
392347
2913
nell'amplificare le dicerie
e i complotti quando lo vogliono.
06:47
As can we, when we mindlesslysenza pensare forwardinoltrare
divisiveche divide or misleadingfuorviante contentsoddisfare
138
395800
4944
Come possiamo farlo noi,
quando senza pensarci
inoltriamo messaggi divisivi
o fuorvianti senza verificare.
06:52
withoutsenza tryingprovare.
139
400768
1285
Stiamo aumentando l'inquinamento.
06:54
We're addingaggiungendo to the pollutioninquinamento.
140
402077
1800
06:57
I know we're all looking for an easyfacile fixfissare.
141
405236
2618
So che stiamo cercando tutti
una facile soluzione.
Ma semplicemente non ce n'è una.
06:59
But there just isn't one.
142
407878
1667
07:01
Any solutionsoluzione will have to be rolledlaminati a out
at a massivemassiccio scalescala, internetInternet scalescala,
143
409950
4445
Qualsiasi soluzione dovrà essere lanciata
su scala enorme, su scala internet,
e certo, le piattaforme sono abituate
a operare a quei livelli.
07:06
and yes, the platformspiattaforme,
they're used to operatingoperativo at that levellivello.
144
414419
3261
07:09
But can and should we allowpermettere them
to fixfissare these problemsi problemi?
145
417704
3472
Ma possiamo e dovremmo permettere
che loro risolvano questi problemi?
Sicuramente stanno provando.
07:13
They're certainlycertamente tryingprovare.
146
421668
1232
07:14
But mostmaggior parte of us would agreeessere d'accordo that, actuallyin realtà,
we don't want globalglobale corporationsaziende
147
422924
4086
Ma molti di noi in realtà direbbero
che non vogliono le corporazioni globali
a salvaguardia della verità
e della correttezza in rete.
07:19
to be the guardiansGuardiani of truthverità
and fairnessequità onlinein linea.
148
427034
2332
07:21
And I alsoanche think the platformspiattaforme
would agreeessere d'accordo with that.
149
429390
2537
Penso che anche le piattaforme
sarebbero d'accordo.
07:24
And at the momentmomento,
they're markingmarcatura theirloro ownproprio homeworkcompiti a casa.
150
432257
2881
Al momento, loro stanno facendo
i loro compiti per casa.
Amano dirci
07:27
They like to tell us
151
435162
1198
07:28
that the interventionsinterventi
they're rollingrotolamento out are workinglavoro,
152
436384
2579
che gli interventi che operano
stanno funzionando,
ma dato che scrivono loro
le relazioni sulla trasparenza,
07:30
but because they writeScrivi
theirloro ownproprio transparencytrasparenza reportsrapporti,
153
438987
2540
non c'è modo di verificare in modo
indipendente cosa sta realmente accadendo.
07:33
there's no way for us to independentlyin modo indipendente
verifyverificare what's actuallyin realtà happeningavvenimento.
154
441551
3618
07:38
(ApplauseApplausi)
155
446431
3342
(Applausi)
07:41
And let's alsoanche be clearchiaro
that mostmaggior parte of the changesi cambiamenti we see
156
449797
2952
E chiariamo che molti
dei cambiamenti che vediamo
07:44
only happenaccadere after journalistsgiornalisti
undertakesi impegnano an investigationindagine
157
452773
2994
avvengono solo dopo che
un indagine giornalistica
trova le prove di faziosità
07:47
and find evidenceprova of biaspregiudizio
158
455791
1611
07:49
or contentsoddisfare that breakspause
theirloro communitycomunità guidelineslinee guida.
159
457426
2829
o di contenuti che vanno contro
le linee guida della comunità.
07:52
So yes, these companiesaziende have to playgiocare
a really importantimportante roleruolo in this processprocesso,
160
460815
4595
Quindi sì, queste compagnie devono giocare
un ruolo importante in questo processo,
ma non possono controllarlo.
07:57
but they can't controlcontrollo it.
161
465434
1560
07:59
So what about governmentsi governi?
162
467855
1518
E che dire dei governi?
Molte persone credono che delle regole
globali siano l'ultima speranza
08:01
ManyMolti people believe
that globalglobale regulationregolamento is our last hopesperanza
163
469863
3096
08:04
in termscondizioni of cleaningpulizia up
our informationinformazione ecosystemecosistema.
164
472983
2880
di pulire il nostro ecosistema
dell'informazione.
Ma quello che vedo sono legislatori
che faticano a tenersi al passo
08:07
But what I see are lawmakerslegislatori
who are strugglinglottando to keep up to dateData
165
475887
3166
08:11
with the rapidrapido changesi cambiamenti in technologytecnologia.
166
479077
2341
con la rapida evoluzione tecnologica.
Ancor peggio, stanno lavorando al buio,
08:13
And worsepeggio, they're workinglavoro in the darkbuio,
167
481442
1904
08:15
because they don't have accessaccesso to datadati
168
483370
1821
perché non hanno accesso ai dati
08:17
to understandcapire what's happeningavvenimento
on these platformspiattaforme.
169
485215
2650
per capire cosa sta accadendo
su queste piattaforme.
08:20
And anywaycomunque, whichquale governmentsi governi
would we trustfiducia to do this?
170
488260
3071
E comunque, di quale governo ci fideremmo?
C'è bisogno di una risposta globale,
non nazionale.
08:23
We need a globalglobale responserisposta,
not a nationalnazionale one.
171
491355
2770
08:27
So the missingmancante linkcollegamento is us.
172
495419
2277
Quindi, l'anello mancante siamo noi.
08:29
It's those people who use
these technologiestecnologie everyogni day.
173
497720
3123
È la gente che usa
questa tecnologia ogni giorno.
Possiamo progettare
una nuova infrastruttura
08:33
Can we designdesign a newnuovo infrastructureinfrastruttura
to supportsupporto qualityqualità informationinformazione?
174
501260
4591
per sostenere l'informazione di qualità?
08:38
Well, I believe we can,
175
506371
1230
Io penso di si,
e ho delle idee su cosa
potremmo veramente fare.
08:39
and I've got a fewpochi ideasidee about
what we mightpotrebbe be ablecapace to actuallyin realtà do.
176
507625
3357
08:43
So firstlyin primo luogo, if we're seriousgrave
about bringingportando the publicpubblico into this,
177
511006
3103
Per prima cosa, abbiamo intenzione
di coinvolgere il pubblico,
08:46
can we take some inspirationispirazione
from WikipediaWikipedia?
178
514133
2381
possiamo farci ispirare da Wikipedia?
Ci hanno dimostrato che è possibile.
08:48
They'veHanno shownmostrato us what's possiblepossibile.
179
516538
1824
Certo, non è perfetta,
08:50
Yes, it's not perfectperfezionare,
180
518386
1151
ma ci hanno dimostrato
che con la struttura giusta,
08:51
but they'veessi hanno demonstrateddimostrato
that with the right structuresstrutture,
181
519561
2634
una prospettiva globale
e moltissima trasparenza,
08:54
with a globalglobale outlookprospettiva
and lots and lots of transparencytrasparenza,
182
522219
2635
si può costruire qualcosa
che si guadagni la fiducia della gente.
08:56
you can buildcostruire something
that will earnguadagnare the trustfiducia of mostmaggior parte people.
183
524878
3096
Perché dobbiamo trovare il modo
di attingere alla saggezza collettiva
08:59
Because we have to find a way
to taprubinetto into the collectivecollettivo wisdomsaggezza
184
527998
3162
e all'esperienza di tutti gli utenti.
09:03
and experienceEsperienza of all usersutenti.
185
531184
2309
E in modo particolare per le donne,
la gente di colore
09:05
This is particularlysoprattutto the casecaso
for womendonne, people of colorcolore
186
533517
2646
e i gruppi poco rappresentati.
09:08
and underrepresentedsottorappresentate groupsgruppi.
187
536187
1346
09:09
Because guessindovina what?
188
537557
1166
Perché sapete una cosa?
Loro sono esperti
di odio e disinformazione,
09:10
They are expertsesperti when it comesviene
to hateodiare and disinformationDisinformazione,
189
538747
2735
perché sono stati per molto tempo
il bersaglio di queste campagne.
09:13
because they have been the targetsobiettivi
of these campaignscampagne for so long.
190
541506
3516
Negli anni hanno lanciato l'allarme
09:17
And over the yearsanni,
they'veessi hanno been raisingraccolta flagsBandiere,
191
545046
2350
e non stati ascoltati.
09:19
and they haven'tnon hanno been listenedascoltato to.
192
547420
1665
Questo deve cambiare.
09:21
This has got to changemodificare.
193
549109
1280
09:22
So could we buildcostruire a WikipediaWikipedia for trustfiducia?
194
550807
4326
Potremmo quindi costruire
una Wikipedia per la fiducia?
Potremmo trovare un modo in cui gli utenti
possono fornire informazioni utili?
09:27
Could we find a way that usersutenti
can actuallyin realtà providefornire insightsapprofondimenti?
195
555157
4189
Potrebbero dare opinioni sulle difficili
decisioni sulla moderazione del contenuto.
09:31
They could offeroffrire insightsapprofondimenti around
difficultdifficile content-moderationmoderazione del contenuto decisionsdecisioni.
196
559370
3697
09:35
They could providefornire feedbackrisposta
197
563091
1463
Potrebbero offrire un riscontro
09:36
when platformspiattaforme decidedecidere
they want to rollrotolo out newnuovo changesi cambiamenti.
198
564578
3041
quando le piattaforme decidono
di approntare dei cambiamenti.
09:40
SecondSecondo, people'spersone di experiencesesperienze
with the informationinformazione is personalizedpersonalizzato.
199
568241
4162
Secondo, l'esperienza della gente
con l'informazione è personalizzata.
Le notizie che mi arrivano su Facebook
sono diverse dalle vostre.
09:44
My FacebookFacebook newsnotizia feedalimentazione
is very differentdiverso to yoursil tuo.
200
572427
2643
09:47
Your YouTubeYouTube recommendationsraccomandazioni
are very differentdiverso to mineil mio.
201
575094
2745
I vostri video consigliati su YouTube
sono diversi dei miei.
09:49
That makesfa it impossibleimpossibile for us
to actuallyin realtà examineesaminare
202
577863
2492
Questo ci rende veramente
impossibile controllare
09:52
what informationinformazione people are seeingvedendo.
203
580379
2023
che informazioni la gente vede.
09:54
So could we imagineimmaginare
204
582815
1389
Quindi potremmo immaginare
09:56
developingin via di sviluppo some kindgenere of centralizedcentralizzata
openAperto repositorydeposito for anonymizedin forma anonima datadati,
205
584228
4778
di sviluppare una sorta di deposito aperto
e centralizzato di dati resi anonimi,
con attenzione alla privacy e all'etica.
10:01
with privacysulla privacy and ethicaletico
concernspreoccupazioni builtcostruito in?
206
589030
2864
Perché immaginate
cosa potremmo imparare
10:04
Because imagineimmaginare what we would learnimparare
207
592220
1778
10:06
if we builtcostruito out a globalglobale networkRete
of concernedha riguardato citizenscittadini
208
594022
3261
se costruissimo una rete globale
di cittadini preoccupati
10:09
who wanted to donatedonare
theirloro socialsociale datadati to sciencescienza.
209
597307
3294
che vogliono donare
i loro dati social alla scienza.
Perché sappiamo veramente molto poco
10:13
Because we actuallyin realtà know very little
210
601141
1722
10:14
about the long-termlungo termine consequencesconseguenze
of hateodiare and disinformationDisinformazione
211
602887
2881
delle conseguenze a lungo termine
di odio e disinformazione
sulla mentalità
e l'atteggiamento della gente.
10:17
on people'spersone di attitudesatteggiamenti and behaviorscomportamenti.
212
605792
1975
10:20
And what we do know,
213
608236
1167
E quello che sappiamo
10:21
mostmaggior parte of that has been
carriedtrasportato out in the US,
214
609427
2193
viene quasi tutto dagli Stati Uniti,
10:23
despitenonostante the factfatto that
this is a globalglobale problemproblema.
215
611644
2381
anche se questo è un problema globale.
10:26
We need to work on that, too.
216
614049
1635
Dobbiamo lavorare anche su questo.
10:28
And thirdterzo,
217
616192
1150
E terzo,
possiamo trovare un modo
di collegare i puntini?
10:29
can we find a way to connectCollegare the dotspunti?
218
617366
2310
Nessun settore, men che meno
nonprofit, start-up o un governo,
10:31
No one sectorsettore, let aloneda solo nonprofitsenza scopo di lucro,
start-upStart-up or governmentgoverno,
219
619700
3438
risolverà questo problema.
10:35
is going to solverisolvere this.
220
623162
1422
10:36
But there are very smartinteligente people
right around the worldmondo
221
624608
2564
Ma si sono persone
veramente in gamba nel mondo
che lavorano su questi cambiamenti,
10:39
workinglavoro on these challengessfide,
222
627196
1381
10:40
from newsroomsredazioni, civilcivile societysocietà,
academiamondo accademico, activistattivista groupsgruppi.
223
628601
3576
dalle redazioni, alla società civile,
l'università, i gruppi di attivisti.
10:44
And you can see some of them here.
224
632201
1898
Potete vederne alcuni qui.
Alcuni costruiscono indicatori
di credibilità del contenuto.
10:46
Some are buildingcostruzione out indicatorsindicatori
of contentsoddisfare credibilitycredibilità.
225
634123
2927
Altri controllano i fatti,
10:49
OthersGli altri are fact-checkingfact-checking,
226
637074
1246
così che le false dichiarazioni,
video e immagini
10:50
so that falsefalso claimsreclami, videosvideo and imagesimmagini
can be down-rankedal ribasso by the platformspiattaforme.
227
638344
3591
siano declassate dalle piattaforme.
10:53
A nonprofitsenza scopo di lucro I helpedaiutato
to foundtrovato, First DraftBozza,
228
641959
2213
Una non profit che ho aiutato
a fondare, First Draft,
10:56
is workinglavoro with normallynormalmente competitivecompetitivo
newsroomsredazioni around the worldmondo
229
644196
2968
lavora con redazioni
competitive in tutto il mondo
10:59
to help them buildcostruire out investigativeinvestigativo,
collaborativecollaborativo programsprogrammi.
230
647188
3503
per aiutarle a costruire dei programmi
investigativi e collaborativi.
11:03
And DannyDanny HillisHillis, a softwareSoftware architectarchitetto,
231
651231
2309
Danny Hillis, un architetto del software,
sta programmando un nuovo sistema
chiamato The Underlay,
11:05
is designingprogettazione a newnuovo systemsistema
calledchiamato The UnderlaySottoposto,
232
653564
2381
11:07
whichquale will be a recorddisco
of all publicpubblico statementsdichiarazioni of factfatto
233
655969
2775
che sarà un registro
di tutte le dichiarazioni
connesse alla loro fonte,
11:10
connectedcollegato to theirloro sourcesfonti,
234
658768
1329
così che la gente e gli algoritmi possano
giudicare meglio ciò che è credibile.
11:12
so that people and algorithmsalgoritmi
can better judgegiudice what is crediblecredibile.
235
660121
3654
11:16
And educatorseducatori around the worldmondo
are testinganalisi differentdiverso techniquestecniche
236
664800
3356
Gli educatori nel mondo
stanno verificando diverse tecniche
per trovare dei modi per rendere la gente
critica verso ciò che consumano.
11:20
for findingscoperta waysmodi to make people
criticalcritico of the contentsoddisfare they consumeconsumare.
237
668180
3484
11:24
All of these effortssforzi are wonderfulmeraviglioso,
but they're workinglavoro in silossilos,
238
672633
3141
Tutti questi sforzi sono meravigliosi,
ma si lavora in scomparti,
e tristemente molti di loro
hanno pochi fondi.
11:27
and manymolti of them are woefullytristemente underfundedsottofinanziata.
239
675798
2680
Inoltre, ci sono centinaia
di persone in gamba
11:30
There are alsoanche hundredscentinaia
of very smartinteligente people
240
678502
2053
che lavorano in queste compagnie,
11:32
workinglavoro insidedentro these companiesaziende,
241
680579
1652
11:34
but again, these effortssforzi
can feel disjointedSconnesso,
242
682255
2325
ma anche questi sforzi
sembrano scollegati,
11:36
because they're actuallyin realtà developingin via di sviluppo
differentdiverso solutionssoluzioni to the samestesso problemsi problemi.
243
684604
3937
perché stanno sviluppando
diverse soluzioni per lo stesso problema.
Come si può trovare il modo
di riunire queste persone
11:41
How can we find a way
to bringportare people togetherinsieme
244
689205
2269
11:43
in one physicalfisico locationPosizione
for daysgiorni or weekssettimane at a time,
245
691498
3278
in un unico luogo per giorni
o settimane di seguito,
di modo che affrontino
questi problemi assieme,
11:46
so they can actuallyin realtà tackleaffrontare
these problemsi problemi togetherinsieme
246
694800
2396
11:49
but from theirloro differentdiverso perspectivesprospettive?
247
697220
1818
ma dalle loro prospettive diverse?
11:51
So can we do this?
248
699062
1340
Siamo in grado di farlo?
11:52
Can we buildcostruire out a coordinatedcoordinato,
ambitiousambizioso responserisposta,
249
700426
3239
Possiamo mettere insieme
un'ambiziosa risposta coordinata,
che metta assieme la vastità
e la complessità del problema?
11:55
one that matchespartite the scalescala
and the complexitycomplessità of the problemproblema?
250
703689
3709
Penso veramente che si possa.
11:59
I really think we can.
251
707819
1373
12:01
TogetherInsieme, let's rebuildricostruire
our informationinformazione commonspopolo.
252
709216
2959
Ricostruiranno assieme
le basi comuni dell'informazione.
12:04
Thank you.
253
712819
1190
Grazie.
(Applausi)
12:06
(ApplauseApplausi)
254
714033
3728
Translated by Silvia Fornasiero
Reviewed by SILVIA ALLONE

▲Back to top

ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee