ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com
TED2019

Claire Wardle: How you can help transform the internet into a place of trust

Claire Wardle: Kako možete pomoći da internet postane mjesto povjerenja

Filmed:
1,319,606 views

Kako možemo spriječiti širenje netočnog, ponekad i opasnog sadržaja, istovremeno održavajući internet u duhu slobode izražavanja? Stručnjakinja za dezinformiranje, Claire Wardle, istražuje nove izazove našeg zagađenog internetskog okoliša i iznosi plan za preoblikovanje interneta u mjesto povjerenja - uz pomoć običnih korisnika. "Preoblikujmo zajedno naš informacijski krajolik", kaže.
- Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online. Full bio

Double-click the English transcript below to play the video.

00:13
No matterstvar who you are or where you liveživjeti,
0
1548
2516
Bez obzira tko ste i gdje živite,
00:16
I'm guessingnagađanje that you have
at leastnajmanje one relativerođak
1
4088
2356
nagađam da imate barem jednog rođaka
00:18
that likessviđa to forwardnaprijed those emailse-mail.
2
6468
2334
koji voli prosljeđivati one poruke.
00:21
You know the onesone I'm talkingkoji govori about --
3
9206
1900
Znate o kojima govorim --
onima sa sumnjivim tvrdnjama
ili snimkama teorija urota.
00:23
the onesone with dubioussumnjive claimszahtjevi
or conspiracyzavjera videosvideo.
4
11130
2854
00:26
And you've probablyvjerojatno
alreadyveć mutedprigušen them on FacebookFacebook
5
14315
2668
I vjerojatno ste ih već
blokirali na Facebooku
00:29
for sharingdijeljenje socialsocijalni postspostova like this one.
6
17007
2348
zbog dijeljenja ovakvih objava.
00:31
It's an imageslika of a bananabanana
7
19379
1404
To je slika banane
00:32
with a strangečudan redcrvena crosskriž
runningtrčanje throughkroz the centercentar.
8
20807
2667
s neobičnim crvenim križem
koji se proteže kroz sredinu.
00:35
And the texttekst around it is warningupozorenje people
9
23498
2139
Tekst uokolo upozorava ljude
00:37
not to eatjesti fruitsvoće that look like this,
10
25661
2158
da ne jedu takvo voće,
00:39
suggestingsugerirajući they'vešto ga do been
injectedubrizgava with bloodkrv
11
27843
2028
napominjući da je injektirano krvlju
00:41
contaminatedzagađen with the HIVHIV-A virusvirus.
12
29895
2130
zagađenom virusom HIV-a.
00:44
And the socialsocijalni sharePodjeli messageporuka
aboveiznad it simplyjednostavno sayskaže,
13
32049
2603
A društveno dijeljena poruka iznad
jednostavno kaže,
00:46
"Please forwardnaprijed to saveuštedjeti livesživot."
14
34676
2181
"Molimo pošaljite dalje za spas života."
00:49
Now, fact-checkersčinjenice-dame have been debunkingDebunking
this one for yearsgodina,
15
37672
3294
Stručnjaci za provjeru informacija
pokušavaju razotkriti ovo godinama,
00:52
but it's one of those rumorsglasine
that just won'tnavika dieumrijeti.
16
40990
2809
ali to je jedan od tračeva koji
odbija umrijeti.
00:55
A zombiezombi rumorglasina.
17
43823
1271
Zombijevski trač.
00:57
And, of coursenaravno, it's entirelypotpuno falselažan.
18
45513
2093
I naravno, potpuno je pogrešan.
01:00
It mightmoć be temptingprimamljivo to laughsmijeh
at an exampleprimjer like this, to say,
19
48180
2959
Dolazimo u napast smijati se
primjerima poput ovoga, reći,
01:03
"Well, who would believe this, anywayu svakom slučaju?"
20
51163
1884
"Tko bi ionako povjerovao u to?"
Ali razlog zbog kojeg je to
zombijevski trač
01:05
But the reasonrazlog it's a zombiezombi rumorglasina
21
53419
1626
01:07
is because it tapsmirozov into people'snarodno
deepestnajdublja fearsstrahovi about theirnjihov ownvlastiti safetysigurnosni
22
55069
3889
jest jer zadire u najdublje ljudske
strahove o osobnoj sigurnosti
01:10
and that of the people they love.
23
58982
2175
te sigurnosti ljudi koje vole.
A ako provedete toliko vremena koliko
i ja promatrajući dezinformacije,
01:13
And if you spendprovesti as enoughdovoljno time
as I have looking at misinformationdezinformacija,
24
61783
3273
01:17
you know that this is just
one exampleprimjer of manymnogi
25
65080
2420
znate da je ovo tek jedan
od mnogih primjera
01:19
that tapsmirozov into people'snarodno deepestnajdublja
fearsstrahovi and vulnerabilitiesranjivosti.
26
67524
3047
koji zadire u najdublje ljudske
strahove i slabosti.
01:23
EverySvaki day, acrosspreko the worldsvijet,
we see scoresrezultate of newnovi memesmemi on InstagramInstagram
27
71214
4369
Svakog dana, svuda u svijetu, vidimo
desetke novih memeova na Instagramu
01:27
encouragingohrabrujući parentsroditelji
not to vaccinatecijepiti theirnjihov childrendjeca.
28
75607
3039
koji ohrabruju roditelje
da ne cijepe svoju djecu.
01:30
We see newnovi videosvideo on YouTubeMladost
explainingobjašnjavajući that climateklima changepromijeniti is a hoaxobmana.
29
78670
4532
Vidimo nove videe na YouTubeu koji
tvrde da su klimatske promjene prevara.
01:35
And acrosspreko all platformsplatforme, we see
endlessbeskrajan postspostova designedkonstruiran to demonizedemonizirati othersdrugi
30
83226
4302
A na svim platformama, vidimo bezbrojne
postove s ciljem demoniziranja drugih
01:39
on the basisosnova of theirnjihov raceutrka,
religionreligija or sexualityseksualnost.
31
87552
3501
na osnovi njihove rase,
vjere ili spolnosti.
01:44
WelcomeDobrodošli to one of the centralsredišnji
challengesizazovi of our time.
32
92314
3030
Dobrodošli u jedan od središnjih
izazova našeg vremena.
01:47
How can we maintainodržavati an internetInternet
with freedomsloboda of expressionizraz at the coresrž,
33
95647
4025
Kako da zadržimo internet
sa slobodom izražavanja u svojoj srži,
01:51
while alsotakođer ensuringosiguravanje that the contentsadržaj
that's beingbiće disseminatedšire
34
99696
3303
a da osiguramo da sadržaj kojeg se širi
01:55
doesn't causeuzrok irreparableNepopravljive harmsšteti
to our democraciesdemokracija, our communitieszajednice
35
103023
3886
ne stvara nepovratnu štetu
našim demokracijama, našim zajednicama
01:58
and to our physicalfizička and mentalmentalni well-beingblagostanje?
36
106933
2238
te našem tjelesnom i umnom blagostanju?
02:01
Because we liveživjeti in the informationinformacija agedob,
37
109998
2087
Jer živimo u informacijskom dobu,
02:04
yetjoš the centralsredišnji currencyvaluta
uponna whichkoji we all dependzavisiti -- informationinformacija --
38
112109
3547
a ipak glavna valuta o kojoj
svi ovisimo -- informacija --
02:07
is no longerviše deemedsmatra entirelypotpuno trustworthypouzdan
39
115680
2357
više se ne smatra posve vjerodostojnom
02:10
and, at timesputa, can appearpojaviti
downrightStvarno dangerousopasno.
40
118061
2328
a ponekad se može činiti izravno opasnom.
02:12
This is thanksHvala in partdio to the runawaypobjeći
growthrast of socialsocijalni sharingdijeljenje platformsplatforme
41
120811
3937
Ovo se događa zahvaljujući brzom rastu
platformi za društveno dijeljenje
02:16
that allowdopustiti us to scrollsvitak throughkroz,
42
124772
1642
koje nam omogućuju da skrolamo dolje,
02:18
where lieslaži and factsčinjenicama sitsjediti sidestrana by sidestrana,
43
126438
2222
gdje laži i činjenice stoje
jedni uz druge,
02:20
but with nonenijedan of the traditionaltradicionalan
signalssignali of trustworthinesspouzdanost.
44
128684
3071
ali bez ijednog od tradicionalnih
znakova vjerodostojnosti.
02:24
And goodnessdobrota -- our languagejezik around this
is horriblyužasno muddledpromašeni.
45
132268
3619
I zaboga -- naš govor koji okružuje
sve to je zastrašujuće zamagljen.
02:27
People are still obsessedopsjednut
with the phrasefraza "fakelažan newsvijesti,"
46
135911
3103
Ljudi su još uvijek opsjednuti
frazom "lažne vijesti",
02:31
despitebez obzira na the factčinjenica that
it's extraordinarilyizvanredno unhelpfulUnhelpful
47
139038
2531
unatoč činjenici da nam izuzetno odmaže
02:33
and used to describeopisati a numberbroj of things
that are actuallyzapravo very differentdrugačiji:
48
141593
3460
i koristi se za opis brojnih stvari
koje su zapravo vrlo različite:
02:37
lieslaži, rumorsglasine, hoaxeshoax,
conspiracieszavjere, propagandapropagande.
49
145077
3386
laži, tračevi, prevare,
urote, promidžba.
02:40
And I really wishželja
we could stop usingkoristeći a phrasefraza
50
148911
2912
I stvarno priželjkujem da
prestanemo koristiti tu frazu
02:43
that's been co-optedkooptiran by politicianspolitičari
right around the worldsvijet,
51
151847
2862
koju su redom preuzeli političari
gotovo cijelog svijeta,
02:46
from the left and the right,
52
154733
1471
od ljevice do desnice,
02:48
used as a weaponoružje to attacknapad
a freebesplatno and independentsamostalan presstisak.
53
156228
3222
i koriste se njome kao oružjem za napade
na slobodne i neovisne medije.
02:52
(ApplausePljesak)
54
160307
4702
(Pljesak)
Jer sada više nego ikada trebaju nam
naši profesionalni informativni mediji.
02:57
Because we need our professionalprofesionalac
newsvijesti mediamedia now more than ever.
55
165033
3462
03:00
And besidesosim toga, mostnajviše of this contentsadržaj
doesn't even masqueradebal pod maskama as newsvijesti.
56
168882
3373
Osim toga, većina takvog sadržaja se
niti ne prikriva pod viješću.
03:04
It's memesmemi, videosvideo, socialsocijalni postspostova.
57
172279
2642
To su memeovi, videi, društveni postovi.
03:06
And mostnajviše of it is not fakelažan;
it's misleadingzabludu.
58
174945
3453
I većina toga nije lažna,
nego krivo navodi.
03:10
We tendskloni to fixatefiksirati on what's truepravi or falselažan.
59
178422
3015
Mi se većinom fiksiramo na istinu ili laž.
03:13
But the biggestnajveći concernbriga is actuallyzapravo
the weaponizationretrovirusa kao oružja of contextkontekst.
60
181461
4032
Ali najveća opasnost je zapravo
pretvaranje konteksta u oružje.
03:18
Because the mostnajviše effectivedjelotvoran disinformationDezinformacija
61
186855
1968
Jer najučinkovitija dezinformacija
03:20
has always been that
whichkoji has a kernelkoštica of truthistina to it.
62
188847
3048
oduvijek je bila ona koja
u sebi sadrži zrnce istine.
03:23
Let's take this exampleprimjer
from LondonLondon, from MarchOžujak 2017,
63
191919
3476
Uzmimo ovaj primjer iz Londona
iz ožujka 2017. godine,
03:27
a tweetcvrkut that circulatedkruži widelyširoko
64
195419
1540
objava na Twitteru koja se jako proširila
03:28
in the aftermathposljedica of a terroristterorist incidentincident
on WestminsterWestminster BridgeMost.
65
196983
3587
u danima nakon terorističkog napada
na Westminsterskom mostu.
03:32
This is a genuinepravi imageslika, not fakelažan.
66
200594
2428
Ovo je prava slika, nije lažirana.
03:35
The womanžena who appearsČini in the photographfotografirati
was interviewedintervjuiran afterwardsposlije,
67
203046
3169
Žena koja se pojavljuje na slici
kasnije je bila intervjuirana
03:38
and she explainedobjašnjen that
she was utterlysasvim traumatizedtraumatizirana.
68
206239
2409
i objasnila je da je bila
krajnje preplašena.
03:40
She was on the phonetelefon to a lovedvoljen one,
69
208672
1738
Bila je na telefonu s voljenom osobom
03:42
and she wasn'tnije looking
at the victimžrtva out of respectpoštovanje.
70
210434
2618
i iz poštovanja nije gledala u žrtvu.
03:45
But it still was circulatedkruži widelyširoko
with this IslamophobicIslamofobija framinguokvirivanje,
71
213076
3960
Ali svejedno je proširena uz
islamofobne implikacije,
03:49
with multiplevišekratnik hashtagshashtags,
includinguključujući: #BanIslamBanIslam.
72
217060
3046
uz brojne hashtagove, uključujući:
#ZabraniteIslam.
03:52
Now, if you workedradio at TwitterTwitter,
what would you do?
73
220425
2398
Da radite u Twitteru, što biste učinili?
03:54
Would you take that down,
or would you leavenapustiti it up?
74
222847
2562
Biste li ovo maknuli ili ostavili?
03:58
My gutcrijevo reactionreakcija, my emotionalemotivan reactionreakcija,
is to take this down.
75
226553
3429
Moja instinktivna, emocionalna
reakcija jest da bih to maknula.
04:02
I hatemrziti the framinguokvirivanje of this imageslika.
76
230006
2142
Mrzim implikacije ove slike.
04:04
But freedomsloboda of expressionizraz
is a humanljudski right,
77
232585
2388
Ali sloboda izražavanja je ljudsko pravo,
04:06
and if we startpočetak takinguzimanje down speechgovor
that makesmarke us feel uncomfortableneudoban,
78
234997
3225
a ako počnemo micati govor koji
čini da se osjećamo nelagodno,
04:10
we're in troublenevolja.
79
238246
1230
onda smo u nevolji.
04:11
And this mightmoć look like a clear-cutčisti rez casespis,
80
239500
2294
Ovo može izgledati kao
kristalno jasan slučaj,
04:13
but, actuallyzapravo, mostnajviše speechgovor isn't.
81
241818
1698
ali zapravo, većina govora nije takva.
04:15
These lineslinije are incrediblynevjerojatno
difficulttežak to drawizvući.
82
243540
2436
Izuzetno je teško povući te crte.
04:18
What's a well-meaningdobronamjeran
decisionodluka by one personosoba
83
246000
2281
Ono što je za jednu osobu
dobronamjerna odluka,
04:20
is outrightnamah censorshipcenzura to the nextSljedeći.
84
248305
2077
za drugu može biti otvorena cenzura.
04:22
What we now know is that
this accountračun, TexasTexas LoneUsamljeni StarZvijezda,
85
250759
2929
Sada znamo da je ovaj Twitter-račun,
Texas Lone Star,
04:25
was partdio of a wideršire Russianruski
disinformationDezinformacija campaignkampanja,
86
253712
3230
dio široke ruske kampanje dezinformiranja,
04:28
one that has sinceod been takenpoduzete down.
87
256966
2151
koja je otada odstranjena.
04:31
Would that changepromijeniti your viewpogled?
88
259141
1563
Bi li to promijenilo vaš stav?
04:33
It would minerudnik,
89
261322
1159
Moj bi,
jer sada je to slučaj usmjerene kampanje
04:34
because now it's a casespis
of a coordinatedkoordinirana campaignkampanja
90
262505
2301
za sijanje nemira.
04:36
to sowsijati discordnesloga.
91
264830
1215
04:38
And for those of you who'dtko bi like to think
92
266069
1961
A vama koji volite misliti
04:40
that artificialUmjetna intelligenceinteligencija
will solveriješiti all of our problemsproblemi,
93
268054
2831
kako će umjetna inteligencija
riješiti sve naše probleme,
04:42
I think we can agreesložiti
that we're a long way away
94
270909
2225
mislim da se možemo složiti
kako je još dug put
04:45
from AIAI that's ableu stanju to make senseosjećaj
of postspostova like this.
95
273158
2587
do UI-ja koji bi mogao razlučiti
smisao ovakvih postova.
04:48
So I'd like to explainobjasniti
threetri interlockingutoreni issuespitanja
96
276856
2507
Želim objasniti tri isprepletena problema
04:51
that make this so complexkompleks
97
279387
2373
koji ovo čine toliko složenim,
04:53
and then think about some waysnačine
we can considerrazmotriti these challengesizazovi.
98
281784
3122
a zatim razmisliti o načinima kako
možemo razmotriti ove izazove.
04:57
First, we just don't have
a rationalracionalan relationshipodnos to informationinformacija,
99
285348
3890
Prvo, mi jednostavno nemamo
racionalan odnos s informacijama,
05:01
we have an emotionalemotivan one.
100
289262
1468
nego emocionalan.
05:02
It's just not truepravi that more factsčinjenicama
will make everything OK,
101
290754
3794
Jednostavno nije točno da će više
činjenica sve popraviti,
05:06
because the algorithmsalgoritmi that determineodrediti
what contentsadržaj we see,
102
294572
3100
jer algoritmi koji određuju
koji sadržaj gledamo
05:09
well, they're designedkonstruiran to rewardnagrada
our emotionalemotivan responsesReakcija.
103
297696
3127
napravljeni su tako da
nagrade naše emocionalne reakcije.
05:12
And when we're fearfulstrašljiv,
104
300847
1381
A kada strahujemo,
05:14
oversimplifiedjednostavnim narrativespriče,
conspiratorialkonspirativan explanationsobjašnjenja
105
302252
3174
pojednostavljene priče,
urotnička objašnjenja
05:17
and languagejezik that demonizesdemonizira othersdrugi
is fardaleko more effectivedjelotvoran.
106
305450
3418
i govor koji demonizira druge
su daleko učinkovitiji.
05:21
And besidesosim toga, manymnogi of these companiestvrtke,
107
309538
1874
Usput, mnoge od ovih tvrtki,
05:23
theirnjihov businessPoslovni modelmodel
is attachedprivržen to attentionpažnja,
108
311436
2546
njihov poslovni model
veže se na pozornost,
05:26
whichkoji meanssredstva these algorithmsalgoritmi
will always be skewedKos towardsza emotionemocija.
109
314006
3690
što znači da će ti algoritmi uvijek
biti naklonjeni prema emocijama.
05:30
SecondDrugi, mostnajviše of the speechgovor
I'm talkingkoji govori about here is legalpravni.
110
318371
4298
Drugo, većina govora koji
ovdje opisujem je legalan.
05:35
It would be a differentdrugačiji matterstvar
111
323081
1446
Bila bi to druga stvar
ako bih govorila o slikama
spolnog zlostavljanja djece
05:36
if I was talkingkoji govori about
childdijete sexualseksualan abusezlostavljanje imagerylik
112
324551
2341
05:38
or contentsadržaj that incitespotiče violencenasilje.
113
326916
1927
ili o sadržaju koji poziva na nasilje.
05:40
It can be perfectlysavršeno legalpravni
to postpošta an outrightnamah lielaž.
114
328867
3270
Može biti posve legalno
objaviti besramnu laž.
05:45
But people keep talkingkoji govori about takinguzimanje down
"problematicproblematičan" or "harmfulštetan" contentsadržaj,
115
333130
4034
A ljudi i dalje pričaju o skidanju
"problematičnog" ili "štetnog" sadržaja,
05:49
but with no clearčisto definitiondefinicija
of what they mean by that,
116
337188
2609
ali bez jasne definicije
što pod tim smatraju,
05:51
includinguključujući MarkMark ZuckerbergZuckerberg,
117
339821
1264
čak i Mark Zuckerberg,
05:53
who recentlynedavno calledzvao for globalglobalno
regulationregulacija to moderateumjeren speechgovor.
118
341109
3412
koji je nedavno zatražio svjetsku
regulativu za moderiranje govora.
05:56
And my concernbriga is that
we're seeingvidim governmentsvlade
119
344870
2215
Vidim opasnost u tome što vlade
05:59
right around the worldsvijet
120
347109
1292
po cijelom svijetu
06:00
rollingvaljanje out hastynagli policypolitika decisionsodluke
121
348425
2676
izbacuju žurne političke odluke
06:03
that mightmoć actuallyzapravo triggerokidač
much more seriousozbiljan consequencesposljedice
122
351125
2746
koje bi zapravo mogle izazvati
puno ozbiljnije posljedice
06:05
when it comesdolazi to our speechgovor.
123
353895
1714
kada se radi o našem govoru.
06:08
And even if we could decideodlučiti
whichkoji speechgovor to take up or take down,
124
356006
3706
Čak i ako bismo mogli odlučiti
koji govor postaviti ili maknuti,
06:11
we'veimamo never had so much speechgovor.
125
359736
2174
nikada nije bilo toliko puno govora.
06:13
EverySvaki seconddrugi, millionsmilijuni
of pieceskomada of contentsadržaj
126
361934
2131
Svake sekunde, milijune
komadića sadržaja
06:16
are uploadedupload by people
right around the worldsvijet
127
364089
2107
postavljaju ljudi iz cijelog svijeta
06:18
in differentdrugačiji languagesjezici,
128
366220
1168
na različitim jezicima,
06:19
drawingcrtanje on thousandstisuća
of differentdrugačiji culturalkulturni contextskontekstima.
129
367412
2768
pozivajući se na tisuće različitih
kulturnih konteksta.
06:22
We'veMoramo simplyjednostavno never had
effectivedjelotvoran mechanismsmehanizmi
130
370204
2532
Nikada nismo imali učinkovita sredstva
06:24
to moderateumjeren speechgovor at this scaleljestvica,
131
372760
1738
za moderiranje govora na ovoj razini,
06:26
whetherda li poweredpogon by humansljudi
or by technologytehnologija.
132
374522
2801
bilo da ih pokreću ljudi ili tehnologija.
06:30
And thirdtreći, these companiestvrtke --
GoogleGoogle, TwitterTwitter, FacebookFacebook, WhatsAppWhatsApp --
133
378284
3944
Treće, ove tvrtke -- Google, Twitter,
Facebook, WhatsApp --
06:34
they're partdio of a wideršire
informationinformacija ecosystemekosustav.
134
382252
2841
dio su šireg informacijskog ekosustava.
06:37
We like to laypoložiti all the blamekrivica
at theirnjihov feetnoge, but the truthistina is,
135
385117
3352
Sviđa nam se svaliti sav
grijeh na njih, ali zapravo,
06:40
the massmasa mediamedia and electedizabran officialsDužnosnici
can alsotakođer playigrati an equaljednak roleuloga
136
388493
3830
masovni mediji i dužnosnici na položajima
također igraju podjednaku ulogu
06:44
in amplifyingpojačavanje rumorsglasine and conspiracieszavjere
when they want to.
137
392347
2913
u preuveličavanju tračeva
i zavjera kada to žele.
06:47
As can we, when we mindlesslymindlessly forwardnaprijed
divisivepodjele or misleadingzabludu contentsadržaj
138
395800
4944
Tu ulogu igramo i sami kada proslijedimo
huškajući ili neprovjeren sadržaj
06:52
withoutbez tryingtežak.
139
400768
1285
a da se nismo ni potrudili.
06:54
We're addingdodajući to the pollutionzagađenje.
140
402077
1800
Pridonosimo zagađenju.
06:57
I know we're all looking for an easylako fixpopraviti.
141
405236
2618
Znam da svi tražimo lako rješenje.
06:59
But there just isn't one.
142
407878
1667
Ali jednostavno ga nema.
07:01
Any solutionriješenje will have to be rolledvaljane out
at a massivemasivan scaleljestvica, internetInternet scaleljestvica,
143
409950
4445
Bilo koje rješenje trebalo bi biti
pokrenuto na visokoj razini, internetskoj,
07:06
and yes, the platformsplatforme,
they're used to operatingradni at that levelnivo.
144
414419
3261
i da, platforme su naviknute
raditi na toj razini.
07:09
But can and should we allowdopustiti them
to fixpopraviti these problemsproblemi?
145
417704
3472
Ali možemo li i trebamo li im dopustiti
da riješe ovaj problem?
07:13
They're certainlysigurno tryingtežak.
146
421668
1232
Oni se svakako trude.
07:14
But mostnajviše of us would agreesložiti that, actuallyzapravo,
we don't want globalglobalno corporationskorporacije
147
422924
4086
Ali većina nas će se složiti da, zapravo,
ne želimo da globalne korporacije
07:19
to be the guardiansČuvari of truthistina
and fairnesspravednost onlinena liniji.
148
427034
2332
postanu čuvari istine
i poštenja na internetu.
07:21
And I alsotakođer think the platformsplatforme
would agreesložiti with that.
149
429390
2537
Mislim da bi se i same platforme
složile s time.
07:24
And at the momenttrenutak,
they're markingoznaka theirnjihov ownvlastiti homeworkdomaća zadaća.
150
432257
2881
A trenutno, oni ocjenjuju svoje
vlastite domaće zadaće.
07:27
They like to tell us
151
435162
1198
Vole nam reći
kako intervencije koje poduzimaju
imaju učinak,
07:28
that the interventionsintervencije
they're rollingvaljanje out are workingrad,
152
436384
2579
ali budući da sami pišu svoja
izvješća o transparentnosti,
07:30
but because they writepisati
theirnjihov ownvlastiti transparencyprozirnost reportsizvještaji,
153
438987
2540
nema načina da neovisno
utvrdimo što se zapravo događa.
07:33
there's no way for us to independentlysamostalno
verifyprovjeriti what's actuallyzapravo happeningdogađa.
154
441551
3618
07:38
(ApplausePljesak)
155
446431
3342
(Pljesak)
07:41
And let's alsotakođer be clearčisto
that mostnajviše of the changespromjene we see
156
449797
2952
Razjasnimo također kako se
većina promjena koje vidimo
07:44
only happendogoditi se after journalistsnovinari
undertakepoduzeti an investigationistraga
157
452773
2994
dogode tek nakon što novinari
poduzmu istragu
07:47
and find evidencedokaz of biasprednapon
158
455791
1611
te pronađu dokaze pristranosti
07:49
or contentsadržaj that breakspauze
theirnjihov communityzajednica guidelinessmjernice.
159
457426
2829
ili sadržaja koji krši njihove
društvene smjernice.
07:52
So yes, these companiestvrtke have to playigrati
a really importantvažno roleuloga in this processpostupak,
160
460815
4595
Da, te tvrtke moraju igrati
vrlo važnu ulogu u ovom procesu,
07:57
but they can't controlkontrolirati it.
161
465434
1560
ali ga ne smiju kontrolirati.
07:59
So what about governmentsvlade?
162
467855
1518
Što je s vladama?
08:01
ManyMnogi people believe
that globalglobalno regulationregulacija is our last hopenada
163
469863
3096
Mnogi ljudi vjeruju da je svjetska
regulativa posljednja nada
08:04
in termsUvjeti of cleaningčišćenje up
our informationinformacija ecosystemekosustav.
164
472983
2880
kada se radi o pročišćenju našeg
informacijskog ekosustava.
08:07
But what I see are lawmakerszakonodavci
who are strugglingbore to keep up to datedatum
165
475887
3166
Ali vidim tek donositelje zakona
koji se bore da ostanu ukorak
08:11
with the rapidbrz changespromjene in technologytehnologija.
166
479077
2341
s brzim promjenama u tehnologiji.
08:13
And worsegore, they're workingrad in the darkmrak,
167
481442
1904
Još gore, oni djeluju u mraku,
08:15
because they don't have accesspristup to datapodaci
168
483370
1821
jer nemaju pristup podacima
08:17
to understandrazumjeti what's happeningdogađa
on these platformsplatforme.
169
485215
2650
kako bi razumjeli što se događa
na ovim platformama.
08:20
And anywayu svakom slučaju, whichkoji governmentsvlade
would we trustpovjerenje to do this?
170
488260
3071
A i kojim bismo vladama
povjerili da to učine?
08:23
We need a globalglobalno responseodgovor,
not a nationalnacionalna one.
171
491355
2770
Potrebna nam je svjetska,
ne nacionalna, reakcija.
08:27
So the missingnedostaje linkveza is us.
172
495419
2277
Mi smo karika koja nedostaje.
08:29
It's those people who use
these technologiestehnologije everysvaki day.
173
497720
3123
Ljudi koji se služe ovim
tehnologijama svakodnevno.
08:33
Can we designdizajn a newnovi infrastructureinfrastruktura
to supportpodrška qualitykvaliteta informationinformacija?
174
501260
4591
Možemo li stvoriti novu infrastrukturu
za podršku kvalitetnim informacijama?
08:38
Well, I believe we can,
175
506371
1230
Vjerujem da možemo,
08:39
and I've got a fewnekoliko ideasideje about
what we mightmoć be ableu stanju to actuallyzapravo do.
176
507625
3357
i imam par ideja o tome
što zapravo možemo učiniti.
08:43
So firstlyprvo, if we're seriousozbiljan
about bringingdonošenje the publicjavnost into this,
177
511006
3103
Najprije, ako ozbiljno mislimo
uključiti javnost u ovo,
08:46
can we take some inspirationinspiracija
from WikipediaWikipedia?
178
514133
2381
možemo li crpiti nadahnuće iz Wikipedije?
08:48
They'veSu shownprikazan us what's possiblemoguće.
179
516538
1824
Oni su pokazali što je moguće.
08:50
Yes, it's not perfectsavršen,
180
518386
1151
Nije savršena,
08:51
but they'vešto ga do demonstratedpokazao
that with the right structuresstrukture,
181
519561
2634
ali prikazali su kako
pomoću pravih struktura,
globalnog pogleda te puno,
puno transparentnosti,
08:54
with a globalglobalno outlookpogled
and lots and lots of transparencyprozirnost,
182
522219
2635
može se izgraditi nešto što će
steći povjerenje većine ljudi.
08:56
you can buildizgraditi something
that will earnzaraditi the trustpovjerenje of mostnajviše people.
183
524878
3096
08:59
Because we have to find a way
to tapslavina into the collectivekolektivan wisdommudrost
184
527998
3162
Jer moramo pronaći način da
zagrabimo u kolektivnu mudrost
09:03
and experienceiskustvo of all usersKorisnici.
185
531184
2309
te iskustvo svakog korisnika.
09:05
This is particularlynaročito the casespis
for womenžene, people of colorboja
186
533517
2646
To je posebno bitno za žene, nebijelce,
i nedovoljno zastupljene skupine.
09:08
and underrepresentedpodzastupljene groupsgrupe.
187
536187
1346
09:09
Because guessnagađati what?
188
537557
1166
Jer pogodite?
09:10
They are expertsstručnjaci when it comesdolazi
to hatemrziti and disinformationDezinformacija,
189
538747
2735
Oni su stručnjaci kada se radi
o mržnji i dezinformiranju,
09:13
because they have been the targetsciljevi
of these campaignskampanje for so long.
190
541506
3516
jer su oni toliko dugo
bili mete takvih kampanja.
09:17
And over the yearsgodina,
they'vešto ga do been raisingpodizanje flagszastave,
191
545046
2350
Tijekom godina, podizali su zastavice,
09:19
and they haven'tnisu been listenedslušao to.
192
547420
1665
a nismo ih slušali.
09:21
This has got to changepromijeniti.
193
549109
1280
To se mora promijeniti.
09:22
So could we buildizgraditi a WikipediaWikipedia for trustpovjerenje?
194
550807
4326
Možemo li sagraditi
Wikipediju za povjerenje?
09:27
Could we find a way that usersKorisnici
can actuallyzapravo providepružiti insightsuvidi?
195
555157
4189
Možemo li pronaći način da nam
korisnici zapravo omoguće uvide?
09:31
They could offerponuda insightsuvidi around
difficulttežak content-moderationmoderiranje sadržaja decisionsodluke.
196
559370
3697
Mogu ponuditi uvide pri teškim
odlukama o moderiranju sadržaja.
09:35
They could providepružiti feedbackpovratna veza
197
563091
1463
Mogu nam dati povratnu informaciju
09:36
when platformsplatforme decideodlučiti
they want to rollsvitak out newnovi changespromjene.
198
564578
3041
kada platforme odluče
izbaciti nove promjene.
09:40
SecondDrugi, people'snarodno experiencesiskustva
with the informationinformacija is personalizedpersonalizirane.
199
568241
4162
Drugo, ljudska iskustva s
informacijama su osobna.
09:44
My FacebookFacebook newsvijesti feedstočna hrana
is very differentdrugačiji to yourstvoj.
200
572427
2643
Moj popis novosti na Facebooku
je vrlo različit od vašeg.
09:47
Your YouTubeMladost recommendationspreporuke
are very differentdrugačiji to minerudnik.
201
575094
2745
Vaše preporuke na YouTubeu su
vrlo različite od mojih.
09:49
That makesmarke it impossiblenemoguće for us
to actuallyzapravo examineispitati
202
577863
2492
To čini nemogućim da preispitamo
09:52
what informationinformacija people are seeingvidim.
203
580379
2023
koje informacije ljudi vide.
09:54
So could we imaginezamisliti
204
582815
1389
Možemo li zamisliti
09:56
developingrazvoju some kindljubazan of centralizedcentralizirana
openotvoren repositoryskladište for anonymizedanonimizirane datapodaci,
205
584228
4778
da razvijemo neku vrstu središnjeg
otvorenog skladišta za anonimne podatke,
10:01
with privacyprivatnost and ethicaletički
concernszabrinutost builtizgrađen in?
206
589030
2864
s ugrađenom privatnošću
i etičkim ogradama?
10:04
Because imaginezamisliti what we would learnnaučiti
207
592220
1778
Jer zamislite što bismo mogli naučiti
10:06
if we builtizgrađen out a globalglobalno networkmreža
of concernedzabrinut citizensgrađani
208
594022
3261
ako izgradimo svjetsku mrežu
angažiranih građana
10:09
who wanted to donatedonirati
theirnjihov socialsocijalni datapodaci to scienceznanost.
209
597307
3294
koji žele donirati svoje
društvene podatke znanosti.
10:13
Because we actuallyzapravo know very little
210
601141
1722
Jer zapravo znamo jako malo
10:14
about the long-termdugoročno consequencesposljedice
of hatemrziti and disinformationDezinformacija
211
602887
2881
o dugoročnim posljedicama
mržnje i dezinformacija
10:17
on people'snarodno attitudesstavovi and behaviorsponašanja.
212
605792
1975
na ljudske stavove i ponašanja.
10:20
And what we do know,
213
608236
1167
A ono što znamo
10:21
mostnajviše of that has been
carriedprenosi out in the US,
214
609427
2193
većinom je bilo izvedeno u SAD-u,
10:23
despitebez obzira na the factčinjenica that
this is a globalglobalno problemproblem.
215
611644
2381
usprkos tome što je ovo svjetski problem.
10:26
We need to work on that, too.
216
614049
1635
I na tome moramo raditi.
10:28
And thirdtreći,
217
616192
1150
Treće,
10:29
can we find a way to connectSpojiti the dotstočkice?
218
617366
2310
možemo li naći način da spojimo točke?
10:31
No one sectorsektor, let alonesam nonprofitneprofitna,
start-uppuštanje u pogon or governmentvlada,
219
619700
3438
Nijedan sektor, posebno ne neprofitna
udruga, start-up tvrtka ili vlada
10:35
is going to solveriješiti this.
220
623162
1422
neće ovo riješiti.
10:36
But there are very smartpametan people
right around the worldsvijet
221
624608
2564
Ali ima jako pametnih ljudi
svuda po svijetu
10:39
workingrad on these challengesizazovi,
222
627196
1381
koji rade na ovim izazovima,
10:40
from newsroomsnovinarstvo, civilgrađanski societydruštvo,
academiaakademske zajednice, activistaktivista groupsgrupe.
223
628601
3576
uredništva vijesti, civilno društvo,
akademski djelatnici, skupine aktivista.
10:44
And you can see some of them here.
224
632201
1898
Neke od njih možete vidjeti ovdje.
10:46
Some are buildingzgrada out indicatorspokazatelji
of contentsadržaj credibilityvjerodostojnost.
225
634123
2927
Neki grade pokazatelje za
vjerodostojnost sadržaja.
10:49
OthersDrugi are fact-checkingProvjera činjenica,
226
637074
1246
Drugi provjeravaju podatke,
10:50
so that falselažan claimszahtjevi, videosvideo and imagesslika
can be down-rankeddolje rangirani by the platformsplatforme.
227
638344
3591
kako bi lažne tvrdnje, videi i slike
bili nisko rangirani na platformama.
10:53
A nonprofitneprofitna I helpedpomogao
to foundpronađeno, First DraftNacrt,
228
641959
2213
Pomogla sam osnovati neprofitnu
udrugu First Draft
10:56
is workingrad with normallynormalno competitivekonkurentan
newsroomsnovinarstvo around the worldsvijet
229
644196
2968
koja radi s uobičajeno natjecateljskim
uredništvima vijesti po svijetu
10:59
to help them buildizgraditi out investigativeistraživačkog novinarstva,
collaborativekolaborativni programsprogrami.
230
647188
3503
da im pomogne u gradnji
istraživačkih, surađivačkih programa.
11:03
And DannyDanny HillisHillis, a softwaresoftver architectarhitekt,
231
651231
2309
Danny Hillis, inženjer softvera,
11:05
is designingprojektiranje a newnovi systemsistem
calledzvao The UnderlayUnderlay,
232
653564
2381
gradi novi sustav imenom The Underlay,
11:07
whichkoji will be a recordsnimiti
of all publicjavnost statementsizjava of factčinjenica
233
655969
2775
koji će biti arhiv svih javnih činjenica
11:10
connectedpovezan to theirnjihov sourcesizvori,
234
658768
1329
povezanih sa svojim izvorom,
11:12
so that people and algorithmsalgoritmi
can better judgesuditi what is crediblevjerodostojan.
235
660121
3654
kako bi ljudi i algoritmi bolje
procijenili što je vjerodostojno.
11:16
And educatorsodgojitelji around the worldsvijet
are testingtestiranje differentdrugačiji techniquesTehnike
236
664800
3356
Edukatori diljem svijeta
testiraju različite tehnike
11:20
for findingnalaz waysnačine to make people
criticalkritično of the contentsadržaj they consumepojesti.
237
668180
3484
u nalaženju načina da ljudi postanu
kritični prema sadržaju koji koriste.
11:24
All of these effortsnapori are wonderfulpredivan,
but they're workingrad in silossilosi,
238
672633
3141
Svi ti pokušaji su divni,
ali oni rade nepovezano,
11:27
and manymnogi of them are woefullyŽalosno underfundedunderfunded.
239
675798
2680
i mnogima od njih kronično
nedostaju financijska sredstva.
11:30
There are alsotakođer hundredsstotine
of very smartpametan people
240
678502
2053
Ima i stotine vrlo pametnih ljudi
11:32
workingrad insideiznutra these companiestvrtke,
241
680579
1652
koji rade unutar ovih tvrtki,
11:34
but again, these effortsnapori
can feel disjointedrazjedinjeno.,
242
682255
2325
ali opet, ta nastojanja su rascjepkana,
11:36
because they're actuallyzapravo developingrazvoju
differentdrugačiji solutionsrješenja to the sameisti problemsproblemi.
243
684604
3937
jer oni zapravo razvijaju različita
rješenja za isti problem.
11:41
How can we find a way
to bringdonijeti people togetherzajedno
244
689205
2269
Kako možemo naći način da spojimo ljude
11:43
in one physicalfizička locationmjesto
for daysdana or weeksTjedni at a time,
245
691498
3278
na jednoj fizičkoj lokaciji
danima ili tjednima istodobno,
11:46
so they can actuallyzapravo tacklepribor
these problemsproblemi togetherzajedno
246
694800
2396
kako bi zajedno mogli
savladati ove probleme
11:49
but from theirnjihov differentdrugačiji perspectivesperspektive?
247
697220
1818
ali s različitih gledišta?
11:51
So can we do this?
248
699062
1340
Pa možemo li to učiniti?
11:52
Can we buildizgraditi out a coordinatedkoordinirana,
ambitiousambiciozni responseodgovor,
249
700426
3239
Možemo li izgraditi koordiniranu,
ambicioznu reakciju
11:55
one that matchesodgovara the scaleljestvica
and the complexitysloženost of the problemproblem?
250
703689
3709
koja će se mjeriti s razinom i
kompleksnošću problema?
11:59
I really think we can.
251
707819
1373
Stvarno mislim da možemo.
12:01
TogetherZajedno, let's rebuildobnoviti
our informationinformacija commonszajednička.
252
709216
2959
Zajedno, izgradimo ponovno
naš informacijski krajolik.
12:04
Thank you.
253
712819
1190
Hvala.
12:06
(ApplausePljesak)
254
714033
3728
(Pljesak)
Translated by Martina Peraic
Reviewed by Sanda Liker

▲Back to top

ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com