ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com
TED2019

Claire Wardle: How you can help transform the internet into a place of trust

Claire Wardle: Kako možete pomoći da internet postane mjesto povjerenja

Filmed:
1,319,606 views

Kako možemo spriječiti širenje netočnog, ponekad i opasnog sadržaja, istovremeno održavajući internet u duhu slobode izražavanja? Stručnjakinja za dezinformiranje, Claire Wardle, istražuje nove izazove našeg zagađenog internetskog okoliša i iznosi plan za preoblikovanje interneta u mjesto povjerenja - uz pomoć običnih korisnika. "Preoblikujmo zajedno naš informacijski krajolik", kaže.
- Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online. Full bio

Double-click the English transcript below to play the video.

00:13
No matterstvar who you are or where you liveživjeti,
0
1548
2516
Bez obzira tko ste i gdje živite,
00:16
I'm guessingnagađanje that you have
at leastnajmanje one relativerođak
1
4088
2356
nagađam da imate barem jednog rođaka
00:18
that likessviđa to forwardnaprijed those emailse-mail.
2
6468
2334
koji voli prosljeđivati one poruke.
00:21
You know the onesone I'm talkingkoji govori about --
3
9206
1900
Znate o kojima govorim --
onima sa sumnjivim tvrdnjama
ili snimkama teorija urota.
00:23
the onesone with dubioussumnjive claimszahtjevi
or conspiracyzavjera videosvideo.
4
11130
2854
00:26
And you've probablyvjerojatno
alreadyveć mutedprigušen them on FacebookFacebook
5
14315
2668
I vjerojatno ste ih već
blokirali na Facebooku
00:29
for sharingdijeljenje socialsocijalni postspostova like this one.
6
17007
2348
zbog dijeljenja ovakvih objava.
00:31
It's an imageslika of a bananabanana
7
19379
1404
To je slika banane
00:32
with a strangečudan redcrvena crosskriž
runningtrčanje throughkroz the centercentar.
8
20807
2667
s neobičnim crvenim križem
koji se proteže kroz sredinu.
00:35
And the texttekst around it is warningupozorenje people
9
23498
2139
Tekst uokolo upozorava ljude
00:37
not to eatjesti fruitsvoće that look like this,
10
25661
2158
da ne jedu takvo voće,
00:39
suggestingsugerirajući they'vešto ga do been
injectedubrizgava with bloodkrv
11
27843
2028
napominjući da je injektirano krvlju
00:41
contaminatedzagađen with the HIVHIV-A virusvirus.
12
29895
2130
zagađenom virusom HIV-a.
00:44
And the socialsocijalni sharePodjeli messageporuka
aboveiznad it simplyjednostavno sayskaže,
13
32049
2603
A društveno dijeljena poruka iznad
jednostavno kaže,
00:46
"Please forwardnaprijed to saveuštedjeti livesživot."
14
34676
2181
"Molimo pošaljite dalje za spas života."
00:49
Now, fact-checkersčinjenice-dame have been debunkingDebunking
this one for yearsgodina,
15
37672
3294
Stručnjaci za provjeru informacija
pokušavaju razotkriti ovo godinama,
00:52
but it's one of those rumorsglasine
that just won'tnavika dieumrijeti.
16
40990
2809
ali to je jedan od tračeva koji
odbija umrijeti.
00:55
A zombiezombi rumorglasina.
17
43823
1271
Zombijevski trač.
00:57
And, of coursenaravno, it's entirelypotpuno falselažan.
18
45513
2093
I naravno, potpuno je pogrešan.
01:00
It mightmoć be temptingprimamljivo to laughsmijeh
at an exampleprimjer like this, to say,
19
48180
2959
Dolazimo u napast smijati se
primjerima poput ovoga, reći,
01:03
"Well, who would believe this, anywayu svakom slučaju?"
20
51163
1884
"Tko bi ionako povjerovao u to?"
Ali razlog zbog kojeg je to
zombijevski trač
01:05
But the reasonrazlog it's a zombiezombi rumorglasina
21
53419
1626
01:07
is because it tapsmirozov into people'snarodno
deepestnajdublja fearsstrahovi about theirnjihov ownvlastiti safetysigurnosni
22
55069
3889
jest jer zadire u najdublje ljudske
strahove o osobnoj sigurnosti
01:10
and that of the people they love.
23
58982
2175
te sigurnosti ljudi koje vole.
A ako provedete toliko vremena koliko
i ja promatrajući dezinformacije,
01:13
And if you spendprovesti as enoughdovoljno time
as I have looking at misinformationdezinformacija,
24
61783
3273
01:17
you know that this is just
one exampleprimjer of manymnogi
25
65080
2420
znate da je ovo tek jedan
od mnogih primjera
01:19
that tapsmirozov into people'snarodno deepestnajdublja
fearsstrahovi and vulnerabilitiesranjivosti.
26
67524
3047
koji zadire u najdublje ljudske
strahove i slabosti.
01:23
EverySvaki day, acrosspreko the worldsvijet,
we see scoresrezultate of newnovi memesmemi on InstagramInstagram
27
71214
4369
Svakog dana, svuda u svijetu, vidimo
desetke novih memeova na Instagramu
01:27
encouragingohrabrujući parentsroditelji
not to vaccinatecijepiti theirnjihov childrendjeca.
28
75607
3039
koji ohrabruju roditelje
da ne cijepe svoju djecu.
01:30
We see newnovi videosvideo on YouTubeMladost
explainingobjašnjavajući that climateklima changepromijeniti is a hoaxobmana.
29
78670
4532
Vidimo nove videe na YouTubeu koji
tvrde da su klimatske promjene prevara.
01:35
And acrosspreko all platformsplatforme, we see
endlessbeskrajan postspostova designedkonstruiran to demonizedemonizirati othersdrugi
30
83226
4302
A na svim platformama, vidimo bezbrojne
postove s ciljem demoniziranja drugih
01:39
on the basisosnova of theirnjihov raceutrka,
religionreligija or sexualityseksualnost.
31
87552
3501
na osnovi njihove rase,
vjere ili spolnosti.
01:44
WelcomeDobrodošli to one of the centralsredišnji
challengesizazovi of our time.
32
92314
3030
Dobrodošli u jedan od središnjih
izazova našeg vremena.
01:47
How can we maintainodržavati an internetInternet
with freedomsloboda of expressionizraz at the coresrž,
33
95647
4025
Kako da zadržimo internet
sa slobodom izražavanja u svojoj srži,
01:51
while alsotakođer ensuringosiguravanje that the contentsadržaj
that's beingbiće disseminatedšire
34
99696
3303
a da osiguramo da sadržaj kojeg se širi
01:55
doesn't causeuzrok irreparableNepopravljive harmsšteti
to our democraciesdemokracija, our communitieszajednice
35
103023
3886
ne stvara nepovratnu štetu
našim demokracijama, našim zajednicama
01:58
and to our physicalfizička and mentalmentalni well-beingblagostanje?
36
106933
2238
te našem tjelesnom i umnom blagostanju?
02:01
Because we liveživjeti in the informationinformacija agedob,
37
109998
2087
Jer živimo u informacijskom dobu,
02:04
yetjoš the centralsredišnji currencyvaluta
uponna whichkoji we all dependzavisiti -- informationinformacija --
38
112109
3547
a ipak glavna valuta o kojoj
svi ovisimo -- informacija --
02:07
is no longerviše deemedsmatra entirelypotpuno trustworthypouzdan
39
115680
2357
više se ne smatra posve vjerodostojnom
02:10
and, at timesputa, can appearpojaviti
downrightStvarno dangerousopasno.
40
118061
2328
a ponekad se može činiti izravno opasnom.
02:12
This is thanksHvala in partdio to the runawaypobjeći
growthrast of socialsocijalni sharingdijeljenje platformsplatforme
41
120811
3937
Ovo se događa zahvaljujući brzom rastu
platformi za društveno dijeljenje
02:16
that allowdopustiti us to scrollsvitak throughkroz,
42
124772
1642
koje nam omogućuju da skrolamo dolje,
02:18
where lieslaži and factsčinjenicama sitsjediti sidestrana by sidestrana,
43
126438
2222
gdje laži i činjenice stoje
jedni uz druge,
02:20
but with nonenijedan of the traditionaltradicionalan
signalssignali of trustworthinesspouzdanost.
44
128684
3071
ali bez ijednog od tradicionalnih
znakova vjerodostojnosti.
02:24
And goodnessdobrota -- our languagejezik around this
is horriblyužasno muddledpromašeni.
45
132268
3619
I zaboga -- naš govor koji okružuje
sve to je zastrašujuće zamagljen.
02:27
People are still obsessedopsjednut
with the phrasefraza "fakelažan newsvijesti,"
46
135911
3103
Ljudi su još uvijek opsjednuti
frazom "lažne vijesti",
02:31
despitebez obzira na the factčinjenica that
it's extraordinarilyizvanredno unhelpfulUnhelpful
47
139038
2531
unatoč činjenici da nam izuzetno odmaže
02:33
and used to describeopisati a numberbroj of things
that are actuallyzapravo very differentdrugačiji:
48
141593
3460
i koristi se za opis brojnih stvari
koje su zapravo vrlo različite:
02:37
lieslaži, rumorsglasine, hoaxeshoax,
conspiracieszavjere, propagandapropagande.
49
145077
3386
laži, tračevi, prevare,
urote, promidžba.
02:40
And I really wishželja
we could stop usingkoristeći a phrasefraza
50
148911
2912
I stvarno priželjkujem da
prestanemo koristiti tu frazu
02:43
that's been co-optedkooptiran by politicianspolitičari
right around the worldsvijet,
51
151847
2862
koju su redom preuzeli političari
gotovo cijelog svijeta,
02:46
from the left and the right,
52
154733
1471
od ljevice do desnice,
02:48
used as a weaponoružje to attacknapad
a freebesplatno and independentsamostalan presstisak.
53
156228
3222
i koriste se njome kao oružjem za napade
na slobodne i neovisne medije.
02:52
(ApplausePljesak)
54
160307
4702
(Pljesak)
Jer sada više nego ikada trebaju nam
naši profesionalni informativni mediji.
02:57
Because we need our professionalprofesionalac
newsvijesti mediamedia now more than ever.
55
165033
3462
03:00
And besidesosim toga, mostnajviše of this contentsadržaj
doesn't even masqueradebal pod maskama as newsvijesti.
56
168882
3373
Osim toga, većina takvog sadržaja se
niti ne prikriva pod viješću.
03:04
It's memesmemi, videosvideo, socialsocijalni postspostova.
57
172279
2642
To su memeovi, videi, društveni postovi.
03:06
And mostnajviše of it is not fakelažan;
it's misleadingzabludu.
58
174945
3453
I većina toga nije lažna,
nego krivo navodi.
03:10
We tendskloni to fixatefiksirati on what's truepravi or falselažan.
59
178422
3015
Mi se većinom fiksiramo na istinu ili laž.
03:13
But the biggestnajveći concernbriga is actuallyzapravo
the weaponizationretrovirusa kao oružja of contextkontekst.
60
181461
4032
Ali najveća opasnost je zapravo
pretvaranje konteksta u oružje.
03:18
Because the mostnajviše effectivedjelotvoran disinformationDezinformacija
61
186855
1968
Jer najučinkovitija dezinformacija
03:20
has always been that
whichkoji has a kernelkoštica of truthistina to it.
62
188847
3048
oduvijek je bila ona koja
u sebi sadrži zrnce istine.
03:23
Let's take this exampleprimjer
from LondonLondon, from MarchOžujak 2017,
63
191919
3476
Uzmimo ovaj primjer iz Londona
iz ožujka 2017. godine,
03:27
a tweetcvrkut that circulatedkruži widelyširoko
64
195419
1540
objava na Twitteru koja se jako proširila
03:28
in the aftermathposljedica of a terroristterorist incidentincident
on WestminsterWestminster BridgeMost.
65
196983
3587
u danima nakon terorističkog napada
na Westminsterskom mostu.
03:32
This is a genuinepravi imageslika, not fakelažan.
66
200594
2428
Ovo je prava slika, nije lažirana.
03:35
The womanžena who appearsČini in the photographfotografirati
was interviewedintervjuiran afterwardsposlije,
67
203046
3169
Žena koja se pojavljuje na slici
kasnije je bila intervjuirana
03:38
and she explainedobjašnjen that
she was utterlysasvim traumatizedtraumatizirana.
68
206239
2409
i objasnila je da je bila
krajnje preplašena.
03:40
She was on the phonetelefon to a lovedvoljen one,
69
208672
1738
Bila je na telefonu s voljenom osobom
03:42
and she wasn'tnije looking
at the victimžrtva out of respectpoštovanje.
70
210434
2618
i iz poštovanja nije gledala u žrtvu.
03:45
But it still was circulatedkruži widelyširoko
with this IslamophobicIslamofobija framinguokvirivanje,
71
213076
3960
Ali svejedno je proširena uz
islamofobne implikacije,
03:49
with multiplevišekratnik hashtagshashtags,
includinguključujući: #BanIslamBanIslam.
72
217060
3046
uz brojne hashtagove, uključujući:
#ZabraniteIslam.
03:52
Now, if you workedradio at TwitterTwitter,
what would you do?
73
220425
2398
Da radite u Twitteru, što biste učinili?
03:54
Would you take that down,
or would you leavenapustiti it up?
74
222847
2562
Biste li ovo maknuli ili ostavili?
03:58
My gutcrijevo reactionreakcija, my emotionalemotivan reactionreakcija,
is to take this down.
75
226553
3429
Moja instinktivna, emocionalna
reakcija jest da bih to maknula.
04:02
I hatemrziti the framinguokvirivanje of this imageslika.
76
230006
2142
Mrzim implikacije ove slike.
04:04
But freedomsloboda of expressionizraz
is a humanljudski right,
77
232585
2388
Ali sloboda izražavanja je ljudsko pravo,
04:06
and if we startpočetak takinguzimanje down speechgovor
that makesmarke us feel uncomfortableneudoban,
78
234997
3225
a ako počnemo micati govor koji
čini da se osjećamo nelagodno,
04:10
we're in troublenevolja.
79
238246
1230
onda smo u nevolji.
04:11
And this mightmoć look like a clear-cutčisti rez casespis,
80
239500
2294
Ovo može izgledati kao
kristalno jasan slučaj,
04:13
but, actuallyzapravo, mostnajviše speechgovor isn't.
81
241818
1698
ali zapravo, većina govora nije takva.
04:15
These lineslinije are incrediblynevjerojatno
difficulttežak to drawizvući.
82
243540
2436
Izuzetno je teško povući te crte.
04:18
What's a well-meaningdobronamjeran
decisionodluka by one personosoba
83
246000
2281
Ono što je za jednu osobu
dobronamjerna odluka,
04:20
is outrightnamah censorshipcenzura to the nextSljedeći.
84
248305
2077
za drugu može biti otvorena cenzura.
04:22
What we now know is that
this accountračun, TexasTexas LoneUsamljeni StarZvijezda,
85
250759
2929
Sada znamo da je ovaj Twitter-račun,
Texas Lone Star,
04:25
was partdio of a wideršire Russianruski
disinformationDezinformacija campaignkampanja,
86
253712
3230
dio široke ruske kampanje dezinformiranja,
04:28
one that has sinceod been takenpoduzete down.
87
256966
2151
koja je otada odstranjena.
04:31
Would that changepromijeniti your viewpogled?
88
259141
1563
Bi li to promijenilo vaš stav?
04:33
It would minerudnik,
89
261322
1159
Moj bi,
jer sada je to slučaj usmjerene kampanje
04:34
because now it's a casespis
of a coordinatedkoordinirana campaignkampanja
90
262505
2301
za sijanje nemira.
04:36
to sowsijati discordnesloga.
91
264830
1215
04:38
And for those of you who'dtko bi like to think
92
266069
1961
A vama koji volite misliti
04:40
that artificialUmjetna intelligenceinteligencija
will solveriješiti all of our problemsproblemi,
93
268054
2831
kako će umjetna inteligencija
riješiti sve naše probleme,
04:42
I think we can agreesložiti
that we're a long way away
94
270909
2225
mislim da se možemo složiti
kako je još dug put
04:45
from AIAI that's ableu stanju to make senseosjećaj
of postspostova like this.
95
273158
2587
do UI-ja koji bi mogao razlučiti
smisao ovakvih postova.
04:48
So I'd like to explainobjasniti
threetri interlockingutoreni issuespitanja
96
276856
2507
Želim objasniti tri isprepletena problema
04:51
that make this so complexkompleks
97
279387
2373
koji ovo čine toliko složenim,
04:53
and then think about some waysnačine
we can considerrazmotriti these challengesizazovi.
98
281784
3122
a zatim razmisliti o načinima kako
možemo razmotriti ove izazove.
04:57
First, we just don't have
a rationalracionalan relationshipodnos to informationinformacija,
99
285348
3890
Prvo, mi jednostavno nemamo
racionalan odnos s informacijama,
05:01
we have an emotionalemotivan one.
100
289262
1468
nego emocionalan.
05:02
It's just not truepravi that more factsčinjenicama
will make everything OK,
101
290754
3794
Jednostavno nije točno da će više
činjenica sve popraviti,
05:06
because the algorithmsalgoritmi that determineodrediti
what contentsadržaj we see,
102
294572
3100
jer algoritmi koji određuju
koji sadržaj gledamo
05:09
well, they're designedkonstruiran to rewardnagrada
our emotionalemotivan responsesReakcija.
103
297696
3127
napravljeni su tako da
nagrade naše emocionalne reakcije.
05:12
And when we're fearfulstrašljiv,
104
300847
1381
A kada strahujemo,
05:14
oversimplifiedjednostavnim narrativespriče,
conspiratorialkonspirativan explanationsobjašnjenja
105
302252
3174
pojednostavljene priče,
urotnička objašnjenja
05:17
and languagejezik that demonizesdemonizira othersdrugi
is fardaleko more effectivedjelotvoran.
106
305450
3418
i govor koji demonizira druge
su daleko učinkovitiji.
05:21
And besidesosim toga, manymnogi of these companiestvrtke,
107
309538
1874
Usput, mnoge od ovih tvrtki,
05:23
theirnjihov businessPoslovni modelmodel
is attachedprivržen to attentionpažnja,
108
311436
2546
njihov poslovni model
veže se na pozornost,
05:26
whichkoji meanssredstva these algorithmsalgoritmi
will always be skewedKos towardsza emotionemocija.
109
314006
3690
što znači da će ti algoritmi uvijek
biti naklonjeni prema emocijama.
05:30
SecondDrugi, mostnajviše of the speechgovor
I'm talkingkoji govori about here is legalpravni.
110
318371
4298
Drugo, većina govora koji
ovdje opisujem je legalan.
05:35
It would be a differentdrugačiji matterstvar
111
323081
1446
Bila bi to druga stvar
ako bih govorila o slikama
spolnog zlostavljanja djece
05:36
if I was talkingkoji govori about
childdijete sexualseksualan abusezlostavljanje imagerylik
112
324551
2341
05:38
or contentsadržaj that incitespotiče violencenasilje.
113
326916
1927
ili o sadržaju koji poziva na nasilje.
05:40
It can be perfectlysavršeno legalpravni
to postpošta an outrightnamah lielaž.
114
328867
3270
Može biti posve legalno
objaviti besramnu laž.
05:45
But people keep talkingkoji govori about takinguzimanje down
"problematicproblematičan" or "harmfulštetan" contentsadržaj,
115
333130
4034
A ljudi i dalje pričaju o skidanju
"problematičnog" ili "štetnog" sadržaja,
05:49
but with no clearčisto definitiondefinicija
of what they mean by that,
116
337188
2609
ali bez jasne definicije
što pod tim smatraju,
05:51
includinguključujući MarkMark ZuckerbergZuckerberg,
117
339821
1264
čak i Mark Zuckerberg,
05:53
who recentlynedavno calledzvao for globalglobalno
regulationregulacija to moderateumjeren speechgovor.
118
341109
3412
koji je nedavno zatražio svjetsku
regulativu za moderiranje govora.
05:56
And my concernbriga is that
we're seeingvidim governmentsvlade
119
344870
2215
Vidim opasnost u tome što vlade
05:59
right around the worldsvijet
120
347109
1292
po cijelom svijetu
06:00
rollingvaljanje out hastynagli policypolitika decisionsodluke
121
348425
2676
izbacuju žurne političke odluke
06:03
that mightmoć actuallyzapravo triggerokidač
much more seriousozbiljan consequencesposljedice
122
351125
2746
koje bi zapravo mogle izazvati
puno ozbiljnije posljedice
06:05
when it comesdolazi to our speechgovor.
123
353895
1714
kada se radi o našem govoru.
06:08
And even if we could decideodlučiti
whichkoji speechgovor to take up or take down,
124
356006
3706
Čak i ako bismo mogli odlučiti
koji govor postaviti ili maknuti,
06:11
we'veimamo never had so much speechgovor.
125
359736
2174
nikada nije bilo toliko puno govora.
06:13
EverySvaki seconddrugi, millionsmilijuni
of pieceskomada of contentsadržaj
126
361934
2131
Svake sekunde, milijune
komadića sadržaja
06:16
are uploadedupload by people
right around the worldsvijet
127
364089
2107
postavljaju ljudi iz cijelog svijeta
06:18
in differentdrugačiji languagesjezici,
128
366220
1168
na različitim jezicima,
06:19
drawingcrtanje on thousandstisuća
of differentdrugačiji culturalkulturni contextskontekstima.
129
367412
2768
pozivajući se na tisuće različitih
kulturnih konteksta.
06:22
We'veMoramo simplyjednostavno never had
effectivedjelotvoran mechanismsmehanizmi
130
370204
2532
Nikada nismo imali učinkovita sredstva
06:24
to moderateumjeren speechgovor at this scaleljestvica,
131
372760
1738
za moderiranje govora na ovoj razini,
06:26
whetherda li poweredpogon by humansljudi
or by technologytehnologija.
132
374522
2801
bilo da ih pokreću ljudi ili tehnologija.
06:30
And thirdtreći, these companiestvrtke --
GoogleGoogle, TwitterTwitter, FacebookFacebook, WhatsAppWhatsApp --
133
378284
3944
Treće, ove tvrtke -- Google, Twitter,
Facebook, WhatsApp --
06:34
they're partdio of a wideršire
informationinformacija ecosystemekosustav.
134
382252
2841
dio su šireg informacijskog ekosustava.
06:37
We like to laypoložiti all the blamekrivica
at theirnjihov feetnoge, but the truthistina is,
135
385117
3352
Sviđa nam se svaliti sav
grijeh na njih, ali zapravo,
06:40
the massmasa mediamedia and electedizabran officialsDužnosnici
can alsotakođer playigrati an equaljednak roleuloga
136
388493
3830
masovni mediji i dužnosnici na položajima
također igraju podjednaku ulogu
06:44
in amplifyingpojačavanje rumorsglasine and conspiracieszavjere
when they want to.
137
392347
2913
u preuveličavanju tračeva
i zavjera kada to žele.
06:47
As can we, when we mindlesslymindlessly forwardnaprijed
divisivepodjele or misleadingzabludu contentsadržaj
138
395800
4944
Tu ulogu igramo i sami kada proslijedimo
huškajući ili neprovjeren sadržaj
06:52
withoutbez tryingtežak.
139
400768
1285
a da se nismo ni potrudili.
06:54
We're addingdodajući to the pollutionzagađenje.
140
402077
1800
Pridonosimo zagađenju.
06:57
I know we're all looking for an easylako fixpopraviti.
141
405236
2618
Znam da svi tražimo lako rješenje.
06:59
But there just isn't one.
142
407878
1667
Ali jednostavno ga nema.
07:01
Any solutionriješenje will have to be rolledvaljane out
at a massivemasivan scaleljestvica, internetInternet scaleljestvica,
143
409950
4445
Bilo koje rješenje trebalo bi biti
pokrenuto na visokoj razini, internetskoj,
07:06
and yes, the platformsplatforme,
they're used to operatingradni at that levelnivo.
144
414419
3261
i da, platforme su naviknute
raditi na toj razini.
07:09
But can and should we allowdopustiti them
to fixpopraviti these problemsproblemi?
145
417704
3472
Ali možemo li i trebamo li im dopustiti
da riješe ovaj problem?
07:13
They're certainlysigurno tryingtežak.
146
421668
1232
Oni se svakako trude.
07:14
But mostnajviše of us would agreesložiti that, actuallyzapravo,
we don't want globalglobalno corporationskorporacije
147
422924
4086
Ali većina nas će se složiti da, zapravo,
ne želimo da globalne korporacije
07:19
to be the guardiansČuvari of truthistina
and fairnesspravednost onlinena liniji.
148
427034
2332
postanu čuvari istine
i poštenja na internetu.
07:21
And I alsotakođer think the platformsplatforme
would agreesložiti with that.
149
429390
2537
Mislim da bi se i same platforme
složile s time.
07:24
And at the momenttrenutak,
they're markingoznaka theirnjihov ownvlastiti homeworkdomaća zadaća.
150
432257
2881
A trenutno, oni ocjenjuju svoje
vlastite domaće zadaće.
07:27
They like to tell us
151
435162
1198
Vole nam reći
kako intervencije koje poduzimaju
imaju učinak,
07:28
that the interventionsintervencije
they're rollingvaljanje out are workingrad,
152
436384
2579
ali budući da sami pišu svoja
izvješća o transparentnosti,
07:30
but because they writepisati
theirnjihov ownvlastiti transparencyprozirnost reportsizvještaji,
153
438987
2540
nema načina da neovisno
utvrdimo što se zapravo događa.
07:33
there's no way for us to independentlysamostalno
verifyprovjeriti what's actuallyzapravo happeningdogađa.
154
441551
3618
07:38
(ApplausePljesak)
155
446431
3342
(Pljesak)
07:41
And let's alsotakođer be clearčisto
that mostnajviše of the changespromjene we see
156
449797
2952
Razjasnimo također kako se
većina promjena koje vidimo
07:44
only happendogoditi se after journalistsnovinari
undertakepoduzeti an investigationistraga
157
452773
2994
dogode tek nakon što novinari
poduzmu istragu
07:47
and find evidencedokaz of biasprednapon
158
455791
1611
te pronađu dokaze pristranosti
07:49
or contentsadržaj that breakspauze
theirnjihov communityzajednica guidelinessmjernice.
159
457426
2829
ili sadržaja koji krši njihove
društvene smjernice.
07:52
So yes, these companiestvrtke have to playigrati
a really importantvažno roleuloga in this processpostupak,
160
460815
4595
Da, te tvrtke moraju igrati
vrlo važnu ulogu u ovom procesu,
07:57
but they can't controlkontrolirati it.
161
465434
1560
ali ga ne smiju kontrolirati.
07:59
So what about governmentsvlade?
162
467855
1518
Što je s vladama?
08:01
ManyMnogi people believe
that globalglobalno regulationregulacija is our last hopenada
163
469863
3096
Mnogi ljudi vjeruju da je svjetska
regulativa posljednja nada
08:04
in termsUvjeti of cleaningčišćenje up
our informationinformacija ecosystemekosustav.
164
472983
2880
kada se radi o pročišćenju našeg
informacijskog ekosustava.
08:07
But what I see are lawmakerszakonodavci
who are strugglingbore to keep up to datedatum
165
475887
3166
Ali vidim tek donositelje zakona
koji se bore da ostanu ukorak
08:11
with the rapidbrz changespromjene in technologytehnologija.
166
479077
2341
s brzim promjenama u tehnologiji.
08:13
And worsegore, they're workingrad in the darkmrak,
167
481442
1904
Još gore, oni djeluju u mraku,
08:15
because they don't have accesspristup to datapodaci
168
483370
1821
jer nemaju pristup podacima
08:17
to understandrazumjeti what's happeningdogađa
on these platformsplatforme.
169
485215
2650
kako bi razumjeli što se događa
na ovim platformama.
08:20
And anywayu svakom slučaju, whichkoji governmentsvlade
would we trustpovjerenje to do this?
170
488260
3071
A i kojim bismo vladama
povjerili da to učine?
08:23
We need a globalglobalno responseodgovor,
not a nationalnacionalna one.
171
491355
2770
Potrebna nam je svjetska,
ne nacionalna, reakcija.
08:27
So the missingnedostaje linkveza is us.
172
495419
2277
Mi smo karika koja nedostaje.
08:29
It's those people who use
these technologiestehnologije everysvaki day.
173
497720
3123
Ljudi koji se služe ovim
tehnologijama svakodnevno.
08:33
Can we designdizajn a newnovi infrastructureinfrastruktura
to supportpodrška qualitykvaliteta informationinformacija?
174
501260
4591
Možemo li stvoriti novu infrastrukturu
za podršku kvalitetnim informacijama?
08:38
Well, I believe we can,
175
506371
1230
Vjerujem da možemo,
08:39
and I've got a fewnekoliko ideasideje about
what we mightmoć be ableu stanju to actuallyzapravo do.
176
507625
3357
i imam par ideja o tome
što zapravo možemo učiniti.
08:43
So firstlyprvo, if we're seriousozbiljan
about bringingdonošenje the publicjavnost into this,
177
511006
3103
Najprije, ako ozbiljno mislimo
uključiti javnost u ovo,
08:46
can we take some inspirationinspiracija
from WikipediaWikipedia?
178
514133
2381
možemo li crpiti nadahnuće iz Wikipedije?
08:48
They'veSu shownprikazan us what's possiblemoguće.
179
516538
1824
Oni su pokazali što je moguće.
08:50
Yes, it's not perfectsavršen,
180
518386
1151
Nije savršena,
08:51
but they'vešto ga do demonstratedpokazao
that with the right structuresstrukture,
181
519561
2634
ali prikazali su kako
pomoću pravih struktura,
globalnog pogleda te puno,
puno transparentnosti,
08:54
with a globalglobalno outlookpogled
and lots and lots of transparencyprozirnost,
182
522219
2635
može se izgraditi nešto što će
steći povjerenje većine ljudi.
08:56
you can buildizgraditi something
that will earnzaraditi the trustpovjerenje of mostnajviše people.
183
524878
3096
08:59
Because we have to find a way
to tapslavina into the collectivekolektivan wisdommudrost
184
527998
3162
Jer moramo pronaći način da
zagrabimo u kolektivnu mudrost
09:03
and experienceiskustvo of all usersKorisnici.
185
531184
2309
te iskustvo svakog korisnika.
09:05
This is particularlynaročito the casespis
for womenžene, people of colorboja
186
533517
2646
To je posebno bitno za žene, nebijelce,
i nedovoljno zastupljene skupine.
09:08
and underrepresentedpodzastupljene groupsgrupe.
187
536187
1346
09:09
Because guessnagađati what?
188
537557
1166
Jer pogodite?
09:10
They are expertsstručnjaci when it comesdolazi
to hatemrziti and disinformationDezinformacija,
189
538747
2735
Oni su stručnjaci kada se radi
o mržnji i dezinformiranju,
09:13
because they have been the targetsciljevi
of these campaignskampanje for so long.
190
541506
3516
jer su oni toliko dugo
bili mete takvih kampanja.
09:17
And over the yearsgodina,
they'vešto ga do been raisingpodizanje flagszastave,
191
545046
2350
Tijekom godina, podizali su zastavice,
09:19
and they haven'tnisu been listenedslušao to.
192
547420
1665
a nismo ih slušali.
09:21
This has got to changepromijeniti.
193
549109
1280
To se mora promijeniti.
09:22
So could we buildizgraditi a WikipediaWikipedia for trustpovjerenje?
194
550807
4326
Možemo li sagraditi
Wikipediju za povjerenje?
09:27
Could we find a way that usersKorisnici
can actuallyzapravo providepružiti insightsuvidi?
195
555157
4189
Možemo li pronaći način da nam
korisnici zapravo omoguće uvide?
09:31
They could offerponuda insightsuvidi around
difficulttežak content-moderationmoderiranje sadržaja decisionsodluke.
196
559370
3697
Mogu ponuditi uvide pri teškim
odlukama o moderiranju sadržaja.
09:35
They could providepružiti feedbackpovratna veza
197
563091
1463
Mogu nam dati povratnu informaciju
09:36
when platformsplatforme decideodlučiti
they want to rollsvitak out newnovi changespromjene.
198
564578
3041
kada platforme odluče
izbaciti nove promjene.
09:40
SecondDrugi, people'snarodno experiencesiskustva
with the informationinformacija is personalizedpersonalizirane.
199
568241
4162
Drugo, ljudska iskustva s
informacijama su osobna.
09:44
My FacebookFacebook newsvijesti feedstočna hrana
is very differentdrugačiji to yourstvoj.
200
572427
2643
Moj popis novosti na Facebooku
je vrlo različit od vašeg.
09:47
Your YouTubeMladost recommendationspreporuke
are very differentdrugačiji to minerudnik.
201
575094
2745
Vaše preporuke na YouTubeu su
vrlo različite od mojih.
09:49
That makesmarke it impossiblenemoguće for us
to actuallyzapravo examineispitati
202
577863
2492
To čini nemogućim da preispitamo
09:52
what informationinformacija people are seeingvidim.
203
580379
2023
koje informacije ljudi vide.
09:54
So could we imaginezamisliti
204
582815
1389
Možemo li zamisliti
09:56
developingrazvoju some kindljubazan of centralizedcentralizirana
openotvoren repositoryskladište for anonymizedanonimizirane datapodaci,
205
584228
4778
da razvijemo neku vrstu središnjeg
otvorenog skladišta za anonimne podatke,
10:01
with privacyprivatnost and ethicaletički
concernszabrinutost builtizgrađen in?
206
589030
2864
s ugrađenom privatnošću
i etičkim ogradama?
10:04
Because imaginezamisliti what we would learnnaučiti
207
592220
1778
Jer zamislite što bismo mogli naučiti
10:06
if we builtizgrađen out a globalglobalno networkmreža
of concernedzabrinut citizensgrađani
208
594022
3261
ako izgradimo svjetsku mrežu
angažiranih građana
10:09
who wanted to donatedonirati
theirnjihov socialsocijalni datapodaci to scienceznanost.
209
597307
3294
koji žele donirati svoje
društvene podatke znanosti.
10:13
Because we actuallyzapravo know very little
210
601141
1722
Jer zapravo znamo jako malo
10:14
about the long-termdugoročno consequencesposljedice
of hatemrziti and disinformationDezinformacija
211
602887
2881
o dugoročnim posljedicama
mržnje i dezinformacija
10:17
on people'snarodno attitudesstavovi and behaviorsponašanja.
212
605792
1975
na ljudske stavove i ponašanja.
10:20
And what we do know,
213
608236
1167
A ono što znamo
10:21
mostnajviše of that has been
carriedprenosi out in the US,
214
609427
2193
većinom je bilo izvedeno u SAD-u,
10:23
despitebez obzira na the factčinjenica that
this is a globalglobalno problemproblem.
215
611644
2381
usprkos tome što je ovo svjetski problem.
10:26
We need to work on that, too.
216
614049
1635
I na tome moramo raditi.
10:28
And thirdtreći,
217
616192
1150
Treće,
10:29
can we find a way to connectSpojiti the dotstočkice?
218
617366
2310
možemo li naći način da spojimo točke?
10:31
No one sectorsektor, let alonesam nonprofitneprofitna,
start-uppuštanje u pogon or governmentvlada,
219
619700
3438
Nijedan sektor, posebno ne neprofitna
udruga, start-up tvrtka ili vlada
10:35
is going to solveriješiti this.
220
623162
1422
neće ovo riješiti.
10:36
But there are very smartpametan people
right around the worldsvijet
221
624608
2564
Ali ima jako pametnih ljudi
svuda po svijetu
10:39
workingrad on these challengesizazovi,
222
627196
1381
koji rade na ovim izazovima,
10:40
from newsroomsnovinarstvo, civilgrađanski societydruštvo,
academiaakademske zajednice, activistaktivista groupsgrupe.
223
628601
3576
uredništva vijesti, civilno društvo,
akademski djelatnici, skupine aktivista.
10:44
And you can see some of them here.
224
632201
1898
Neke od njih možete vidjeti ovdje.
10:46
Some are buildingzgrada out indicatorspokazatelji
of contentsadržaj credibilityvjerodostojnost.
225
634123
2927
Neki grade pokazatelje za
vjerodostojnost sadržaja.
10:49
OthersDrugi are fact-checkingProvjera činjenica,
226
637074
1246
Drugi provjeravaju podatke,
10:50
so that falselažan claimszahtjevi, videosvideo and imagesslika
can be down-rankeddolje rangirani by the platformsplatforme.
227
638344
3591
kako bi lažne tvrdnje, videi i slike
bili nisko rangirani na platformama.
10:53
A nonprofitneprofitna I helpedpomogao
to foundpronađeno, First DraftNacrt,
228
641959
2213
Pomogla sam osnovati neprofitnu
udrugu First Draft
10:56
is workingrad with normallynormalno competitivekonkurentan
newsroomsnovinarstvo around the worldsvijet
229
644196
2968
koja radi s uobičajeno natjecateljskim
uredništvima vijesti po svijetu
10:59
to help them buildizgraditi out investigativeistraživačkog novinarstva,
collaborativekolaborativni programsprogrami.
230
647188
3503
da im pomogne u gradnji
istraživačkih, surađivačkih programa.
11:03
And DannyDanny HillisHillis, a softwaresoftver architectarhitekt,
231
651231
2309
Danny Hillis, inženjer softvera,
11:05
is designingprojektiranje a newnovi systemsistem
calledzvao The UnderlayUnderlay,
232
653564
2381
gradi novi sustav imenom The Underlay,
11:07
whichkoji will be a recordsnimiti
of all publicjavnost statementsizjava of factčinjenica
233
655969
2775
koji će biti arhiv svih javnih činjenica
11:10
connectedpovezan to theirnjihov sourcesizvori,
234
658768
1329
povezanih sa svojim izvorom,
11:12
so that people and algorithmsalgoritmi
can better judgesuditi what is crediblevjerodostojan.
235
660121
3654
kako bi ljudi i algoritmi bolje
procijenili što je vjerodostojno.
11:16
And educatorsodgojitelji around the worldsvijet
are testingtestiranje differentdrugačiji techniquesTehnike
236
664800
3356
Edukatori diljem svijeta
testiraju različite tehnike
11:20
for findingnalaz waysnačine to make people
criticalkritično of the contentsadržaj they consumepojesti.
237
668180
3484
u nalaženju načina da ljudi postanu
kritični prema sadržaju koji koriste.
11:24
All of these effortsnapori are wonderfulpredivan,
but they're workingrad in silossilosi,
238
672633
3141
Svi ti pokušaji su divni,
ali oni rade nepovezano,
11:27
and manymnogi of them are woefullyŽalosno underfundedunderfunded.
239
675798
2680
i mnogima od njih kronično
nedostaju financijska sredstva.
11:30
There are alsotakođer hundredsstotine
of very smartpametan people
240
678502
2053
Ima i stotine vrlo pametnih ljudi
11:32
workingrad insideiznutra these companiestvrtke,
241
680579
1652
koji rade unutar ovih tvrtki,
11:34
but again, these effortsnapori
can feel disjointedrazjedinjeno.,
242
682255
2325
ali opet, ta nastojanja su rascjepkana,
11:36
because they're actuallyzapravo developingrazvoju
differentdrugačiji solutionsrješenja to the sameisti problemsproblemi.
243
684604
3937
jer oni zapravo razvijaju različita
rješenja za isti problem.
11:41
How can we find a way
to bringdonijeti people togetherzajedno
244
689205
2269
Kako možemo naći način da spojimo ljude
11:43
in one physicalfizička locationmjesto
for daysdana or weeksTjedni at a time,
245
691498
3278
na jednoj fizičkoj lokaciji
danima ili tjednima istodobno,
11:46
so they can actuallyzapravo tacklepribor
these problemsproblemi togetherzajedno
246
694800
2396
kako bi zajedno mogli
savladati ove probleme
11:49
but from theirnjihov differentdrugačiji perspectivesperspektive?
247
697220
1818
ali s različitih gledišta?
11:51
So can we do this?
248
699062
1340
Pa možemo li to učiniti?
11:52
Can we buildizgraditi out a coordinatedkoordinirana,
ambitiousambiciozni responseodgovor,
249
700426
3239
Možemo li izgraditi koordiniranu,
ambicioznu reakciju
11:55
one that matchesodgovara the scaleljestvica
and the complexitysloženost of the problemproblem?
250
703689
3709
koja će se mjeriti s razinom i
kompleksnošću problema?
11:59
I really think we can.
251
707819
1373
Stvarno mislim da možemo.
12:01
TogetherZajedno, let's rebuildobnoviti
our informationinformacija commonszajednička.
252
709216
2959
Zajedno, izgradimo ponovno
naš informacijski krajolik.
12:04
Thank you.
253
712819
1190
Hvala.
12:06
(ApplausePljesak)
254
714033
3728
(Pljesak)
Translated by Martina Peraic
Reviewed by Sanda Liker

▲Back to top

ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee