ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com
TED2019

Claire Wardle: How you can help transform the internet into a place of trust

克萊兒 · 瓦多: 如何協助將互聯網轉變為可信的地方

Filmed:
1,319,606 views

要如何阻止誤導、散播危險的資訊,同時還保有網路的言論自由核心?虛假資訊專家克萊兒 · 瓦多帶大家探究受污染的線上環境遭遇了哪些難題,並規劃將網路轉變成可信之地的一個計畫。這需要日常使用者的協助。她說:「讓我們同心協力一起重建我們對資訊的共識。」
- Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online. Full bio

Double-click the English transcript below to play the video.

00:13
No matter who you are or where you live生活,
0
1548
2516
不論你是誰,不論你住在哪裡,
00:16
I'm guessing揣測 that you have
at least最小 one relative相對的
1
4088
2356
我猜想你應該至少有一位親戚
00:18
that likes喜歡 to forward前鋒 those emails電子郵件.
2
6468
2334
會喜歡轉傳那些電子郵件。
00:21
You know the ones那些 I'm talking about --
3
9206
1900
你們知道,我指的是那種
內容可疑的郵件或陰謀論的影片。
00:23
the ones那些 with dubious可疑 claims索賠
or conspiracy陰謀 videos視頻.
4
11130
2854
00:26
And you've probably大概
already已經 muted靜音 them on FacebookFacebook的
5
14315
2668
你可能已經因為他們
會分享這類社交貼文
00:29
for sharing分享 social社會 posts帖子 like this one.
6
17007
2348
而在臉書上取消追蹤他們了。
00:31
It's an image圖片 of a banana香蕉
7
19379
1404
像這張圖片中的香蕉
中間有個奇怪的紅色十字。
00:32
with a strange奇怪 red cross交叉
running賽跑 through通過 the center中央.
8
20807
2667
00:35
And the text文本 around it is warning警告 people
9
23498
2139
周圍的文字則是在警告大家
不要吃這樣的食物,
00:37
not to eat fruits水果 that look like this,
10
25661
2158
指出這類食物已經被注入了
感染愛滋病病毒的血液。
00:39
suggesting提示 they've他們已經 been
injected注射 with blood血液
11
27843
2028
00:41
contaminated污染 with the HIVHIV virus病毒.
12
29895
2130
00:44
And the social社會 share分享 message信息
above以上 it simply只是 says,
13
32049
2603
分享這個資訊的社群只是說:
00:46
"Please forward前鋒 to save保存 lives生活."
14
34676
2181
「請轉傳,以拯救人命。」
00:49
Now, fact-checkers事實檢查器 have been debunking揭穿
this one for years年份,
15
37672
3294
事實查核早在數年前
就揭穿這則假消息了,
00:52
but it's one of those rumors傳聞
that just won't慣於 die.
16
40990
2809
但有些謠言就是殺不死,
這是其中之一。
00:55
A zombie殭屍 rumor謠言.
17
43823
1271
喪屍級謠言。
00:57
And, of course課程, it's entirely完全 false.
18
45513
2093
當然,這完全是錯誤資訊。
01:00
It might威力 be tempting誘人的 to laugh
at an example like this, to say,
19
48180
2959
我們會很想笑看這種例子,並說:
01:03
"Well, who would believe this, anyway無論如何?"
20
51163
1884
「反正,誰會相信啊?」
01:05
But the reason原因 it's a zombie殭屍 rumor謠言
21
53419
1626
但,它之所以是喪屍級謠言,
01:07
is because it taps水龍頭 into people's人們
deepest最深 fears恐懼 about their own擁有 safety安全
22
55069
3889
就是因為它觸及了
人們最深的恐懼,
擔心他們自己和愛人的安全。
01:10
and that of the people they love.
23
58982
2175
01:13
And if you spend as enough足夠 time
as I have looking at misinformation誤傳,
24
61783
3273
如果你跟我一樣花足夠
時間去研究錯誤資訊,
01:17
you know that this is just
one example of many許多
25
65080
2420
你會就知道,還有很多像這樣的例子,
01:19
that taps水龍頭 into people's人們 deepest最深
fears恐懼 and vulnerabilities漏洞.
26
67524
3047
都會觸及人們最深的恐懼和弱點。
01:23
Every一切 day, across橫過 the world世界,
we see scores分數 of new memes模因 on InstagramInstagram的
27
71214
4369
每天,在全世界都會在 IG 上
看到許多新的網路迷因,
01:27
encouraging鼓舞人心的 parents父母
not to vaccinate接種疫苗 their children孩子.
28
75607
3039
鼓勵父母不要帶孩子去接種疫苗。
01:30
We see new videos視頻 on YouTubeYouTube的
explaining說明 that climate氣候 change更改 is a hoax惡作劇.
29
78670
4532
在 YouTube 上會有新的影片出來,
解釋氣候變遷只是個騙局。
01:35
And across橫過 all platforms平台, we see
endless無窮 posts帖子 designed設計 to demonize妖魔化 others其他
30
83226
4302
在各平台上,都有無數貼文
目的是在將某些種族、宗教,
或性向的人給妖魔化。
01:39
on the basis基礎 of their race種族,
religion宗教 or sexuality性慾.
31
87552
3501
01:44
Welcome歡迎 to one of the central中央
challenges挑戰 of our time.
32
92314
3030
歡迎來到這個時代的核心挑戰之一。
01:47
How can we maintain保持 an internet互聯網
with freedom自由 of expression表達 at the core核心,
33
95647
4025
我們要如何讓網路保有
自由發表意見的核心價值,
01:51
while also ensuring確保 that the content內容
that's being存在 disseminated傳播
34
99696
3303
同時確保被散播出去的內容
01:55
doesn't cause原因 irreparable不可 挽回 harms危害
to our democracies民主, our communities社區
35
103023
3886
不會對我們的民主、我們的社會、
我們的身心安康,
造成無法修復的傷害?
01:58
and to our physical物理 and mental心理 well-being福利?
36
106933
2238
02:01
Because we live生活 in the information信息 age年齡,
37
109998
2087
因為我們生活在資訊的時代,
02:04
yet然而 the central中央 currency貨幣
upon which哪一個 we all depend依靠 -- information信息 --
38
112109
3547
但我們所有人仰賴的
中心貨幣——即,資訊——
02:07
is no longer deemed認為 entirely完全 trustworthy可靠
39
115680
2357
已經不再能被完全信任,
02:10
and, at times, can appear出現
downright徹頭徹尾 dangerous危險.
40
118061
2328
有些時候,甚至會造成危險。
02:12
This is thanks謝謝 in part部分 to the runaway逃跑
growth發展 of social社會 sharing分享 platforms平台
41
120811
3937
這背後有部分原因是因為
社交分享平台的脫韁成長,
02:16
that allow允許 us to scroll滾動 through通過,
42
124772
1642
在那裡,謊言和事實
混在一起供我們瀏覽,
02:18
where lies and facts事實 sit side by side,
43
126438
2222
02:20
but with none沒有 of the traditional傳統
signals信號 of trustworthiness誠信.
44
128684
3071
傳統的信任價值已蕩然無存。
02:24
And goodness善良 -- our language語言 around this
is horribly可怕 muddled糊塗.
45
132268
3619
且,老天,我們
在這方面的用語是一團亂。
02:27
People are still obsessed痴迷
with the phrase短語 "fake news新聞,"
46
135911
3103
大家對「假新聞」上癮,
02:31
despite儘管 the fact事實 that
it's extraordinarily異常 unhelpful無益
47
139038
2531
這些新聞不但沒有幫助,
02:33
and used to describe描述 a number of things
that are actually其實 very different不同:
48
141593
3460
且常被用來包裝各式各樣的東西:
02:37
lies, rumors傳聞, hoaxes騙局,
conspiracies陰謀, propaganda宣傳.
49
145077
3386
謊言、謠言、騙局、陰謀、洗腦文。
02:40
And I really wish希望
we could stop using運用 a phrase短語
50
148911
2912
我真希望我們能不要
再用「假新聞」這詞了,
02:43
that's been co-opted增選 by politicians政治家
right around the world世界,
51
151847
2862
它已經被全世界政治人物汙染,
02:46
from the left and the right,
52
154733
1471
從左派到右派都一樣,
02:48
used as a weapon武器 to attack攻擊
a free自由 and independent獨立 press.
53
156228
3222
用來當作武器,
攻擊自由、獨立的媒體。
02:52
(Applause掌聲)
54
160307
4702
(掌聲)
02:57
Because we need our professional專業的
news新聞 media媒體 now more than ever.
55
165033
3462
因為,比起過去,現在我們
更需要專業的新聞媒體。
03:00
And besides除了, most of this content內容
doesn't even masquerade假面舞會 as news新聞.
56
168882
3373
此外,這類內容根本
還稱不上是新聞。
03:04
It's memes模因, videos視頻, social社會 posts帖子.
57
172279
2642
它們只是迷因、影片、社群貼文。
03:06
And most of it is not fake;
it's misleading誤導.
58
174945
3453
且它們大部分不是假的,
而是會誤導的。
03:10
We tend趨向 to fixate固定 on what's true真正 or false.
59
178422
3015
我們總是想把事情二分為對或錯。
03:13
But the biggest最大 concern關心 is actually其實
the weaponization武器化 of context上下文.
60
181461
4032
但最讓人擔憂的,
是把情境變成武器。
03:18
Because the most effective有效 disinformation造謠
61
186855
1968
因為,最有效的虛假資訊
03:20
has always been that
which哪一個 has a kernel核心 of truth真相 to it.
62
188847
3048
通常在核心還是有某些真相。
03:23
Let's take this example
from London倫敦, from March遊行 2017,
63
191919
3476
舉個倫敦的例子,2017 年三月,
03:27
a tweet鳴叫 that circulated流傳 widely廣泛
64
195419
1540
在西敏橋的恐攻事件之後,
03:28
in the aftermath後果 of a terrorist恐怖分子 incident事件
on Westminster威斯敏斯特 Bridge.
65
196983
3587
出現了一則廣為流傳的推文。
03:32
This is a genuine真正 image圖片, not fake.
66
200594
2428
這是真實的照片,不是假的。
03:35
The woman女人 who appears出現 in the photograph照片
was interviewed採訪 afterwards之後,
67
203046
3169
照片中的女子後來有被訪問,
她解釋說她心理受到很大的創傷。
03:38
and she explained解釋 that
she was utterly完全 traumatized創傷.
68
206239
2409
03:40
She was on the phone電話 to a loved喜愛 one,
69
208672
1738
她當時在和愛人講電話,
03:42
and she wasn't looking
at the victim受害者 out of respect尊重.
70
210434
2618
去被誤會成對受害者毫無同情心。
03:45
But it still was circulated流傳 widely廣泛
with this Islamophobic仇視伊斯蘭教 framing取景,
71
213076
3960
但這張照片仍然被扣上了
恐伊斯蘭的誣陷文字
之後廣為流傳,
03:49
with multiple hashtags主題標籤,
including包含: #BanIslam班伊斯蘭.
72
217060
3046
還附上許多主題標籤,
包括 #禁伊斯蘭。
03:52
Now, if you worked工作 at Twitter推特,
what would you do?
73
220425
2398
如果你在推特工作,你會怎麼做?
03:54
Would you take that down,
or would you leave離開 it up?
74
222847
2562
你會把這則推文拿掉?
還是留在上面?
03:58
My gut腸道 reaction反應, my emotional情緒化 reaction反應,
is to take this down.
75
226553
3429
我的直覺反應,我的
情緒反應,是把它拿掉。
04:02
I hate討厭 the framing取景 of this image圖片.
76
230006
2142
我很不喜歡這張照片的說明。
04:04
But freedom自由 of expression表達
is a human人的 right,
77
232585
2388
但人權本來就包括表達的自由,
04:06
and if we start開始 taking服用 down speech言語
that makes品牌 us feel uncomfortable不舒服,
78
234997
3225
如果我們開始把讓我們不舒服的
言論都拿掉,就會有麻煩了。
04:10
we're in trouble麻煩.
79
238246
1230
04:11
And this might威力 look like a clear-cut明確 case案件,
80
239500
2294
這可能看起來是個很明確的案例,
04:13
but, actually其實, most speech言語 isn't.
81
241818
1698
但,大部分的言論沒這麼清楚。
因為那條界線非常難拿捏。
04:15
These lines are incredibly令人難以置信
difficult to draw.
82
243540
2436
04:18
What's a well-meaning善意
decision決定 by one person
83
246000
2281
一個出於善意的舉動,
04:20
is outright公然 censorship審查 to the next下一個.
84
248305
2077
對其它人來說,可能就是無情的審查。
04:22
What we now know is that
this account帳戶, Texas德州 Lone孤單 Star,
85
250759
2929
我們知道,Texas Lone Star
(德州孤星)這個帳號
04:25
was part部分 of a wider更寬的 Russian俄語
disinformation造謠 campaign運動,
86
253712
3230
曾經是俄國用來散播
虛假資訊活動的帳號,
04:28
one that has since以來 been taken採取 down.
87
256966
2151
雖然事後被下架了。
04:31
Would that change更改 your view視圖?
88
259141
1563
但會改變你的觀點嗎?
04:33
It would mine,
89
261322
1159
會改變我的,
04:34
because now it's a case案件
of a coordinated協調 campaign運動
90
262505
2301
因為它是一個製造爭端的協作案例。
04:36
to sow母豬 discord不和.
91
264830
1215
04:38
And for those of you who'd誰願意 like to think
92
266069
1961
如果你認為人工智慧將會
解決我們所有的問題,
04:40
that artificial人造 intelligence情報
will solve解決 all of our problems問題,
93
268054
2831
04:42
I think we can agree同意
that we're a long way away
94
270909
2225
我想大家都同意,
我們還有很長的路要走,
04:45
from AIAI that's able能夠 to make sense
of posts帖子 like this.
95
273158
2587
才能讓人工智慧能夠
理解像這樣的貼文。
04:48
So I'd like to explain說明
three interlocking聯鎖 issues問題
96
276856
2507
所以我想解釋一下,
讓這件事變得如此複雜的
04:51
that make this so complex複雜
97
279387
2373
三個相關議題,
04:53
and then think about some ways方法
we can consider考慮 these challenges挑戰.
98
281784
3122
接著,想想我們要
如何處理這些挑戰。
04:57
First, we just don't have
a rational合理的 relationship關係 to information信息,
99
285348
3890
首先,我們只是沒有和資訊
建立起理性的關係,
05:01
we have an emotional情緒化 one.
100
289262
1468
我們建立的是情緒化的關係。
05:02
It's just not true真正 that more facts事實
will make everything OK,
101
290754
3794
並非有越多事實就能搞定一切,
05:06
because the algorithms算法 that determine確定
what content內容 we see,
102
294572
3100
因為,那些用來判定
我們想看什麼內容的演算法,
05:09
well, they're designed設計 to reward獎勵
our emotional情緒化 responses回复.
103
297696
3127
它們是設計來獎勵
我們的情緒反應。
05:12
And when we're fearful可怕,
104
300847
1381
當我們恐懼時,過度簡化的說詞、
05:14
oversimplified過於簡單 narratives敘事,
conspiratorial陰謀 explanations說明
105
302252
3174
陰謀論的解釋,
05:17
and language語言 that demonizes妖魔化 others其他
is far more effective有效.
106
305450
3418
將他人妖魔化的用語,
都會更有效許多。
05:21
And besides除了, many許多 of these companies公司,
107
309538
1874
此外,許多這類公司的商業模型
和注意力息息相關,
05:23
their business商業 model模型
is attached to attention注意,
108
311436
2546
05:26
which哪一個 means手段 these algorithms算法
will always be skewed偏斜 towards emotion情感.
109
314006
3690
也就是說,這些演算法
一定都會偏向情緒那一邊。
05:30
Second第二, most of the speech言語
I'm talking about here is legal法律.
110
318371
4298
第二,我所說的這些言論,
大部分是合法的。
05:35
It would be a different不同 matter
111
323081
1446
這完全不像是談論兒童性侵的意象
05:36
if I was talking about
child兒童 sexual有性 abuse濫用 imagery意象
112
324551
2341
或者煽動暴力的內容。
05:38
or content內容 that incites煽動 violence暴力.
113
326916
1927
05:40
It can be perfectly完美 legal法律
to post崗位 an outright公然 lie謊言.
114
328867
3270
張貼徹頭徹尾的謊言並不違法。
05:45
But people keep talking about taking服用 down
"problematic問題" or "harmful有害" content內容,
115
333130
4034
但大家不斷地討論「有問題的」
或「會造成傷害」的內容,
05:49
but with no clear明確 definition定義
of what they mean by that,
116
337188
2609
卻無法清楚定義他們指的是什麼,
就連最近呼籲建立全球規制
來管理言論的馬克祖柏格也一樣。
05:51
including包含 Mark標記 Zuckerberg扎克伯格,
117
339821
1264
05:53
who recently最近 called for global全球
regulation to moderate中等 speech言語.
118
341109
3412
05:56
And my concern關心 is that
we're seeing眼看 governments政府
119
344870
2215
我擔心的是,我們看到
世界各地的政府
05:59
right around the world世界
120
347109
1292
06:00
rolling壓延 out hasty policy政策 decisions決定
121
348425
2676
趕著推出政策決定,
06:03
that might威力 actually其實 trigger觸發
much more serious嚴重 consequences後果
122
351125
2746
在言論方面,這些決定
可能會觸發更嚴重的後果。
06:05
when it comes to our speech言語.
123
353895
1714
06:08
And even if we could decide決定
which哪一個 speech言語 to take up or take down,
124
356006
3706
就算我們能判定哪些言論
可以放上網,哪些要拿掉,
06:11
we've我們已經 never had so much speech言語.
125
359736
2174
我們以前也從未有這麼多言論。
06:13
Every一切 second第二, millions百萬
of pieces of content內容
126
361934
2131
每秒鐘就有數百萬則內容
被世界各地的人上傳到網路上,
06:16
are uploaded上傳 by people
right around the world世界
127
364089
2107
用的是不同語言,背景是
數以千計不同的文化情境。
06:18
in different不同 languages語言,
128
366220
1168
06:19
drawing畫畫 on thousands數千
of different不同 cultural文化 contexts上下文.
129
367412
2768
06:22
We've我們已經 simply只是 never had
effective有效 mechanisms機制
130
370204
2532
我們實在沒有任何有效的機制
可以管理這麼大規模的言論,
06:24
to moderate中等 speech言語 at this scale規模,
131
372760
1738
06:26
whether是否 powered動力 by humans人類
or by technology技術.
132
374522
2801
不論用人力或技術都辦不到。
06:30
And third第三, these companies公司 --
Google谷歌, Twitter推特, FacebookFacebook的, WhatsAppWhatsApp的 --
133
378284
3944
第三,這些公司——Google、
推特、臉書、WhatsApp——
06:34
they're part部分 of a wider更寬的
information信息 ecosystem生態系統.
134
382252
2841
它們都是廣闊資訊生態系統的一部分。
06:37
We like to lay鋪設 all the blame
at their feet, but the truth真相 is,
135
385117
3352
我們喜歡把所有責任
都推到它們身上,但事實是,
06:40
the mass media媒體 and elected當選 officials官員
can also play an equal等於 role角色
136
388493
3830
大眾媒體和民選官員
也都有同樣的影響力,
06:44
in amplifying放大 rumors傳聞 and conspiracies陰謀
when they want to.
137
392347
2913
只要他們想,也可以在放大謠言和
陰謀上,發揮等同的影響力。
06:47
As can we, when we mindlessly盲目 forward前鋒
divisive分裂 or misleading誤導 content內容
138
395800
4944
我們也是,
我們會無心且毫不費力地轉傳
造成分化或誤導的內容。
06:52
without trying.
139
400768
1285
06:54
We're adding加入 to the pollution污染.
140
402077
1800
我們也在助長污染。
06:57
I know we're all looking for an easy簡單 fix固定.
141
405236
2618
我知道大家都想要
有簡單的解決方式。
06:59
But there just isn't one.
142
407878
1667
但就是沒有。
07:01
Any solution will have to be rolled熱軋 out
at a massive大規模的 scale規模, internet互聯網 scale規模,
143
409950
4445
要推出解決方式,就要以
極大的規模推出,網路的規模,
07:06
and yes, the platforms平台,
they're used to operating操作 at that level水平.
144
414419
3261
是的,平台就是在網路
這麼大的規模下運作的。
07:09
But can and should we allow允許 them
to fix固定 these problems問題?
145
417704
3472
但我們能讓它們去解決這些問題嗎?
07:13
They're certainly當然 trying.
146
421668
1232
他們肯定有在試。
但我們大部分人都認同,
07:14
But most of us would agree同意 that, actually其實,
we don't want global全球 corporations公司
147
422924
4086
其實,我們並不希望全球大企業
07:19
to be the guardians監護人 of truth真相
and fairness公平 online線上.
148
427034
2332
成為網路真相和公平的守護者。
07:21
And I also think the platforms平台
would agree同意 with that.
149
429390
2537
我認為平台也不希望如此。
07:24
And at the moment時刻,
they're marking印記 their own擁有 homework家庭作業.
150
432257
2881
此刻,他們是球員兼裁判。
07:27
They like to tell us
151
435162
1198
他們想要告訴我們,
他們推出的干預方式奏效了,
07:28
that the interventions干預措施
they're rolling壓延 out are working加工,
152
436384
2579
但,因為他們的透明度
報告是自己撰寫的,
07:30
but because they write
their own擁有 transparency透明度 reports報告,
153
438987
2540
07:33
there's no way for us to independently獨立地
verify校驗 what's actually其實 happening事件.
154
441551
3618
我們沒有辦法獨立地
去驗證發生了什麼事。
07:38
(Applause掌聲)
155
446431
3342
(掌聲)
07:41
And let's also be clear明確
that most of the changes變化 we see
156
449797
2952
另外要說清楚一件事,
我們看到的大部分改變發生的時機,
07:44
only happen發生 after journalists記者
undertake承擔 an investigation調查
157
452773
2994
都是在記者進行調查
07:47
and find evidence證據 of bias偏壓
158
455791
1611
並找到偏見的證據
07:49
or content內容 that breaks休息
their community社區 guidelines方針.
159
457426
2829
或違反業界原則的內容之後。
07:52
So yes, these companies公司 have to play
a really important重要 role角色 in this process處理,
160
460815
4595
所以,是的,在這個過程中,
這些企業扮演了很重要的角色,
07:57
but they can't control控制 it.
161
465434
1560
但他們不能控制言論。
07:59
So what about governments政府?
162
467855
1518
那政府呢?
08:01
Many許多 people believe
that global全球 regulation is our last hope希望
163
469863
3096
許多人認為,全球規制
是我們最後的希望,
08:04
in terms條款 of cleaning清潔的 up
our information信息 ecosystem生態系統.
164
472983
2880
清理資訊生態系統的最後希望。
08:07
But what I see are lawmakers國會議員
who are struggling奮鬥的 to keep up to date日期
165
475887
3166
但我看到立法者
非常難跟上科技的快速改變。
08:11
with the rapid快速 changes變化 in technology技術.
166
479077
2341
08:13
And worse更差, they're working加工 in the dark黑暗,
167
481442
1904
更糟的是,他們還在瞎子摸象,
08:15
because they don't have access訪問 to data數據
168
483370
1821
因為他們無法取得資料
08:17
to understand理解 what's happening事件
on these platforms平台.
169
485215
2650
來了解這些平台發生了什麼事。
08:20
And anyway無論如何, which哪一個 governments政府
would we trust相信 to do this?
170
488260
3071
總之,在這件事情上,
我們能相信哪個政府?
08:23
We need a global全球 response響應,
not a national國民 one.
171
491355
2770
我們需要的是全球性的
因應,而非全國性的。
08:27
So the missing失踪 link鏈接 is us.
172
495419
2277
這當中遺失的環節就是我們。
08:29
It's those people who use
these technologies技術 every一切 day.
173
497720
3123
就是每天使用這些科技的人。
08:33
Can we design設計 a new infrastructure基礎設施
to support支持 quality質量 information信息?
174
501260
4591
我們能否設計新的基礎結構
來支持有品質的資訊?
08:38
Well, I believe we can,
175
506371
1230
我相信可以,
08:39
and I've got a few少數 ideas思路 about
what we might威力 be able能夠 to actually其實 do.
176
507625
3357
對於我們能做什麼,
我有幾個想法。
08:43
So firstly首先, if we're serious嚴重
about bringing使 the public上市 into this,
177
511006
3103
首先,如果我們當真
想要讓大眾介入,
08:46
can we take some inspiration靈感
from Wikipedia維基百科?
178
514133
2381
我們能否從維基百科來找靈感?
08:48
They've他們已經 shown顯示 us what's possible可能.
179
516538
1824
他們讓我們看到了可能性。
08:50
Yes, it's not perfect完善,
180
518386
1151
是的,它並不完美,但它證明了
08:51
but they've他們已經 demonstrated證明
that with the right structures結構,
181
519561
2634
有對的架構,有全球的目光,
有很高的透明度,
08:54
with a global全球 outlook外表
and lots and lots of transparency透明度,
182
522219
2635
就能建造出讓多數人信賴的東西。
08:56
you can build建立 something
that will earn the trust相信 of most people.
183
524878
3096
08:59
Because we have to find a way
to tap龍頭 into the collective集體 wisdom智慧
184
527998
3162
因為我們得要找到方法,去挖掘
所有使用者的集體智慧和經驗。
09:03
and experience經驗 of all users用戶.
185
531184
2309
09:05
This is particularly尤其 the case案件
for women婦女, people of color顏色
186
533517
2646
對於女性、有色人種,
及少數弱勢族群更是如此。
09:08
and underrepresented代表性不足 groups.
187
536187
1346
09:09
Because guess猜測 what?
188
537557
1166
因為,你猜如何?他們是
仇恨和虛假資訊的專家,
09:10
They are experts專家 when it comes
to hate討厭 and disinformation造謠,
189
538747
2735
09:13
because they have been the targets目標
of these campaigns活動 for so long.
190
541506
3516
因為長久以來他們都是
這些活動的目標對象。
09:17
And over the years年份,
they've他們已經 been raising提高 flags,
191
545046
2350
這些年來,他們一直
都在小心提防,
09:19
and they haven't沒有 been listened聽了 to.
192
547420
1665
但沒有人傾聽他們。
09:21
This has got to change更改.
193
549109
1280
這點必須要改變。
09:22
So could we build建立 a Wikipedia維基百科 for trust相信?
194
550807
4326
我們能建造出信任的維基百科嗎?
09:27
Could we find a way that users用戶
can actually其實 provide提供 insights見解?
195
555157
4189
我們能否找到方法,
讓使用者真正提供洞見?
09:31
They could offer提供 insights見解 around
difficult content-moderation內容審核 decisions決定.
196
559370
3697
他們可以針對很困難的
內容管理決策來提供洞見。
09:35
They could provide提供 feedback反饋
197
563091
1463
當平台決定想要推出新改變時,
09:36
when platforms平台 decide決定
they want to roll out new changes變化.
198
564578
3041
他們可以回饋意見。
09:40
Second第二, people's人們 experiences經驗
with the information信息 is personalized個性化.
199
568241
4162
第二,人對於資訊的體驗
是很個人化的。
09:44
My FacebookFacebook的 news新聞 feed飼料
is very different不同 to yours你的.
200
572427
2643
我的臉書新聞饋送內容
和你的非常不一樣。
09:47
Your YouTubeYouTube的 recommendations建議
are very different不同 to mine.
201
575094
2745
你的 YouTube 推薦
和我的非常不一樣。
09:49
That makes品牌 it impossible不可能 for us
to actually其實 examine檢查
202
577863
2492
因此我們不可能去真正檢查
09:52
what information信息 people are seeing眼看.
203
580379
2023
大家看到了什麼資訊。
09:54
So could we imagine想像
204
582815
1389
我們能否想像開發一種
09:56
developing發展 some kind of centralized集中
open打開 repository知識庫 for anonymized匿名 data數據,
205
584228
4778
中央化的開放貯藏庫,
用來存放匿名的資料,
10:01
with privacy隱私 and ethical合乎道德的
concerns關注 built內置 in?
206
589030
2864
且把隱私和倫理考量
都內建在其中?
10:04
Because imagine想像 what we would learn學習
207
592220
1778
想想我們能夠學到多少,
10:06
if we built內置 out a global全球 network網絡
of concerned關心 citizens公民
208
594022
3261
若我們能打造一個全球網路,
由在乎的公民構成,
10:09
who wanted to donate
their social社會 data數據 to science科學.
209
597307
3294
他們想要把他們的
社交資料貢獻給科學。
10:13
Because we actually其實 know very little
210
601141
1722
因為我們幾乎不了解
10:14
about the long-term長期 consequences後果
of hate討厭 and disinformation造謠
211
602887
2881
仇恨和虛假資訊對於人的態度
和行為會有什麼長期後果。
10:17
on people's人們 attitudes態度 and behaviors行為.
212
605792
1975
10:20
And what we do know,
213
608236
1167
我們確實知道的是,
雖然這是個全球性的問題,
10:21
most of that has been
carried攜帶的 out in the US,
214
609427
2193
10:23
despite儘管 the fact事實 that
this is a global全球 problem問題.
215
611644
2381
卻大部分發生在美國。
10:26
We need to work on that, too.
216
614049
1635
我們也得處理這一點。
10:28
And third第三,
217
616192
1150
第三,我們能不能
想辦法把點連起來?
10:29
can we find a way to connect the dots?
218
617366
2310
10:31
No one sector扇形, let alone單獨 nonprofit非營利性,
start-up啟動 or government政府,
219
619700
3438
這個問題不是單一部門能解決的,
更別說非營利組織、
新創公司、政府。
10:35
is going to solve解決 this.
220
623162
1422
10:36
But there are very smart聰明 people
right around the world世界
221
624608
2564
但全世界都有非常聰明的人
在處理這些難題,
10:39
working加工 on these challenges挑戰,
222
627196
1381
10:40
from newsrooms新聞編輯室, civil國內 society社會,
academia學術界, activist活動家 groups.
223
628601
3576
他們可能在新聞編輯部、
公民社會、學術圈、活動團體裡。
10:44
And you can see some of them here.
224
632201
1898
在這裡也有一些。
10:46
Some are building建造 out indicators指標
of content內容 credibility可信性.
225
634123
2927
有些人在建造內容可信度指標。
也有人在做事實查核,
10:49
Others其他 are fact-checking事實檢查,
226
637074
1246
10:50
so that false claims索賠, videos視頻 and images圖片
can be down-ranked向下排名 by the platforms平台.
227
638344
3591
讓虛假的主張、影片,
和影像在平台上的排名下降。
10:53
A nonprofit非營利性 I helped幫助
to found發現, First Draft草案,
228
641959
2213
我協助成立了非營利組織
「第一版草稿」,
10:56
is working加工 with normally一般 competitive競爭的
newsrooms新聞編輯室 around the world世界
229
644196
2968
它和全球各地平時會互相
競爭的新聞編輯室合作,
10:59
to help them build建立 out investigative研究,
collaborative共同 programs程式.
230
647188
3503
目的在協助他們建造
調查性的協同作業方案。
11:03
And Danny丹尼 Hillis希利斯, a software軟件 architect建築師,
231
651231
2309
軟體架構工程師丹尼希利斯
11:05
is designing設計 a new system系統
called The Underlay襯 底,
232
653564
2381
在設計一個新系統,
叫做「The Underlay」,
11:07
which哪一個 will be a record記錄
of all public上市 statements聲明 of fact事實
233
655969
2775
它能記錄事實的所有公開陳述,
並和其源頭連結,
11:10
connected連接的 to their sources來源,
234
658768
1329
11:12
so that people and algorithms算法
can better judge法官 what is credible可信的.
235
660121
3654
供人及演算法參考,
更能判斷資訊的可信度。
11:16
And educators教育工作者 around the world世界
are testing測試 different不同 techniques技術
236
664800
3356
世界各地的教育家
正在測試不同的技術,
11:20
for finding發現 ways方法 to make people
critical危急 of the content內容 they consume消耗.
237
668180
3484
找方法讓大家可以對自己
觀看的內容進行批判。
11:24
All of these efforts努力 are wonderful精彩,
but they're working加工 in silos筒倉,
238
672633
3141
這些做法都很棒,但他們
都在自己的地窖中努力,
11:27
and many許多 of them are woefully可悲 underfunded資金不足.
239
675798
2680
很遺憾的是,很多人還資金不足。
11:30
There are also hundreds數以百計
of very smart聰明 people
240
678502
2053
還有數百名非常聰明的人
在這些公司中工作,
11:32
working加工 inside these companies公司,
241
680579
1652
11:34
but again, these efforts努力
can feel disjointed脫節,
242
682255
2325
但,同樣的,他們做的努力
似乎也沒有相連結,
11:36
because they're actually其實 developing發展
different不同 solutions解決方案 to the same相同 problems問題.
243
684604
3937
因為他們是針對同樣的問題
在開發不同的解決方案。
11:41
How can we find a way
to bring帶來 people together一起
244
689205
2269
我們要如何想辦法集合大家,
11:43
in one physical物理 location位置
for days or weeks at a time,
245
691498
3278
於特定時間,在實體地點
聚會幾天或幾週,
11:46
so they can actually其實 tackle滑車
these problems問題 together一起
246
694800
2396
讓他們能真正從他們不同的觀點
來一起處理這些問題?
11:49
but from their different不同 perspectives觀點?
247
697220
1818
11:51
So can we do this?
248
699062
1340
我們能做到嗎?
11:52
Can we build建立 out a coordinated協調,
ambitious有雄心 response響應,
249
700426
3239
我們能否建造一個組織良好
且有野心的因應方式,
11:55
one that matches火柴 the scale規模
and the complexity複雜 of the problem問題?
250
703689
3709
且能夠符合問題的規模和複雜度?
11:59
I really think we can.
251
707819
1373
我真心認為可以。
12:01
Together一起, let's rebuild重建
our information信息 commons公地.
252
709216
2959
讓我們同心協力一起重建
我們對資訊的共識。
12:04
Thank you.
253
712819
1190
謝謝。
12:06
(Applause掌聲)
254
714033
3728
(掌聲)
Translated by Lilian Chiu
Reviewed by Yi-Fan Yu

▲Back to top

ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee