ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com
TED2019

Claire Wardle: How you can help transform the internet into a place of trust

克莱尔·沃德尔: 如何协助将互联网转变为信任之地?

Filmed:
1,319,606 views

在维护以言论自由为核心的互联网的同时,我们如何阻止误导信息,甚至是危险的内容的传播?错误信息专家克莱尔·沃德尔(Claire Wardle)探索了我们受污染的互联网在线环境所面临的新挑战,并制定了一项计划,将互联网转变为充满信任的场所——在日常用户的帮助下。 她说:“让我们一起,重建我们的信息共享。”
- Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online. Full bio

Double-click the English transcript below to play the video.

00:13
No matter who you are or where you live生活,
0
1548
2516
无论你是谁或者住在哪,
00:16
I'm guessing揣测 that you have
at least最小 one relative相对的
1
4088
2356
我猜你们身边至少有一位
00:18
that likes喜欢 to forward前锋 those emails电子邮件.
2
6468
2334
喜欢转发那些电子邮件的亲戚。
00:21
You know the ones那些 I'm talking about --
3
9206
1900
你们知道我说的那些邮件
是带有可疑声明
或阴谋论录像的邮件。
00:23
the ones那些 with dubious可疑 claims索赔
or conspiracy阴谋 videos视频.
4
11130
2854
00:26
And you've probably大概
already已经 muted静音 them on FacebookFacebook的
5
14315
2668
而且你们可能已经在
Facebook 上屏蔽了他们,
00:29
for sharing分享 social社会 posts帖子 like this one.
6
17007
2348
不想收到这种信息,像这个。
00:31
It's an image图片 of a banana香蕉
7
19379
1404
这是一张香蕉的图片,
00:32
with a strange奇怪 red cross交叉
running赛跑 through通过 the center中央.
8
20807
2667
香蕉中间有一个奇怪的红色十字。
00:35
And the text文本 around it is warning警告 people
9
23498
2139
旁边的文字在警告人们
00:37
not to eat fruits水果 that look like this,
10
25661
2158
不要吃这样的水果,
00:39
suggesting提示 they've他们已经 been
injected注射 with blood血液
11
27843
2028
指出了它们已经被注射了
00:41
contaminated污染 with the HIVHIV virus病毒.
12
29895
2130
被 HIV 病毒污染的血液。
00:44
And the social社会 share分享 message信息
above以上 it simply只是 says,
13
32049
2603
而且它上面的分享消息写着:
00:46
"Please forward前锋 to save保存 lives生活."
14
34676
2181
“为了拯救生命,请转发。”
00:49
Now, fact-checkers事实检查器 have been debunking揭穿
this one for years年份,
15
37672
3294
事实审查员多年来
一直在揭露这一说法的真相,
00:52
but it's one of those rumors传闻
that just won't惯于 die.
16
40990
2809
但这只是那些
永远不会消失的传闻之一。
00:55
A zombie僵尸 rumor谣言.
17
43823
1271
一个僵尸谣言。
00:57
And, of course课程, it's entirely完全 false.
18
45513
2093
当然它是完全虚假的。
01:00
It might威力 be tempting诱人的 to laugh
at an example like this, to say,
19
48180
2959
去嘲笑这样一个例子可能很诱人,
大家会说:
“反正,谁会相信这个呢?”
01:03
"Well, who would believe this, anyway无论如何?"
20
51163
1884
01:05
But the reason原因 it's a zombie僵尸 rumor谣言
21
53419
1626
但说这是僵尸谣言的原因是
01:07
is because it taps水龙头 into people's人们
deepest最深 fears恐惧 about their own拥有 safety安全
22
55069
3889
它利用了关于人们对自身安全
和他们所爱之人的
01:10
and that of the people they love.
23
58982
2175
最深层次的恐惧。
01:13
And if you spend as enough足够 time
as I have looking at misinformation误传,
24
61783
3273
而且如果你们花费和我一样多
的时间来看这个误传,
01:17
you know that this is just
one example of many许多
25
65080
2420
你们会知道这只是众多
01:19
that taps水龙头 into people's人们 deepest最深
fears恐惧 and vulnerabilities漏洞.
26
67524
3047
利用人们最深层的
恐惧和脆弱的例子之一。
01:23
Every一切 day, across横过 the world世界,
we see scores分数 of new memes模因 on InstagramInstagram的
27
71214
4369
每一天,在世界范围内,
我们都能看到 Instagram 上出现的
01:27
encouraging鼓舞人心的 parents父母
not to vaccinate接种疫苗 their children孩子.
28
75607
3039
大量新表情包在鼓励父母
不要给孩子接种疫苗。
01:30
We see new videos视频 on YouTubeYouTube的
explaining说明 that climate气候 change更改 is a hoax恶作剧.
29
78670
4532
我们看到 YoutTube 上的新视频
在解释说气候变化问题是个骗局。
01:35
And across横过 all platforms平台, we see
endless无穷 posts帖子 designed设计 to demonize妖魔化 others其他
30
83226
4302
在所有平台上,我们看见了
因为种族、宗教或性取向的不同,
01:39
on the basis基础 of their race种族,
religion宗教 or sexuality性欲.
31
87552
3501
而妖魔化他人的无穷无尽的帖子。
01:44
Welcome欢迎 to one of the central中央
challenges挑战 of our time.
32
92314
3030
欢迎来到我们这个时代
的主要挑战之一。
01:47
How can we maintain保持 an internet互联网
with freedom自由 of expression表达 at the core核心,
33
95647
4025
我们如何在维护互联网
言论自由核心的同时,
01:51
while also ensuring确保 that the content内容
that's being存在 disseminated传播
34
99696
3303
也能确保正在传播的内容
01:55
doesn't cause原因 irreparable不可 挽回 harms危害
to our democracies民主, our communities社区
35
103023
3886
不会对我们的民主、我们的社区
和我们的身心健康
01:58
and to our physical物理 and mental心理 well-being福利?
36
106933
2238
造成不可弥补的伤害?
02:01
Because we live生活 in the information信息 age年龄,
37
109998
2087
因为我们生活在信息时代,
02:04
yet然而 the central中央 currency货币
upon which哪一个 we all depend依靠 -- information信息 --
38
112109
3547
但是我们所有人都依赖的
中央货币——信息——
不再完全值得信赖,
02:07
is no longer deemed认为 entirely完全 trustworthy可靠
39
115680
2357
02:10
and, at times, can appear出现
downright彻头彻尾 dangerous危险.
40
118061
2328
而且有时会显得非常危险。
02:12
This is thanks谢谢 in part部分 to the runaway逃跑
growth发展 of social社会 sharing分享 platforms平台
41
120811
3937
这部分“归功”于
社交共享媒体的迅猛发展,
02:16
that allow允许 us to scroll滚动 through通过,
42
124772
1642
让我们可以在谎言和真相
02:18
where lies and facts事实 sit side by side,
43
126438
2222
并存的世界里滑屏浏览,
02:20
but with none没有 of the traditional传统
signals信号 of trustworthiness诚信.
44
128684
3071
但是没有任何
传统的可信赖的信号。
02:24
And goodness善良 -- our language语言 around this
is horribly可怕 muddled糊涂.
45
132268
3619
天啊——我们关于这方面
的语言极其混乱。
02:27
People are still obsessed痴迷
with the phrase短语 "fake news新闻,"
46
135911
3103
人们仍然沉迷于“假新闻”这一短语,
02:31
despite尽管 the fact事实 that
it's extraordinarily异常 unhelpful无益
47
139038
2531
尽管事实是,该短语毫无帮助,
02:33
and used to describe描述 a number of things
that are actually其实 very different不同:
48
141593
3460
并且被用来描述一系列实际上
非常不同的东西:
谎言、谣言、恶作剧、
阴谋、宣传鼓吹……
02:37
lies, rumors传闻, hoaxes骗局,
conspiracies阴谋, propaganda宣传.
49
145077
3386
02:40
And I really wish希望
we could stop using运用 a phrase短语
50
148911
2912
我非常希望我们可以停止使用
02:43
that's been co-opted增选 by politicians政治家
right around the world世界,
51
151847
2862
这一世界各地的政治家
共同选择的一个短语,
02:46
from the left and the right,
52
154733
1471
从左派到右派,
02:48
used as a weapon武器 to attack攻击
a free自由 and independent独立 press.
53
156228
3222
停止将它作为武器来攻击
自由和独立的新闻媒体。
02:52
(Applause掌声)
54
160307
4702
(掌声)
02:57
Because we need our professional专业的
news新闻 media媒体 now more than ever.
55
165033
3462
因为我们比以往任何时候
都更需要我们的专业新闻媒体。
03:00
And besides除了, most of this content内容
doesn't even masquerade假面舞会 as news新闻.
56
168882
3373
而且除此之外,大多数内容
甚至都没有被伪装成新闻,
03:04
It's memes模因, videos视频, social社会 posts帖子.
57
172279
2642
而是以表情包、视频、
社交帖子的形式存在。
03:06
And most of it is not fake;
it's misleading误导.
58
174945
3453
而且大部分内容
不是假的,而是误导。
我们倾向于专注在真假上。
03:10
We tend趋向 to fixate固定 on what's true真正 or false.
59
178422
3015
03:13
But the biggest最大 concern关心 is actually其实
the weaponization武器化 of context上下文.
60
181461
4032
但是最大的担忧实际上是
语境的武器化。
03:18
Because the most effective有效 disinformation造谣
61
186855
1968
因为最有效的虚假信息
03:20
has always been that
which哪一个 has a kernel核心 of truth真相 to it.
62
188847
3048
一直是具有真实内核的那些。
03:23
Let's take this example
from London伦敦, from March游行 2017,
63
191919
3476
举一个 2017 年 3 月伦敦的例子,
03:27
a tweet鸣叫 that circulated流传 widely广泛
64
195419
1540
在威斯敏斯特桥
03:28
in the aftermath后果 of a terrorist恐怖分子 incident事件
on Westminster威斯敏斯特 Bridge.
65
196983
3587
恐怖袭击事件发生后
的一个广为流传的推文。
03:32
This is a genuine真正 image图片, not fake.
66
200594
2428
这是个真实的图片,不是假的。
03:35
The woman女人 who appears出现 in the photograph照片
was interviewed采访 afterwards之后,
67
203046
3169
照片里的女子在事后接受了采访,
她解释到
她精神上完全受到了打击。
03:38
and she explained解释 that
she was utterly完全 traumatized创伤.
68
206239
2409
03:40
She was on the phone电话 to a loved喜爱 one,
69
208672
1738
事件发生当时
她和爱人在打电话,
03:42
and she wasn't looking
at the victim受害者 out of respect尊重.
70
210434
2618
出于尊重,
她没有看向身旁的受害者。
03:45
But it still was circulated流传 widely广泛
with this Islamophobic仇视伊斯兰教 framing取景,
71
213076
3960
但是它仍然以
伊斯兰恐惧症为主题广为流传,
03:49
with multiple hashtags主题标签,
including包含: #BanIslam班伊斯兰.
72
217060
3046
并带有多个主题标签,
包括:#BanIslam(禁止伊斯兰人)。
03:52
Now, if you worked工作 at Twitter推特,
what would you do?
73
220425
2398
如果你在推特工作,
你会怎么做?
03:54
Would you take that down,
or would you leave离开 it up?
74
222847
2562
你会把它撤下平台,
还是让它留在那?
03:58
My gut肠道 reaction反应, my emotional情绪化 reaction反应,
is to take this down.
75
226553
3429
我的直觉和情感反应
是把它撤下来。
04:02
I hate讨厌 the framing取景 of this image图片.
76
230006
2142
我讨厌对这个图片的“包装”。
04:04
But freedom自由 of expression表达
is a human人的 right,
77
232585
2388
但是言论自由是人类的权力,
04:06
and if we start开始 taking服用 down speech言语
that makes品牌 us feel uncomfortable不舒服,
78
234997
3225
如果我们开始
把让我们感到不舒服的言论撤下,
04:10
we're in trouble麻烦.
79
238246
1230
我们就有麻烦了。
04:11
And this might威力 look like a clear-cut明确 case案件,
80
239500
2294
而且这个可能看起来是
一个清晰明了的案例,
04:13
but, actually其实, most speech言语 isn't.
81
241818
1698
但实际上,大多数言论不是。
04:15
These lines线 are incredibly令人难以置信
difficult to draw.
82
243540
2436
这些边界很难描绘。
04:18
What's a well-meaning善意
decision决定 by one person
83
246000
2281
一个人的善意决定
04:20
is outright公然 censorship审查 to the next下一个.
84
248305
2077
是对下一个人的公然审查。
04:22
What we now know is that
this account帐户, Texas德州 Lone孤单 Star,
85
250759
2929
现在我们知道的是,
这个账户,德克萨斯孤星,
04:25
was part部分 of a wider更宽的 Russian俄语
disinformation造谣 campaign运动,
86
253712
3230
是一个更大的
俄罗斯造谣运动的一部分,
04:28
one that has since以来 been taken采取 down.
87
256966
2151
此后已经被扳倒。
04:31
Would that change更改 your view视图?
88
259141
1563
这会改变你的看法吗?
会改变我的,
04:33
It would mine,
89
261322
1159
因为现在这个案子的性质
变成了一场播种不和谐种子的
04:34
because now it's a case案件
of a coordinated协调 campaign运动
90
262505
2301
04:36
to sow母猪 discord不和.
91
264830
1215
协作运动。
04:38
And for those of you who'd谁愿意 like to think
92
266069
1961
而对于你们中那些认为
04:40
that artificial人造 intelligence情报
will solve解决 all of our problems问题,
93
268054
2831
人工智能将会解决我们
所有问题的人来说,
我认为我们可以同意
04:42
I think we can agree同意
that we're a long way away
94
270909
2225
在人工智能能够理解这种帖子前
我们还有很长的一段路要走。
04:45
from AIAI that's able能够 to make sense
of posts帖子 like this.
95
273158
2587
04:48
So I'd like to explain说明
three interlocking联锁 issues问题
96
276856
2507
所以我想解释一下
让这事变得如此复杂的
04:51
that make this so complex复杂
97
279387
2373
三个环环相扣的问题,
04:53
and then think about some ways方法
we can consider考虑 these challenges挑战.
98
281784
3122
然后琢磨出些方法来思考这些挑战。
04:57
First, we just don't have
a rational合理的 relationship关系 to information信息,
99
285348
3890
首先,我们只是没有
与信息建立起理性关系,
05:01
we have an emotional情绪化 one.
100
289262
1468
我们的关系是感性的。
05:02
It's just not true真正 that more facts事实
will make everything OK,
101
290754
3794
并非更多的事实真相
会让一切顺利,
05:06
because the algorithms算法 that determine确定
what content内容 we see,
102
294572
3100
因为决定我们
能看见什么内容的算法,
05:09
well, they're designed设计 to reward奖励
our emotional情绪化 responses回复.
103
297696
3127
是被设计来
奖励我们的情感反应。
05:12
And when we're fearful可怕,
104
300847
1381
而当我们恐惧时,
05:14
oversimplified过于简单 narratives叙事,
conspiratorial阴谋 explanations说明
105
302252
3174
过于简化的叙述、阴谋论解释,
05:17
and language语言 that demonizes妖魔化 others其他
is far more effective有效.
106
305450
3418
和妖魔化事物的语言
更加有效。
05:21
And besides除了, many许多 of these companies公司,
107
309538
1874
此外,有很多公司,
05:23
their business商业 model模型
is attached to attention注意,
108
311436
2546
他们的商业模式
与人们的关注度息息相关,
05:26
which哪一个 means手段 these algorithms算法
will always be skewed偏斜 towards emotion情感.
109
314006
3690
这意味着这些算法
总是会偏向情感。
05:30
Second第二, most of the speech言语
I'm talking about here is legal法律.
110
318371
4298
第二,我现在谈论的
大多数言论是合法的。
如果我在说的是
05:35
It would be a different不同 matter
111
323081
1446
儿童性虐待图片,
或者是煽动暴力的内容,
05:36
if I was talking about
child儿童 sexual有性 abuse滥用 imagery意象
112
324551
2341
05:38
or content内容 that incites煽动 violence暴力.
113
326916
1927
就是另外一回事。
05:40
It can be perfectly完美 legal法律
to post岗位 an outright公然 lie谎言.
114
328867
3270
公开撒谎可以是完全合法的。
05:45
But people keep talking about taking服用 down
"problematic问题" or "harmful有害" content内容,
115
333130
4034
但是人们一直在讨论撤下
“有问题的”或“有害的”内容,
05:49
but with no clear明确 definition定义
of what they mean by that,
116
337188
2609
但是并没有对它们是什么
有明确的定义,
包括马克·扎克伯格,
05:51
including包含 Mark标记 Zuckerberg扎克伯格,
117
339821
1264
他最近呼吁
全球监管来缓和言论。
05:53
who recently最近 called for global全球
regulation to moderate中等 speech言语.
118
341109
3412
05:56
And my concern关心 is that
we're seeing眼看 governments政府
119
344870
2215
而我的担心是,我们看见了
05:59
right around the world世界
120
347109
1292
世界各地的政府
06:00
rolling压延 out hasty policy政策 decisions决定
121
348425
2676
推出仓促的政策决定,
06:03
that might威力 actually其实 trigger触发
much more serious严重 consequences后果
122
351125
2746
但是它可能实际上触发了
对于我们的言论更严重的后果。
06:05
when it comes to our speech言语.
123
353895
1714
而且即使我们可以决定
哪个言论留住或撤下来,
06:08
And even if we could decide决定
which哪一个 speech言语 to take up or take down,
124
356006
3706
06:11
we've我们已经 never had so much speech言语.
125
359736
2174
我们从来没有过
现在这么多的言论。
06:13
Every一切 second第二, millions百万
of pieces of content内容
126
361934
2131
每一秒,几百万的内容,
06:16
are uploaded上传 by people
right around the world世界
127
364089
2107
以不同的语言
被世界各地的人上传,
06:18
in different不同 languages语言,
128
366220
1168
06:19
drawing画画 on thousands数千
of different不同 cultural文化 contexts上下文.
129
367412
2768
吸取了上千种不同的文化背景。
06:22
We've我们已经 simply只是 never had
effective有效 mechanisms机制
130
370204
2532
我们根本没有有效的机制,
06:24
to moderate中等 speech言语 at this scale规模,
131
372760
1738
无论是通过人工还是技术手段
06:26
whether是否 powered动力 by humans人类
or by technology技术.
132
374522
2801
去缓和这种规模的言论内容,
06:30
And third第三, these companies公司 --
Google谷歌, Twitter推特, FacebookFacebook的, WhatsAppWhatsApp的 --
133
378284
3944
然后第三,这些公司——
谷歌,推特,脸书,WhatsApp ——
06:34
they're part部分 of a wider更宽的
information信息 ecosystem生态系统.
134
382252
2841
它们是广阔的
信息生态系统的一部分。
06:37
We like to lay铺设 all the blame
at their feet, but the truth真相 is,
135
385117
3352
我们喜欢把所有责任
都推到他们身上,但事实是,
06:40
the mass media媒体 and elected当选 officials官员
can also play an equal等于 role角色
136
388493
3830
大众媒体和民选官员
只要他们想,
06:44
in amplifying放大 rumors传闻 and conspiracies阴谋
when they want to.
137
392347
2913
也可以在扩大谣言和阴谋上
发挥同等作用。
06:47
As can we, when we mindlessly盲目 forward前锋
divisive分裂 or misleading误导 content内容
138
395800
4944
我们也一样,当我们漫不经心地
转发分裂性或误导性的内容时,
06:52
without trying.
139
400768
1285
甚至没有费力。
06:54
We're adding加入 to the pollution污染.
140
402077
1800
我们正在加剧这种“污染”。
06:57
I know we're all looking for an easy简单 fix固定.
141
405236
2618
我知道我们都在
寻找简单的解决方法。
06:59
But there just isn't one.
142
407878
1667
但就是一个都没有。
07:01
Any solution will have to be rolled热轧 out
at a massive大规模的 scale规模, internet互联网 scale规模,
143
409950
4445
任何解决方案都必须
以大规模推出,互联网的规模,
07:06
and yes, the platforms平台,
they're used to operating操作 at that level水平.
144
414419
3261
而且的确,这些平台
已经习惯在那种级别的规模上运行。
07:09
But can and should we allow允许 them
to fix固定 these problems问题?
145
417704
3472
但是我们可以并应该
允许他们来解决这些问题吗?
07:13
They're certainly当然 trying.
146
421668
1232
他们当然在努力。
07:14
But most of us would agree同意 that, actually其实,
we don't want global全球 corporations公司
147
422924
4086
但是我们大多数人都会同意,
实际上,我们不希望跨国公司
07:19
to be the guardians监护人 of truth真相
and fairness公平 online线上.
148
427034
2332
成为网上真理与公平的守护者。
07:21
And I also think the platforms平台
would agree同意 with that.
149
429390
2537
我也认为这些平台也会同意。
07:24
And at the moment时刻,
they're marking印记 their own拥有 homework家庭作业.
150
432257
2881
此时此刻,
他们正在展现属于自己的成果。
他们想告诉我们
07:27
They like to tell us
151
435162
1198
他们实施的干预措施正在奏效,
07:28
that the interventions干预措施
they're rolling压延 out are working加工,
152
436384
2579
但是因为他们编写的是
他们自己的透明度报告,
07:30
but because they write
their own拥有 transparency透明度 reports报告,
153
438987
2540
我们无法独立验证实际的情况。
07:33
there's no way for us to independently独立地
verify校验 what's actually其实 happening事件.
154
441551
3618
07:38
(Applause掌声)
155
446431
3342
(掌声)
07:41
And let's also be clear明确
that most of the changes变化 we see
156
449797
2952
我们也要清楚,
大多数我们看到的变化
07:44
only happen发生 after journalists记者
undertake承担 an investigation调查
157
452773
2994
只发生在记者进行了调查
07:47
and find evidence证据 of bias偏压
158
455791
1611
并找到了存在
07:49
or content内容 that breaks休息
their community社区 guidelines方针.
159
457426
2829
违反社区规则的偏见
和内容的证据之后。
07:52
So yes, these companies公司 have to play
a really important重要 role角色 in this process处理,
160
460815
4595
所以是的,这些公司必须
在这个过程中扮演重要角色,
07:57
but they can't control控制 it.
161
465434
1560
但是他们无法控制它。
07:59
So what about governments政府?
162
467855
1518
那么政府呢?
08:01
Many许多 people believe
that global全球 regulation is our last hope希望
163
469863
3096
很多人相信全球监管
是清理我们信息生态系统的
最后希望。
08:04
in terms条款 of cleaning清洁的 up
our information信息 ecosystem生态系统.
164
472983
2880
08:07
But what I see are lawmakers国会议员
who are struggling奋斗的 to keep up to date日期
165
475887
3166
但是我看见的是正在努力跟上
08:11
with the rapid快速 changes变化 in technology技术.
166
479077
2341
技术迅速变革的立法者。
08:13
And worse更差, they're working加工 in the dark黑暗,
167
481442
1904
更糟的是,
他们在黑暗中摸索工作,
08:15
because they don't have access访问 to data数据
168
483370
1821
因为他们没有获取数据的权限
08:17
to understand理解 what's happening事件
on these platforms平台.
169
485215
2650
来了解这些平台上
正在发生些什么。
08:20
And anyway无论如何, which哪一个 governments政府
would we trust相信 to do this?
170
488260
3071
更何况,我们会相信
哪个政府来做这件事呢?
08:23
We need a global全球 response响应,
not a national国民 one.
171
491355
2770
我们需要全球的回应,
不是国家的。
08:27
So the missing失踪 link链接 is us.
172
495419
2277
所以缺少的环节是我们。
08:29
It's those people who use
these technologies技术 every一切 day.
173
497720
3123
是每天使用这些技术的那些人。
08:33
Can we design设计 a new infrastructure基础设施
to support支持 quality质量 information信息?
174
501260
4591
我们能不能设计一个新的基础设施
来支持高质量信息?
08:38
Well, I believe we can,
175
506371
1230
我相信我们可以,
08:39
and I've got a few少数 ideas思路 about
what we might威力 be able能够 to actually其实 do.
176
507625
3357
我已经有了一些想法,
关于我们实际上可以做什么。
08:43
So firstly首先, if we're serious严重
about bringing使 the public上市 into this,
177
511006
3103
所以首先,如果认真考虑
让公众参与进来,
08:46
can we take some inspiration灵感
from Wikipedia维基百科?
178
514133
2381
我们可以从维基百科
汲取一些灵感吗?
08:48
They've他们已经 shown显示 us what's possible可能.
179
516538
1824
他们已经向我们展示了可能的方法。
08:50
Yes, it's not perfect完善,
180
518386
1151
是的,它并不完美,
08:51
but they've他们已经 demonstrated证明
that with the right structures结构,
181
519561
2634
但是他们已经用正确的结构,
全球的视野
和很高很高的透明度证明了
08:54
with a global全球 outlook外表
and lots and lots of transparency透明度,
182
522219
2635
你们可以建立一些
将赢得大多数人信任的东西。
08:56
you can build建立 something
that will earn the trust相信 of most people.
183
524878
3096
08:59
Because we have to find a way
to tap龙头 into the collective集体 wisdom智慧
184
527998
3162
因为我们必须找到一种方法,
充分利用集体的智慧
09:03
and experience经验 of all users用户.
185
531184
2309
和所有用户的经验。
09:05
This is particularly尤其 the case案件
for women妇女, people of color颜色
186
533517
2646
妇女,有色人种和
未能充分代表大众的群体
09:08
and underrepresented代表性不足 groups.
187
536187
1346
尤其如此。
09:09
Because guess猜测 what?
188
537557
1166
猜猜为什么?
09:10
They are experts专家 when it comes
to hate讨厌 and disinformation造谣,
189
538747
2735
他们是仇恨和虚假信息方面的专家,
09:13
because they have been the targets目标
of these campaigns活动 for so long.
190
541506
3516
因为他们很久以来都是
这些信息运动的目标。
09:17
And over the years年份,
they've他们已经 been raising提高 flags,
191
545046
2350
多年来,他们一直摇旗呐喊,
09:19
and they haven't没有 been listened听了 to.
192
547420
1665
但是从来没有被听见。
09:21
This has got to change更改.
193
549109
1280
这必须改变。
09:22
So could we build建立 a Wikipedia维基百科 for trust相信?
194
550807
4326
所以我们能否为信任
创建一个维基百科?
09:27
Could we find a way that users用户
can actually其实 provide提供 insights见解?
195
555157
4189
我们能否找到一种
用户可以真正提供见解的方法?
09:31
They could offer提供 insights见解 around
difficult content-moderation内容审核 decisions决定.
196
559370
3697
他们可以对有难度的
内容审核决定提出见解。
09:35
They could provide提供 feedback反馈
197
563091
1463
当平台决定要推出新变更时,
09:36
when platforms平台 decide决定
they want to roll out new changes变化.
198
564578
3041
他们可以提出反馈。
09:40
Second第二, people's人们 experiences经验
with the information信息 is personalized个性化.
199
568241
4162
第二,人们对信息的体验
是个性化的。
09:44
My FacebookFacebook的 news新闻 feed饲料
is very different不同 to yours你的.
200
572427
2643
我脸书上的新闻推荐
与你们的非常不同。
09:47
Your YouTubeYouTube的 recommendations建议
are very different不同 to mine.
201
575094
2745
你们的 YouTube 推荐
与我的也很不同。
09:49
That makes品牌 it impossible不可能 for us
to actually其实 examine检查
202
577863
2492
这使得我们无法实际检查
09:52
what information信息 people are seeing眼看.
203
580379
2023
大家看到的是什么信息。
09:54
So could we imagine想像
204
582815
1389
那么,我们是否可以想象
09:56
developing发展 some kind of centralized集中
open打开 repository知识库 for anonymized匿名 data数据,
205
584228
4778
为匿名数据
开发某种集中式开放存储库,
10:01
with privacy隐私 and ethical合乎道德的
concerns关注 built内置 in?
206
589030
2864
并内置隐私和道德问题?
10:04
Because imagine想像 what we would learn学习
207
592220
1778
因为想象一下,
如果我们建立一个
10:06
if we built内置 out a global全球 network网络
of concerned关心 citizens公民
208
594022
3261
由关心且忧虑的
公民组成的全球网络,
10:09
who wanted to donate
their social社会 data数据 to science科学.
209
597307
3294
他们希望将其社交数据捐赠给科学,
那么我们将学到什么?
10:13
Because we actually其实 know very little
210
601141
1722
因为我们实际上对
10:14
about the long-term长期 consequences后果
of hate讨厌 and disinformation造谣
211
602887
2881
仇恨和虚假信息对
人们态度和行为产生的
10:17
on people's人们 attitudes态度 and behaviors行为.
212
605792
1975
长期后果知之甚少。
10:20
And what we do know,
213
608236
1167
而我们知道的是,
10:21
most of that has been
carried携带的 out in the US,
214
609427
2193
其中大部分是在美国进行的,
10:23
despite尽管 the fact事实 that
this is a global全球 problem问题.
215
611644
2381
尽管这是一个全球性问题。
10:26
We need to work on that, too.
216
614049
1635
我们也需要为此努力。
10:28
And third第三,
217
616192
1150
第三点,
我们可以找到方法来连接个体吗?
10:29
can we find a way to connect the dots?
218
617366
2310
10:31
No one sector扇形, let alone单独 nonprofit非营利性,
start-up启动 or government政府,
219
619700
3438
没有一个部门可以解决这个问题,
更不用说非营利组织,初创企业
10:35
is going to solve解决 this.
220
623162
1422
或政府部门了。
10:36
But there are very smart聪明 people
right around the world世界
221
624608
2564
但是世界各地有
那些非常聪明的人们
10:39
working加工 on these challenges挑战,
222
627196
1381
在应对这些挑战,
10:40
from newsrooms新闻编辑室, civil国内 society社会,
academia学术界, activist活动家 groups.
223
628601
3576
包括新闻编辑部,民间社会组织,
学术界和维权组织。
10:44
And you can see some of them here.
224
632201
1898
你们在这可以看见其中的一些。
10:46
Some are building建造 out indicators指标
of content内容 credibility可信性.
225
634123
2927
有些正在建立内容可信度的指标。
10:49
Others其他 are fact-checking事实检查,
226
637074
1246
其他人在做事实核查,
10:50
so that false claims索赔, videos视频 and images图片
can be down-ranked向下排名 by the platforms平台.
227
638344
3591
以至于虚假声明,视频和图像
可以被平台撤下。
10:53
A nonprofit非营利性 I helped帮助
to found发现, First Draft草案,
228
641959
2213
我协助建立的一个非营利组织,
名叫“初稿”(First Draft),
10:56
is working加工 with normally一般 competitive竞争的
newsrooms新闻编辑室 around the world世界
229
644196
2968
正在与世界各地通常竞争激烈的
新闻编辑室合作,
10:59
to help them build建立 out investigative研究,
collaborative共同 programs程式.
230
647188
3503
以帮助他们建立调查性协作项目。
11:03
And Danny丹尼 Hillis希利斯, a software软件 architect建筑师,
231
651231
2309
丹尼·希利斯, 一个软件设计师,
11:05
is designing设计 a new system系统
called The Underlay衬 底,
232
653564
2381
正在设计一个
叫做 The Underlay 的新系统,
11:07
which哪一个 will be a record记录
of all public上市 statements声明 of fact事实
233
655969
2775
它将记录所有与其来源相连接的
11:10
connected连接的 to their sources来源,
234
658768
1329
公开事实陈述,
11:12
so that people and algorithms算法
can better judge法官 what is credible可信的.
235
660121
3654
以便人们和算法可以
更好地判断什么是可信的。
11:16
And educators教育工作者 around the world世界
are testing测试 different不同 techniques技术
236
664800
3356
而且世界各地的教育者
在测试不同的技术,
11:20
for finding发现 ways方法 to make people
critical危急 of the content内容 they consume消耗.
237
668180
3484
以找到能使人们对所看到内容
产生批判的方法。
11:24
All of these efforts努力 are wonderful精彩,
but they're working加工 in silos筒仓,
238
672633
3141
所有的这些努力都很棒,
但是他们埋头各自为战,
11:27
and many许多 of them are woefully可悲 underfunded资金不足.
239
675798
2680
而且很多都严重资金不足。
11:30
There are also hundreds数以百计
of very smart聪明 people
240
678502
2053
在这些公司内部
11:32
working加工 inside these companies公司,
241
680579
1652
也有成百上千的聪明人在努力,
11:34
but again, these efforts努力
can feel disjointed脱节,
242
682255
2325
但是同样,
这些努力让人感到不够连贯,
11:36
because they're actually其实 developing发展
different不同 solutions解决方案 to the same相同 problems问题.
243
684604
3937
因为他们正在为同样的问题
建立不同的解决方案。
11:41
How can we find a way
to bring带来 people together一起
244
689205
2269
我们怎么能找到一种方法,
把这些人同时
11:43
in one physical物理 location位置
for days or weeks at a time,
245
691498
3278
聚集在同一个地点几天或几周,
11:46
so they can actually其实 tackle滑车
these problems问题 together一起
246
694800
2396
这样他们可以真正从不同角度
11:49
but from their different不同 perspectives观点?
247
697220
1818
共同解决这些问题?
11:51
So can we do this?
248
699062
1340
那么我们能做到吗?
11:52
Can we build建立 out a coordinated协调,
ambitious有雄心 response响应,
249
700426
3239
我们能否建立一种协调一致,
雄心勃勃的应对措施,
11:55
one that matches火柴 the scale规模
and the complexity复杂 of the problem问题?
250
703689
3709
使其与问题的规模和复杂性相匹配?
11:59
I really think we can.
251
707819
1373
我真的认为我们可以。
12:01
Together一起, let's rebuild重建
our information信息 commons公地.
252
709216
2959
加入我们,重建我们的信息共享吧。
12:04
Thank you.
253
712819
1190
谢谢。
12:06
(Applause掌声)
254
714033
3728
(掌声)
Translated by Nan Yang
Reviewed by Jiasi Hao

▲Back to top

ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee