ABOUT THE SPEAKER
Del Harvey - Security maven
Del Harvey works to define policy and to ensure user safety and security in the challenging realm of modern social media.

Why you should listen

As Senior Director of Trust and Safety at Twitter, Del Harvey works to define policy and to ensure user safety and security in the challenging realm of modern social media. Prior to joining Twitter, she spent five years as the co-administrator and law enforcement liaison for a 501(c)3 non-profit charity, working with agencies ranging from local police departments to the FBI, U.S. Marshals and the Secret Service.

More profile about the speaker
Del Harvey | Speaker | TED.com
TED2014

Del Harvey: Protecting Twitter users (sometimes from themselves)

德尔·哈维: 推特的奇怪比例

Filmed:
993,199 views

每一秒我们发出数以千计的推特(类似于QQ的“说说”),但那些表面合理但暗藏危机的推特在中百万分之一的几率下每天会发生500次左右。对于推特信任与安全团队的领导德尔·哈维,这样的几率不容乐观。这个安全专家花大量时间思考怎样在给予人们发言机会的同时去防止最坏的事情发生。以冷幽默的方式,德尔·哈维向我们展现她是如何保障240,000,000用户的安全的。
- Security maven
Del Harvey works to define policy and to ensure user safety and security in the challenging realm of modern social media. Full bio

Double-click the English transcript below to play the video.

00:12
My job工作 at Twitter推特
0
984
1291
我在推特的工作
00:14
is to ensure确保 user用户 trust相信,
1
2275
1978
就是去确保用户的信赖,
00:16
protect保护 user用户 rights权利 and keep users用户 safe安全,
2
4253
2837
保护用户之间的
00:19
both from each other
3
7090
1260
以及他们自身的
00:20
and, at times, from themselves他们自己.
4
8350
3899
权利和安全。
00:24
Let's talk about what scale规模 looks容貌 like at Twitter推特.
5
12249
4275
让我们讨论一下在推特,比例是什么样的。
00:28
Back in January一月 2009,
6
16524
2870
在2009年1月,
00:31
we saw more than two million百万 new tweets微博 each day
7
19394
3331
每天,在推特上我们可以看见
00:34
on the platform平台.
8
22725
1764
超过两百万条推特更新。
00:36
January一月 2014, more than 500 million百万.
9
24489
5908
2014年1月有超过五亿条。
00:42
We were seeing眼看 two million百万 tweets微博
10
30397
2492
我们那时在六分钟之内
00:44
in less than six minutes分钟.
11
32889
2176
就可以看见两百万条。
00:47
That's a 24,900-percent-百分 increase增加.
12
35065
6984
那是一个24,900%的增长。
00:54
Now, the vast广大 majority多数 of activity活动 on Twitter推特
13
42049
3253
现在,推特上绝大多数的活动
00:57
puts看跌期权 no one in harm's伤害的 way.
14
45302
1503
都没有伤害到任何人。
00:58
There's no risk风险 involved参与.
15
46805
1935
不涉及任何风险。
01:00
My job工作 is to root out and prevent避免 activity活动 that might威力.
16
48740
5753
我的工作就是铲除并防止这类事情的发生。
01:06
Sounds声音 straightforward直截了当, right?
17
54493
1973
听起来简单明了,对吧?
01:08
You might威力 even think it'd它会 be easy简单,
18
56466
1152
你可能认为这件事很容易,
01:09
given特定 that I just said the vast广大 majority多数
19
57618
2170
因为我刚说过绝大多数
01:11
of activity活动 on Twitter推特 puts看跌期权 no one in harm's伤害的 way.
20
59788
3810
在推特上的行为都是无害的。
01:15
Why spend so much time
21
63598
2169
为什么花这么多时间
01:17
searching搜索 for potential潜在 calamities灾难
22
65767
2743
在无害的行为中
01:20
in innocuous无害的 activities活动?
23
68510
2900
搜寻潜在的危机呢?
01:23
Given特定 the scale规模 that Twitter推特 is at,
24
71410
2940
考虑推特的规模,
01:26
a one-in-a-million一个-IN-A-万元 chance机会 happens发生
25
74350
2357
百万分之一几率的可能,
01:28
500 times a day.
26
76707
4876
一天会发生五百次。
01:33
It's the same相同 for other companies公司
27
81583
1445
对于其它公司来说,
01:35
dealing交易 at this sort分类 of scale规模.
28
83028
1471
他们面临的这个比例是一样的。
01:36
For us, edge边缘 cases,
29
84499
1708
对于我们,边缘案例
01:38
those rare罕见 situations情况 that are unlikely不会 to occur发生,
30
86207
3625
那些不常有,也不大可能发生的情况
01:41
are more like norms规范.
31
89832
2622
更像是家常便饭。
01:44
Say 99.999 percent百分 of tweets微博
32
92454
3942
假设99.999%的推特
01:48
pose提出 no risk风险 to anyone任何人.
33
96396
1888
对任何人无害。
01:50
There's no threat威胁 involved参与.
34
98284
1066
不涉及任何威胁。
01:51
Maybe people are documenting文档化 travel旅行 landmarks地标
35
99350
2954
人们可能在记录旅游胜地,
01:54
like Australia's澳大利亚 Heart Reef,
36
102304
1963
比如澳大利亚心型礁,
01:56
or tweeting啁啾 about a concert音乐会 they're attending出席,
37
104267
2921
或者推文他们正在参加的演唱会,
01:59
or sharing分享 pictures图片 of cute可爱 baby宝宝 animals动物.
38
107188
4747
或者分享可爱动物的图片。
02:03
After you take out that 99.999 percent百分,
39
111935
4509
在你剔除那99.999%之后,
02:08
that tiny percentage百分比 of tweets微博 remaining其余
40
116444
3529
剩下的那丁点推文
02:11
works作品 out to roughly大致
41
119973
2389
被计算出
02:14
150,000 per month.
42
122362
3475
每月约有15万条。
02:17
The sheer绝对 scale规模 of what we're dealing交易 with
43
125837
2456
我们所应付的这个庞大规模
02:20
makes品牌 for a challenge挑战.
44
128293
2312
是一个挑战。
02:22
You know what else其他 makes品牌 my role角色
45
130605
1178
你知道还有什么让我的职位
02:23
particularly尤其 challenging具有挑战性的?
46
131783
3107
特别具有挑战性?
02:26
People do weird奇怪的 things.
47
134890
5123
人们做奇怪的事情。
02:32
(Laughter笑声)
48
140013
1829
(笑声)
02:33
And I have to figure数字 out what they're doing,
49
141842
2391
我必须弄明白他们在做什么,
02:36
why, and whether是否 or not there's risk风险 involved参与,
50
144233
2249
为什么,以及涉及危险与否,
02:38
often经常 without much in terms条款 of context上下文
51
146482
2168
而这通常是在我没有掌握
02:40
or background背景.
52
148650
1847
来龙去脉的情况下。
02:42
I'm going to show显示 you some examples例子
53
150497
2077
我将要展示给你们几个例子,
02:44
that I've run into during my time at Twitter推特 --
54
152574
2005
是我在推特工作中遇到的---
02:46
these are all real真实 examples例子
55
154579
1620
这些都是真实的例子-
02:48
of situations情况 that at first seemed似乎 cut and dried,
56
156199
2653
这些情况乍看似乎直接了当,
02:50
but the truth真相 of the matter was something
57
158852
1643
但事情的真相
02:52
altogether different不同.
58
160495
1550
是截然不同的。
02:54
The details细节 have been changed
59
162045
1977
例子的细节有所改动
02:56
to protect保护 the innocent无辜
60
164022
1257
是为了去保护那些无辜者
02:57
and sometimes有时 the guilty有罪.
61
165279
3233
有时也包括有过的那方。
03:00
We'll start开始 off easy简单.
62
168512
3005
让我们从简单的开始。
03:03
["Yo bitch婊子"]
63
171517
1793
【“呦,bitch”】(bitch有母狗,婊子,娘们等意思)
03:05
If you saw a Tweet鸣叫 that only said this,
64
173310
3228
如果你看到一条推文只有这一句话,
03:08
you might威力 think to yourself你自己,
65
176538
1694
你可能认为
03:10
"That looks容貌 like abuse滥用."
66
178232
1653
”那看起来像是在谩骂。“
03:11
After all, why would you
want to receive接收 the message信息,
67
179885
3107
毕竟,你为什么会想收到这条信息呢,
03:14
"Yo, bitch婊子."
68
182992
2218
“呦,婊子。”
03:17
Now, I try to stay relatively相对 hip臀部
69
185210
4663
现在,我试图与流行用语的
03:21
to the latest最新 trends趋势 and memes模因,
70
189873
2512
最新的释义保持同步,
03:24
so I knew知道 that "yo, bitch婊子"
71
192385
2704
所以我知道“呦,婊子”
03:27
was also often经常 a common共同 greeting欢迎 between之间 friends朋友,
72
195089
3154
有时候也是朋友之间常见的问候方式,
03:30
as well as being存在 a popular流行 "Breaking打破 Bad" reference参考.
73
198243
4262
同时也是美剧《绝命毒师》中一个流行说法。
03:34
I will admit承认 that I did not expect期望
74
202505
2487
我要承认,我没有想到
03:36
to encounter遭遇 a fourth第四 use case案件.
75
204992
2841
我会遇到这个词的第四种用法。
03:39
It turns out it is also used on Twitter推特
76
207833
3104
在推特上
03:42
when people are role-playing角色扮演 as dogs小狗.
77
210937
3062
人们角色扮演狗的时候,也用这个词。
03:45
(Laughter笑声)
78
213999
5279
(笑声)
03:51
And in fact事实, in that case案件,
79
219278
1666
所以,在那种情况下,
03:52
it's not only not abusive滥用的,
80
220944
1609
这不仅不是谩骂,
03:54
it's technically技术上 just an accurate准确 greeting欢迎.
81
222553
3139
严格的来说,那就是一个准确的问候。
03:57
(Laughter笑声)
82
225692
2889
(笑声)
04:00
So okay, determining决定 whether是否 or not
83
228581
2071
所以判断一些没有来龙去脉的东西
04:02
something is abusive滥用的 without context上下文,
84
230652
1848
是否出于恶意
04:04
definitely无疑 hard.
85
232500
1592
确实困难。
04:06
Let's look at spam垃圾邮件.
86
234092
2717
让我们来看一下垃圾邮件。
04:08
Here's这里的 an example of an account帐户 engaged订婚
87
236809
1960
这是一个参与传播
04:10
in classic经典 spammer垃圾邮件发送者 behavior行为,
88
238769
1668
常见垃圾邮件的账户,
04:12
sending发出 the exact精确 same相同 message信息
89
240437
1559
它向数以千计的人
04:13
to thousands数千 of people.
90
241996
1804
发送相同的信息。
04:15
While this is a mockup小样 I put
together一起 using运用 my account帐户,
91
243800
2793
虽然这是我用我的账号模仿的,
04:18
we see accounts账户 doing this all the time.
92
246593
3001
但我们总可以看到有账户在传播这样的垃圾信息。
04:21
Seems似乎 pretty漂亮 straightforward直截了当.
93
249594
1979
看起来非常直白简单。
04:23
We should just automatically自动 suspend暂停 accounts账户
94
251573
2053
我们应该就自动暂停
04:25
engaging in this kind of behavior行为.
95
253626
3307
参与这种行为的账号。
04:28
Turns out there's some exceptions例外 to that rule规则.
96
256933
3210
但结果中总有些例外情况。
04:32
Turns out that that message信息
could also be a notification通知
97
260143
2883
那些信息也可能是公告提醒,
04:35
you signed up for that the International国际
Space空间 Station is passing通过 overhead高架
98
263026
3889
比如你想目睹国际空间站略过你上空的情形
04:38
because you wanted to go outside
99
266915
1846
而登记了这个信息。
04:40
and see if you could see it.
100
268761
1948
希望可以收到提醒,尝试目睹它。
04:42
You're not going to get that chance机会
101
270709
1225
如果我们错误地认为这是垃圾信息,
04:43
if we mistakenly suspend暂停 the account帐户
102
271934
1847
并封了那个账号,
04:45
thinking思维 it's spam垃圾邮件.
103
273781
2266
你将失去目睹国际空间站略过上空的机会。
04:48
Okay. Let's make the stakes赌注 higher更高.
104
276047
3526
让我们把赌注加高一些。
04:51
Back to my account帐户,
105
279573
1916
再来看我的帐号,
04:53
again exhibiting参展 classic经典 behavior行为.
106
281489
3505
还是展现常见的行为。
04:56
This time it's sending发出 the same相同 message信息 and link链接.
107
284994
2643
这一次是发同样的信息和链接。
04:59
This is often经常 indicative指示 of
something called phishing网络钓鱼,
108
287637
2774
这通常意味着钓鱼式攻击,(注:一种网络诈骗的手段)
05:02
somebody trying to steal another另一个
person's人的 account帐户 information信息
109
290411
3178
有人通过将一个人导向另一个网站
05:05
by directing导演 them to another另一个 website网站.
110
293589
2203
去盗取其账户信息。
05:07
That's pretty漂亮 clearly明确地 not a good thing.
111
295792
4194
很明显那不是什么好事。
05:11
We want to, and do, suspend暂停 accounts账户
112
299986
1930
我们想,也确实封了
05:13
engaging in that kind of behavior行为.
113
301916
2624
从事那种行为的账户。
05:16
So why are the stakes赌注 higher更高 for this?
114
304540
3247
但为什么对这种行为的赌注更高呢?
05:19
Well, this could also be a bystander旁观者 at a rally团结
115
307787
2999
这也可能是一个身处集会中的旁观者
05:22
who managed管理 to record记录 a video视频
116
310786
1910
录下了一段关于
05:24
of a police警察 officer beating跳动 a non-violent非暴力 protester抗议者
117
312696
3270
警察殴打一个无辜抗议者的视频
05:27
who's谁是 trying to let the world世界 know what's happening事件.
118
315966
2975
他想让全世界知道发生了什么。
05:30
We don't want to gamble
119
318941
1643
我们不想
05:32
on potentially可能 silencing沉默 that crucial关键 speech言语
120
320584
2517
在把那个关键演说通过分类为垃圾并暂停账号而可能导致的后果
05:35
by classifying分类 it as spam垃圾邮件 and suspending暂停 it.
121
323101
2929
上做冒险。
05:38
That means手段 we evaluate评估 hundreds数以百计 of parameters参数
122
326030
2879
那也就意味着,当我们观察账户行为的时候
05:40
when looking at account帐户 behaviors行为,
123
328909
1688
我们评估成百上千的因素
05:42
and even then, we can still get it wrong错误
124
330597
2016
即使这样,我们仍然会犯错,
05:44
and have to reevaluate重新评估.
125
332613
2236
并需要重新评价。
05:46
Now, given特定 the sorts排序 of challenges挑战 I'm up against反对,
126
334849
3708
在这些挑战面前
05:50
it's crucial关键 that I not only predict预测
127
338557
2696
关键在于我不仅要预测
05:53
but also design设计 protections保护 for the unexpected意外.
128
341253
3784
而且防御不可预测的事情。
05:57
And that's not just an issue问题 for me,
129
345037
2342
那不单是我的问题,
05:59
or for Twitter推特, it's an issue问题 for you.
130
347379
2087
或者推特的问题,这也是你们的问题。
06:01
It's an issue问题 for anybody任何人 who's谁是 building建造 or creating创建
131
349466
2406
对于任何在创建美好事物,
06:03
something that you think is going to be amazing惊人
132
351872
1925
或者为他人造福的人来说
06:05
and will let people do awesome真棒 things.
133
353797
2789
都是一个问题。
06:08
So what do I do?
134
356586
2866
那么我能做些什么呢?
06:11
I pause暂停 and I think,
135
359452
3318
我停下并思考,
06:14
how could all of this
136
362770
2095
这些事能如何
06:16
go horribly可怕 wrong错误?
137
364865
3793
变得很糟糕的呢?
06:20
I visualize想象 catastrophe灾难.
138
368658
4453
我想象灾难。
06:25
And that's hard. There's a sort分类 of
139
373111
2463
但是那很难。好像有一种
06:27
inherent固有 cognitive认知 dissonance不和谐 in doing that,
140
375574
2848
与生俱来的认知失调在作怪,
06:30
like when you're writing写作 your wedding婚礼 vows誓言
141
378422
1812
就像你同时写结婚誓言
06:32
at the same相同 time as your prenuptial婚前 agreement协议.
142
380234
2646
和婚前协议一样。
06:34
(Laughter笑声)
143
382880
1696
(笑声)
06:36
But you still have to do it,
144
384576
2373
但你还是得去做,
06:38
particularly尤其 if you're marrying结婚
500 million百万 tweets微博 per day.
145
386949
4446
特别是当你一天得处理5亿条推文时。
06:43
What do I mean by "visualize想象 catastrophe灾难?"
146
391395
3097
我说的“想象灾难”是什么意思呢?
06:46
I try to think of how something as
147
394492
2762
我试想,像猫的照片一样
06:49
benign良性 and innocuous无害的 as a picture图片 of a cat
148
397254
3228
温和并无害的东西
06:52
could lead to death死亡,
149
400482
1104
能如何导致死亡,
06:53
and what to do to prevent避免 that.
150
401586
2326
并想办法去阻止其发生。
06:55
Which哪一个 happens发生 to be my next下一个 example.
151
403912
2383
这也是我的下一个例子。
06:58
This is my cat, Eli.
152
406295
3110
这是我的猫,伊莱。
07:01
We wanted to give users用户 the ability能力
153
409405
1981
我们想要给予用户
07:03
to add photos相片 to their tweets微博.
154
411386
2073
将图片加到他们推文的能力。
07:05
A picture图片 is worth价值 a thousand words.
155
413459
1597
一张图片胜过千言万语。
07:07
You only get 140 characters人物.
156
415056
2009
(一次推文)你只能输入140个字。
07:09
You add a photo照片 to your tweet鸣叫,
157
417065
1200
当你在推文里加一张图片时,
07:10
look at how much more content内容 you've got now.
158
418265
3038
看看现在你发表的内容有多丰富。
07:13
There's all sorts排序 of great things you can do
159
421303
1677
通过在推文里添加图片,
07:14
by adding加入 a photo照片 to a tweet鸣叫.
160
422980
2007
你可以做各种各样神奇的事。
07:16
My job工作 isn't to think of those.
161
424987
2280
我的工作不是去想那些事情,
07:19
It's to think of what could go wrong错误.
162
427267
2747
而是去想会发生什么问题。
07:22
How could this picture图片
163
430014
1892
这张图片能如何
07:23
lead to my death死亡?
164
431906
3539
导致我的死亡呢?
07:27
Well, here's这里的 one possibility可能性.
165
435445
3160
有一个可能性。
07:30
There's more in that picture图片 than just a cat.
166
438605
3086
除了一只猫以外,这个图片里还有其它信息。
07:33
There's geodata地理数据.
167
441691
2092
那里有地理信息。
07:35
When you take a picture图片 with your smartphone手机
168
443783
2212
当你用你的智能手机或数码相机
07:37
or digital数字 camera相机,
169
445995
1299
照一张照片时,
07:39
there's a lot of additional额外 information信息
170
447294
1654
很多额外的信息
07:40
saved保存 along沿 in that image图片.
171
448948
1616
也会随着照片保留下来。
07:42
In fact事实, this image图片 also contains包含
172
450564
1932
事实上,这张照图片还
07:44
the equivalent当量 of this,
173
452496
1805
指明了这个,
07:46
more specifically特别, this.
174
454301
3079
更加具体些,是这个。
07:49
Sure, it's not likely容易 that someone's谁家 going to try
175
457380
1956
没错,不大可能有人准备
07:51
to track跟踪 me down and do me harm危害
176
459336
2285
根据我的猫的照片中数据
07:53
based基于 upon image图片 data数据 associated相关
177
461621
1784
追踪我
07:55
with a picture图片 I took of my cat,
178
463405
1948
并伤害我,
07:57
but I start开始 by assuming假设 the worst最差 will happen发生.
179
465353
3651
但是我开始假设最坏的事情会发生。
08:01
That's why, when we launched推出 photos相片 on Twitter推特,
180
469004
2338
这也是为什么当我们推出加载图片功能的时候,
08:03
we made制作 the decision决定 to strip跳闸 that geodata地理数据 out.
181
471342
3821
我们决定消除那些地理数据。
08:07
(Applause掌声)
182
475163
5847
(掌声)
08:13
If I start开始 by assuming假设 the worst最差
183
481010
2613
如果我从假设最坏的事开始,
08:15
and work backwards向后,
184
483623
947
并反向推理,
08:16
I can make sure that the protections保护 we build建立
185
484570
2553
我可以确保我们所设置的保护
08:19
work for both expected预期
186
487123
1768
对于可预知与
08:20
and unexpected意外 use cases.
187
488891
2078
不可预知的事件同时有效。
08:22
Given特定 that I spend my days and nights
188
490969
2945
假设我日夜
08:25
imagining想象 the worst最差 that could happen发生,
189
493914
2541
想象可能发生的最坏的事情,
08:28
it wouldn't不会 be surprising奇怪 if
my worldview世界观 was gloomy阴沉.
190
496455
4257
我的世界观有些阴郁并不令人惊奇。
08:32
(Laughter笑声)
191
500712
1783
(笑声)
08:34
It's not.
192
502495
1417
但这并不是事实。
08:35
The vast广大 majority多数 of interactions互动 I see --
193
503912
3876
我看到的绝大多数的(推特)互动
08:39
and I see a lot, believe me -- are positive,
194
507788
3901
是积极的,相信我,我看过很多,
08:43
people reaching到达 out to help
195
511689
1924
人们伸出援助之手,
08:45
or to connect or share分享 information信息 with each other.
196
513613
3448
或者相互连接或分享信息。
08:49
It's just that for those of us dealing交易 with scale规模,
197
517061
3323
因为我们要应付安全风险,
08:52
for those of us tasked任务 with keeping保持 people safe安全,
198
520384
3800
我们承担着保证大众安全的责任,
08:56
we have to assume承担 the worst最差 will happen发生,
199
524184
2546
我们必须假设最坏的事情会发生,
08:58
because for us, a one-in-a-million一个-IN-A-万元 chance机会
200
526730
4227
因为对于我们来说百万分之一的几率
09:02
is pretty漂亮 good odds可能性.
201
530957
2749
是一个非常大的可能性。
09:05
Thank you.
202
533706
1864
谢谢
09:07
(Applause掌声)
203
535570
4000
(掌声)
Translated by Xiaoou Chen
Reviewed by Keke Gu

▲Back to top

ABOUT THE SPEAKER
Del Harvey - Security maven
Del Harvey works to define policy and to ensure user safety and security in the challenging realm of modern social media.

Why you should listen

As Senior Director of Trust and Safety at Twitter, Del Harvey works to define policy and to ensure user safety and security in the challenging realm of modern social media. Prior to joining Twitter, she spent five years as the co-administrator and law enforcement liaison for a 501(c)3 non-profit charity, working with agencies ranging from local police departments to the FBI, U.S. Marshals and the Secret Service.

More profile about the speaker
Del Harvey | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee