ABOUT THE SPEAKER
Del Harvey - Security maven
Del Harvey works to define policy and to ensure user safety and security in the challenging realm of modern social media.

Why you should listen

As Senior Director of Trust and Safety at Twitter, Del Harvey works to define policy and to ensure user safety and security in the challenging realm of modern social media. Prior to joining Twitter, she spent five years as the co-administrator and law enforcement liaison for a 501(c)3 non-profit charity, working with agencies ranging from local police departments to the FBI, U.S. Marshals and the Secret Service.

More profile about the speaker
Del Harvey | Speaker | TED.com
TED2014

Del Harvey: Protecting Twitter users (sometimes from themselves)

델 하비 (Del Harvey): 트위터가 갖는 규모의 의외성

Filmed:
993,199 views

매일 수백만 건의 트윗이 이루어질 때, 백만 분의 일이라는 확률은 - 사용자들에게 해를 끼치는 건전한 가상 설정을 포함해서 - 하루에 약 500번 일어납니다. 트위터의 보안 안전팀을 이끄는 델 하비에게 이런 확률은 썩 좋은 것이 아닙니다. 보안 전문가인 그녀는 전 세계 사람들에게 목소리를 전하면서도 최악의 상황을 예방할 수 있는 방법을 생각하며 매일을 보냅니다. 무표정으로 유머를 건내며, 그녀는 우리에게 어떻게 2억 4천 명의 사용자를 안전하게 지켜내는지 들여다볼 기회를 제공합니다.
- Security maven
Del Harvey works to define policy and to ensure user safety and security in the challenging realm of modern social media. Full bio

Double-click the English transcript below to play the video.

00:12
My job at Twitter지저귀다
0
984
1291
저는 트위터에서 하는 일은
00:14
is to ensure안전하게 하다 user사용자 trust믿음,
1
2275
1978
사용자의 신뢰를 구축하고,
00:16
protect보호 user사용자 rights진상 and keep users사용자 safe안전한,
2
4253
2837
권리를 보호하며, 그들을
안전하게 보호하는 것입니다.
00:19
both양자 모두 from each마다 other
3
7090
1260
사용자 간에도 그렇고
00:20
and, at times타임스, from themselves그들 자신.
4
8350
3899
사용자 자신에 대해서도
마찬가지입니다.
00:24
Let's talk about what scale규모 looks외모 like at Twitter지저귀다.
5
12249
4275
트위터의 규모가 어떤지
한번 보도록 하시죠.
00:28
Back in January일월 2009,
6
16524
2870
2009년 1월로 돌아가 보면
00:31
we saw more than two million백만 new새로운 tweets트윗 each마다 day
7
19394
3331
트위터 상에 매일 약 2백만 개
이상의 새로운 트윗이
00:34
on the platform플랫폼.
8
22725
1764
게시되었습니다.
00:36
January일월 2014, more than 500 million백만.
9
24489
5908
2014년 1월에는
5억 건이 넘었습니다.
00:42
We were seeing two million백만 tweets트윗
10
30397
2492
2백만 개의 트윗이
00:44
in less적게 than six minutes의사록.
11
32889
2176
6분도 되지 않는 시간에
게시되는 것이죠.
00:47
That's a 24,900-percent-퍼센트 increase증가하다.
12
35065
6984
그건 대략 24,900%의 증가입니다.
00:54
Now, the vast거대한 majority과반수 of activity활동 on Twitter지저귀다
13
42049
3253
트위터 상에서
대다수의 활동은
00:57
puts넣다 no one in harm's해로움 way.
14
45302
1503
그 누구에게도
해를 가하지 않습니다.
00:58
There's no risk위험 involved뒤얽힌.
15
46805
1935
어떤 위험도 없습니다.
01:00
My job is to root뿌리 out and prevent막다 activity활동 that might.
16
48740
5753
저의 임무는 위험할지
모를 행위를
분류하고
예방하는 것이에요.
간단하게 들리시죠?
01:06
Sounds소리 straightforward똑바로, right?
17
54493
1973
01:08
You might even think it'd그것은 ~했다. be easy쉬운,
18
56466
1152
쉽다고 생각하실지도
모르겠어요.
01:09
given주어진 that I just said the vast거대한 majority과반수
19
57618
2170
방금 제가 말씀드렸듯
트위터 내 대부분의 행위는
01:11
of activity활동 on Twitter지저귀다 puts넣다 no one in harm's해로움 way.
20
59788
3810
다른 이에게
해가 되지 않으니까요.
01:15
Why spend보내 so much time
21
63598
2169
그런데 왜 무해한 행위 가운데
01:17
searching수색 for potential가능성 calamities재앙
22
65767
2743
문제가 될지 모를
행위를 찾는데
01:20
in innocuous무해한 activities활동들?
23
68510
2900
그렇게 많은 시간을
허비할까요?
01:23
Given주어진 the scale규모 that Twitter지저귀다 is at,
24
71410
2940
현재 트위터의 규모를
고려해보면
01:26
a one-in-a-million만에 하나 chance기회 happens일이
25
74350
2357
백만 분의 일이라는
확률은
01:28
500 times타임스 a day.
26
76707
4876
하루에 500번 일어납니다.
01:33
It's the same같은 for other companies회사들
27
81583
1445
이 정도의 규모를
다루는 회사들은
01:35
dealing취급 at this sort종류 of scale규모.
28
83028
1471
모두 비슷한 상황에 있어요.
01:36
For us, edge가장자리 cases사례,
29
84499
1708
저희로서는
극단적인 상황,
01:38
those rare드문 situations상황 that are unlikely있을 것 같지 않게 to occur나오다,
30
86207
3625
거의 발생할 것 같지 않은
드문 상황들이
01:41
are more like norms규범.
31
89832
2622
좀 더 일반적입니다.
01:44
Say 99.999 percent퍼센트 of tweets트윗
32
92454
3942
말하자면 99.999%의 트윗은
01:48
pose자세 no risk위험 to anyone누군가.
33
96396
1888
사람들에게 아무런
위험이 되지 않아요.
01:50
There's no threat위협 involved뒤얽힌.
34
98284
1066
어떤 위험 요소도 없습니다.
01:51
Maybe people are documenting문서화 travel여행 landmarks랜드 마크
35
99350
2954
누구는 호주의
하트형 산호초와 같은
01:54
like Australia's호주의 Heart심장 Reef암초,
36
102304
1963
여행의 중요 지점을
문서화하기도 하고
01:56
or tweeting트위터 about a concert음악회 they're attending참석하는,
37
104267
2921
다른 누구는 참석한
음악회에 대해 트윗을 하죠.
01:59
or sharing나누는 pictures영화 of cute귀엽다 baby아가 animals동물.
38
107188
4747
혹은 귀여운 어린 동물 사진을
공유하기도 합니다.
02:03
After you take out that 99.999 percent퍼센트,
39
111935
4509
그런 99.999%를
제외하고 남은
02:08
that tiny작은 percentage백분율 of tweets트윗 remaining남은
40
116444
3529
아주 작은 일부가
02:11
works공장 out to roughly대충
41
119973
2389
대략
02:14
150,000 per month.
42
122362
3475
한 달에 150,000건
정도 됩니다.
02:17
The sheer얇은 scale규모 of what we're dealing취급 with
43
125837
2456
저희가 처리하고 있는
그 단순한 숫자는
02:20
makes~을 만든다 for a challenge도전.
44
128293
2312
도전이 됩니다.
02:22
You know what else그밖에 makes~을 만든다 my role역할
45
130605
1178
그 외에 어떤 것이
제 직책을
02:23
particularly특별히 challenging도전적인?
46
131783
3107
특별히 힘들게 할까요?
02:26
People do weird기묘한 things.
47
134890
5123
사람들은 정말
이상한 짓도 합니다.
02:32
(Laughter웃음)
48
140013
1829
(웃음)
02:33
And I have to figure그림 out what they're doing,
49
141842
2391
그리고 전 그 사람들이
무엇을 하는지 알아내야하고
02:36
why, and whether인지 어떤지 or not there's risk위험 involved뒤얽힌,
50
144233
2249
그 이유와 잠재적 관련 위험도
알아내야만 합니다.
02:38
often자주 without없이 much in terms자귀 of context문맥
51
146482
2168
종종 그 내용이나 배경을
02:40
or background배경.
52
148650
1847
잘 모른 체 말이죠.
02:42
I'm going to show보여 주다 you some examples예제들
53
150497
2077
제가 트위터에서 일하면서
맞닥뜨린 몇 가지 예를
02:44
that I've run운영 into during...동안 my time at Twitter지저귀다 --
54
152574
2005
보여드리도록
하겠습니다.
02:46
these are all real레알 examples예제들
55
154579
1620
이건 모두 실제의 예들입니다.
02:48
of situations상황 that at first seemed~ 같았다 cut절단 and dried건조한,
56
156199
2653
이런 것들은 처음 보기에는
말끔하고 단순해 보이지만
02:50
but the truth진실 of the matter문제 was something
57
158852
1643
사실은 매우
02:52
altogether전부 different다른.
58
160495
1550
다른 것들이기도 합니다.
02:54
The details세부 have been changed변경된
59
162045
1977
죄없는 사람들과
02:56
to protect보호 the innocent순진한
60
164022
1257
때로는 문제가 있는 사람들을
보호하기 위해
02:57
and sometimes때때로 the guilty저지른.
61
165279
3233
세부 내용은 바꾼 것입니다.
03:00
We'll start스타트 off easy쉬운.
62
168512
3005
쉬운 것부터 시작해보죠.
03:03
["Yo에야디야 bitch암캐"]
63
171517
1793
["개같은 년"]
03:05
If you saw a Tweet짹짹 that only said this,
64
173310
3228
트위터에서 단순히 이렇게
말한 것을 보신다면
03:08
you might think to yourself당신 자신,
65
176538
1694
이렇게 생각하실지도 모르죠.
03:10
"That looks외모 like abuse남용."
66
178232
1653
"욕설이군."
03:11
After all, why would you
want to receive받다 the message메시지,
67
179885
3107
어쨌든 왜 이런 메세지를
받고 싶어하겠습니까?
03:14
"Yo에야디야, bitch암캐."
68
182992
2218
"개같은 년"
03:17
Now, I try to stay머무르다 relatively상대적으로 hip잘 알고 있기
69
185210
4663
저는 최신 유행과
문화 요소에
03:21
to the latest최근 trends동향 and memes,
70
189873
2512
잘 따라가려고
노력합니다.
03:24
so I knew알고 있었다 that "yo에야디야, bitch암캐"
71
192385
2704
그래서 전
"개같은 년"이란 욕설은
03:27
was also또한 often자주 a common공유지 greeting인사 between중에서 friends친구,
72
195089
3154
흔히 친구들 사이에
일반적인 인사란 걸 알았습니다.
03:30
as well as being존재 a popular인기 있는 "Breaking파괴 Bad나쁜" reference참고.
73
198243
4262
인기있는 "브레이킹 배드"로 인해
유명해지기도 했었죠.
03:34
I will admit들이다 that I did not expect배고 있다
74
202505
2487
사실 저는 네번째
사용처에 대해서는
03:36
to encounter교전 a fourth네번째 use case케이스.
75
204992
2841
전혀 예상하지 못했다고
인정합니다.
03:39
It turns회전 out it is also또한 used on Twitter지저귀다
76
207833
3104
트위터에서는 이 말은
사람들이
03:42
when people are role-playing역할 놀이 as dogs.
77
210937
3062
개 연기를 할 때 사용하는 것으로
드러났습니다.
03:45
(Laughter웃음)
78
213999
5279
(웃음)
03:51
And in fact, in that case케이스,
79
219278
1666
사실, 이런 경우에
03:52
it's not only not abusive남용,
80
220944
1609
이건 욕도 아닐 뿐더러
03:54
it's technically기술적으로 just an accurate정확한 greeting인사.
81
222553
3139
엄밀히 말하면 딱 알맞는
인사법이기도 하죠.
03:57
(Laughter웃음)
82
225692
2889
(웃음)
04:00
So okay, determining결정 whether인지 어떤지 or not
83
228581
2071
좋습니다.
문장도 없이
04:02
something is abusive남용 without없이 context문맥,
84
230652
1848
뭔가가 욕인지 아닌지
결정하는 것은
04:04
definitely명확히 hard단단한.
85
232500
1592
분명히 어려운 일입니다.
04:06
Let's look at spam스팸.
86
234092
2717
스팸을 볼까요.
04:08
Here's여기에 an example of an account계정 engaged바쁜
87
236809
1960
여기 전형적인 스팸의
행동을 보이는
04:10
in classic권위 있는 spammer스패머 behavior행동,
88
238769
1668
계정의 예가 있습니다.
04:12
sending배상 the exact정확한 same같은 message메시지
89
240437
1559
정말 똑같은 메세지를
04:13
to thousands수천 of people.
90
241996
1804
수천 명의 사람들에게
보내는 거죠.
04:15
While this is a mockup모형 I put
together함께 using~을 사용하여 my account계정,
91
243800
2793
이건 제 계정을 이용해서
가짜로 만들어 본 것인데
04:18
we see accounts계정 doing this all the time.
92
246593
3001
이런 짓을 하는 사람들이
항상 있습니다.
04:21
Seems보이네요. pretty예쁜 straightforward똑바로.
93
249594
1979
상당히 확실해 보이지요.
04:23
We should just automatically자동으로 suspend매달다 accounts계정
94
251573
2053
저희는 이런 행동을 하는
의심스런 계정은
04:25
engaging매력적인 in this kind종류 of behavior행동.
95
253626
3307
자동적으로 정지시킵니다.
04:28
Turns out there's some exceptions예외 to that rule규칙.
96
256933
3210
이런 규칙에 몇몇
예외가 있습니다.
04:32
Turns out that that message메시지
could also또한 be a notification공고
97
260143
2883
저 메세지는 당신이
국제 우주 정거장을
04:35
you signed서명 한 up for that the International국제 노동자 동맹
Space공간 Station is passing통과 overhead간접비
98
263026
3889
밖에 나가 볼 수 있는지
확인하고 싶어
04:38
because you wanted to go outside외부
99
266915
1846
그게 지금 머리 위를
지나고 있는지 알려주는
04:40
and see if you could see it.
100
268761
1948
메세지 일 수도 있습니다.
04:42
You're not going to get that chance기회
101
270709
1225
저희가 그걸
스팸으로 잘못 알고
04:43
if we mistakenly실수로 suspend매달다 the account계정
102
271934
1847
계정을 실수로 정지시키면
04:45
thinking생각 it's spam스팸.
103
273781
2266
사람들은 그렇게 할
기회를 갖지 못하겠죠.
04:48
Okay. Let's make the stakes스테이크 higher더 높은.
104
276047
3526
이제 수위를 좀 더
높여보겠습니다.
04:51
Back to my account계정,
105
279573
1916
제 계정으로 돌아가서
04:53
again exhibiting전시 중 classic권위 있는 behavior행동.
106
281489
3505
고전적인 행동을
다시 보여드리죠.
04:56
This time it's sending배상 the same같은 message메시지 and link링크.
107
284994
2643
이번에는 똑같은 메세지와
링크를 보내고 있습니다.
04:59
This is often자주 indicative지시적 of
something called전화 한 phishing피싱,
108
287637
2774
이건 보통 피싱이라는 걸
표시하는 신호입니다.
05:02
somebody어떤 사람 trying견딜 수 없는 to steal훔치다 another다른
person's account계정 information정보
109
290411
3178
누군가 사람들을
다른 웹사이트로 이끌어
05:05
by directing연출 them to another다른 website웹 사이트.
110
293589
2203
그 사람들의 계정 정보를
탈취하는 겁니다.
05:07
That's pretty예쁜 clearly분명히 not a good thing.
111
295792
4194
분명히 옳은 행동이 아니죠.
05:11
We want to, and do, suspend매달다 accounts계정
112
299986
1930
저희는 이런 행동을
보이는 계정은
05:13
engaging매력적인 in that kind종류 of behavior행동.
113
301916
2624
정지시키길 원하고
실제로 그렇게 합니다.
05:16
So why are the stakes스테이크 higher더 높은 for this?
114
304540
3247
왜 이런 경우의
위험성이 더 클까요?
05:19
Well, this could also또한 be a bystander방관자 at a rally랠리
115
307787
2999
자, 이건 마치
집회 현장에서
05:22
who managed관리되는 to record기록 a video비디오
116
310786
1910
무슨 일이 일어나고 있는지
세상에 알리려는
05:24
of a police경찰 officer장교 beating고동 a non-violent잔인하지 않은 protester항의 자
117
312696
3270
비폭력적 집회 참여자를
05:27
who's누가 trying견딜 수 없는 to let the world세계 know what's happening사고.
118
315966
2975
구타하는 경찰을 녹화하는
구경꾼과 같은데요.
05:30
We don't want to gamble도박
119
318941
1643
저희는 중요한 의견을
스팸으로 처리하거나
05:32
on potentially잠재적으로 silencing입을 막히는 that crucial결정적인 speech연설
120
320584
2517
정지시킴으로써
잠재적으로
05:35
by classifying분류 it as spam스팸 and suspending정지시키는 it.
121
323101
2929
침묵을 강요하는 도박을
하고 싶지는 않아요.
05:38
That means방법 we evaluate평가하다 hundreds수백 of parameters매개 변수들
122
326030
2879
그 말은 우리가
계정 활동을 볼 때,
05:40
when looking at account계정 behaviors행동,
123
328909
1688
수백개의 변수를
감정한다는 겁니다.
05:42
and even then, we can still get it wrong잘못된
124
330597
2016
심지어 그 후에도
실수가 있을 수 있고
05:44
and have to reevaluate재평가하다.
125
332613
2236
평가 작업을
다시 해야 하기도 하죠.
05:46
Now, given주어진 the sorts종류 of challenges도전 I'm up against반대,
126
334849
3708
제가 직면하는 모든 종류의
도전을 감안할 때
05:50
it's crucial결정적인 that I not only predict예측하다
127
338557
2696
전 예측하는 것뿐만 아니라
예상 밖의 것에 대한
05:53
but also또한 design디자인 protections보호 for the unexpected예기치 않은.
128
341253
3784
안전 장치를 만드는 것도
중요합니다.
05:57
And that's not just an issue발행물 for me,
129
345037
2342
그건 저만의 문제가 아니라
05:59
or for Twitter지저귀다, it's an issue발행물 for you.
130
347379
2087
트위터에 대해 여러분이
제기하는 문제점이에요.
06:01
It's an issue발행물 for anybody아무도 who's누가 building건물 or creating창조
131
349466
2406
그건 여러분이
대단할거라 생각하고
06:03
something that you think is going to be amazing놀랄 만한
132
351872
1925
또 사람들로 하여금
멋진 일을 하게 해줄 것을
06:05
and will let people do awesome대단한 things.
133
353797
2789
만들고 창조하는
그 누구에게든 문제가 됩니다.
06:08
So what do I do?
134
356586
2866
그럼 저는 어떻게 할까요?
06:11
I pause중지 and I think,
135
359452
3318
잠시 멈춰 생각하는 겁니다.
06:14
how could all of this
136
362770
2095
어떻게 이 모든 것이
상상할 수 조차 없게
06:16
go horribly무섭게 wrong잘못된?
137
364865
3793
잘못될 수 있을까?
06:20
I visualize시각화하다 catastrophe대단원.
138
368658
4453
저는 최악의 상황을
떠올립니다.
06:25
And that's hard단단한. There's a sort종류 of
139
373111
2463
그건 어려운 일이에요.
06:27
inherent고유의 cognitive인지 적 dissonance불협화음 in doing that,
140
375574
2848
그렇게 하는 데에는 일종의
내재적, 인지적 불협화음이 있죠.
06:30
like when you're writing쓰기 your wedding혼례 vows서원
141
378422
1812
마치 혼인 서약서를
쓰는 동시에
06:32
at the same같은 time as your prenuptial혼전의 agreement협정.
142
380234
2646
혼전 합의서를
작성하는 것 같은거죠.
06:34
(Laughter웃음)
143
382880
1696
(웃음)
06:36
But you still have to do it,
144
384576
2373
그래도 해야 합니다.
06:38
particularly특별히 if you're marrying결혼
500 million백만 tweets트윗 per day.
145
386949
4446
특히 하루 5억 건의
트윗과 결혼하려면요.
06:43
What do I mean by "visualize시각화하다 catastrophe대단원?"
146
391395
3097
제가 "최악을 떠올린다"
라는건 무슨 말일까요?
06:46
I try to think of how something as
147
394492
2762
저는 고양이 사진처럼
06:49
benign온화한 and innocuous무해한 as a picture그림 of a cat고양이
148
397254
3228
악의없이
천진난만한 것이
06:52
could lead리드 to death죽음,
149
400482
1104
어떻게 죽음을
야기하는지
06:53
and what to do to prevent막다 that.
150
401586
2326
그리고 그런 걸 어떻게
방지할지 생각하려고 합니다.
06:55
Which어느 happens일이 to be my next다음 것 example.
151
403912
2383
그것이 제가 준비한
다음 예인데요.
06:58
This is my cat고양이, Eli엘리.
152
406295
3110
이건 제가 고양이
엘리입니다.
07:01
We wanted to give users사용자 the ability능력
153
409405
1981
저희는 사용자들에게
07:03
to add더하다 photos사진들 to their그들의 tweets트윗.
154
411386
2073
자신의 트위터에 사진을
올릴 수 있게 하고 싶었습니다.
07:05
A picture그림 is worth가치 a thousand words.
155
413459
1597
사진은 천 마디 말의
값어치가 있으니까요.
07:07
You only get 140 characters문자들.
156
415056
2009
단어는 겨우 140개 밖에
쓸 수 없잖아요.
07:09
You add더하다 a photo사진 to your tweet짹짹,
157
417065
1200
트위터에 사진을 올리면
07:10
look at how much more content함유량 you've got now.
158
418265
3038
얼마나 많은 내용이
채워지는지 한번 보세요.
07:13
There's all sorts종류 of great things you can do
159
421303
1677
트위터에 사진을
올릴 수 있으면
07:14
by adding첨가 a photo사진 to a tweet짹짹.
160
422980
2007
상당히 많은 대단한 것들을
할 수 있습니다.
07:16
My job isn't to think of those.
161
424987
2280
제 직업은 그런 것을
생각하는 것이 아니에요.
07:19
It's to think of what could go wrong잘못된.
162
427267
2747
그게 어떻게 잘못 될 수 있는지
생각해내는 것이죠.
07:22
How could this picture그림
163
430014
1892
이 사진이 어떻게
07:23
lead리드 to my death죽음?
164
431906
3539
절 죽음으로
이끌 수 있을까요?
07:27
Well, here's여기에 one possibility가능성.
165
435445
3160
이런 가능성이 있습니다.
07:30
There's more in that picture그림 than just a cat고양이.
166
438605
3086
저 사진에는 고양이 이상의 것이
담겨 있어요.
07:33
There's geodata지리 자료.
167
441691
2092
지리 정보가 있죠.
07:35
When you take a picture그림 with your smartphone스마트 폰
168
443783
2212
스마트폰이나
디지털 카메라로
07:37
or digital디지털 camera카메라,
169
445995
1299
사진을 찍으면
07:39
there's a lot of additional추가의 information정보
170
447294
1654
수많은 부가 정보가
그 사진과 함께
07:40
saved저장된 along...을 따라서 in that image영상.
171
448948
1616
저장됩니다.
07:42
In fact, this image영상 also또한 contains포함하다
172
450564
1932
사실 이 사진에는
07:44
the equivalent동등한 of this,
173
452496
1805
그런 비슷한 게
들어있어요.
07:46
more specifically구체적으로, this.
174
454301
3079
더 정확하게는
바로 이겁니다.
07:49
Sure, it's not likely아마도 that someone's누군가의 going to try
175
457380
1956
맞습니다.
제가 찍은 고양이 사진에
07:51
to track선로 me down and do me harm
176
459336
2285
담긴 정보를 이용하여
07:53
based기반 upon...에 image영상 data데이터 associated관련
177
461621
1784
누군가가 저에 대해
알아보고
07:55
with a picture그림 I took~했다 of my cat고양이,
178
463405
1948
저를 해칠 것 같지는 않아요.
07:57
but I start스타트 by assuming가정 the worst가장 나쁜 will happen우연히 있다.
179
465353
3651
하지만 전 최악이 일어날거라
가정하며 시작합니다.
08:01
That's why, when we launched시작한 photos사진들 on Twitter지저귀다,
180
469004
2338
그게 바로 저희가 트위터에
사진을 올릴 수 있게 했을 때
08:03
we made만든 the decision결정 to strip조각 that geodata지리 자료 out.
181
471342
3821
지리 정보를 지운다는
결정을 내린 이유에요.
08:07
(Applause박수 갈채)
182
475163
5847
(박수)
08:13
If I start스타트 by assuming가정 the worst가장 나쁜
183
481010
2613
최악의 가정으로 시작해서
08:15
and work backwards뒤로,
184
483623
947
역으로 작업하면
08:16
I can make sure that the protections보호 we build짓다
185
484570
2553
저희가 만드는
개인 보호 장치가
08:19
work for both양자 모두 expected예상 한
186
487123
1768
예상했거나
예상치 못했던 상황
08:20
and unexpected예기치 않은 use cases사례.
187
488891
2078
모두에서 사용되게
할 수 있습니다.
08:22
Given주어진 that I spend보내 my days and nights
188
490969
2945
일어날 수 있는
최악을 밤낮으로
08:25
imagining상상하다 the worst가장 나쁜 that could happen우연히 있다,
189
493914
2541
생각하며 시간을
보냈다고 할 때
08:28
it wouldn't~ 않을거야. be surprising놀라운 if
my worldview세계관 was gloomy우울한.
190
496455
4257
제 세계관이 우울하다 해도
놀랄 일이 아니지요.
08:32
(Laughter웃음)
191
500712
1783
(웃음)
08:34
It's not.
192
502495
1417
그렇지 않습니다.
08:35
The vast거대한 majority과반수 of interactions상호 작용 I see --
193
503912
3876
제가 보는 대부분의
상호 반응,
08:39
and I see a lot, believe me -- are positive,
194
507788
3901
사실 전 엄청 많이 보는데요,
거의 다 긍정적입니다.
08:43
people reaching도달하다 out to help
195
511689
1924
도움을 주려고 하거나
08:45
or to connect잇다 or share information정보 with each마다 other.
196
513613
3448
서로 연결하여 정보를
공유하는 사람들입니다.
08:49
It's just that for those of us dealing취급 with scale규모,
197
517061
3323
이만한 규모를 다루고
08:52
for those of us tasked임무가 부여 된 with keeping유지 people safe안전한,
198
520384
3800
사람들을 안전하게
보호해야 하는
08:56
we have to assume취하다 the worst가장 나쁜 will happen우연히 있다,
199
524184
2546
저희는 최악의 상황이
발생할거라 가정해야만 합니다.
08:58
because for us, a one-in-a-million만에 하나 chance기회
200
526730
4227
왜냐하면 저희에게
백만분의 일이라는 확률은
09:02
is pretty예쁜 good odds승산.
201
530957
2749
엄청나게 큰
확률이기 때문입니다.
09:05
Thank you.
202
533706
1864
감사합니다.
09:07
(Applause박수 갈채)
203
535570
4000
(박수)
Translated by K Bang
Reviewed by Damin Park

▲Back to top

ABOUT THE SPEAKER
Del Harvey - Security maven
Del Harvey works to define policy and to ensure user safety and security in the challenging realm of modern social media.

Why you should listen

As Senior Director of Trust and Safety at Twitter, Del Harvey works to define policy and to ensure user safety and security in the challenging realm of modern social media. Prior to joining Twitter, she spent five years as the co-administrator and law enforcement liaison for a 501(c)3 non-profit charity, working with agencies ranging from local police departments to the FBI, U.S. Marshals and the Secret Service.

More profile about the speaker
Del Harvey | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee