English-Video.net comment policy

The comment field is common to all languages

Let's write in your language and use "Google Translate" together

Please refer to informative community guidelines on TED.com

TED2014

Del Harvey: Protecting Twitter users (sometimes from themselves)

デル・ハーヴェイ: Twitterの規模がもたらす変なこと

Filmed
Views 893,688

何億というツイートが毎日飛び交う時、ユーザーに危害をもたらすシナリオがありそうにない百万に1つという可能性のものであっても、それは1日500回起きることになります。Twitterの信頼と安全部門のリーダーであるデル・ハーヴェイにとって、この確率はありがたいものではありません。セキュリティの達人である彼女は、世界の人々に発言の場を与えながら最悪のシナリオをいかに防ぐか考えることに日々を費やしています。まじめな顔で冗談を交えながら、彼女がいかに2億4千万のユーザーの安全を保っているのか垣間見せてくれます。

- Security maven
Del Harvey is the VP of Trust & Safety at Twitter. Full bio

My job at Twitter
Twitterでの
私の仕事は
00:12
is to ensure user trust,
ユーザーの信頼を確保し
00:14
protect user rights and keep users safe,
ユーザーの権利を守り
安全を保つということです
00:16
both from each other
他のユーザーから
00:19
and, at times, from themselves.
そして 時には
彼ら自身から
00:20
Let's talk about what scale looks like at Twitter.
Twitterの規模が どのようなものか
見てみましょう
00:24
Back in January 2009,
2009年1月には
00:28
we saw more than two million new tweets each day
1日に200万以上の
ツイートがありました
00:31
on the platform.
1日に200万以上の
ツイートがありました
00:34
January 2014, more than 500 million.
2014年1月には1日のツイート数は
5億以上になりました
00:36
We were seeing two million tweets
200万のツイートが
00:42
in less than six minutes.
6分足らずの間に行われます
00:44
That's a 24,900-percent increase.
24,900%増加したわけです
00:47
Now, the vast majority of activity on Twitter
Twitter上の活動の大多数は
誰かを危険にさらすことはありません
00:54
puts no one in harm's way.
Twitter上の活動の大多数は
誰かを危険にさらすことはありません
00:57
There's no risk involved.
何のリスクもありません
00:58
My job is to root out and prevent activity that might.
私の仕事は 危険な可能性のある
活動をなくし 予防することです
01:00
Sounds straightforward, right?
単純な話に聞こえるでしょう?
01:06
You might even think it'd be easy,
簡単そうだと
01:08
given that I just said the vast majority
なにしろTwitter上の
活動の大多数は
01:09
of activity on Twitter puts no one in harm's way.
無害なものなのですから
01:11
Why spend so much time
ではなぜ そのような
害のない活動の中から
01:15
searching for potential calamities
潜在的な危険を探すために
01:17
in innocuous activities?
多くの時間を
費やしているのでしょう?
01:20
Given the scale that Twitter is at,
Twitterの規模を考えたなら
01:23
a one-in-a-million chance happens
百万に1つの可能性は
01:26
500 times a day.
1日に500回起きるのです
01:28
It's the same for other companies
これは こんな規模を扱う
他の企業でも同様です
01:33
dealing at this sort of scale.
これは こんな規模を扱う
他の企業でも同様です
01:35
For us, edge cases,
私たちにとって
01:36
those rare situations that are unlikely to occur,
起きそうにない
まれなケースというのが
01:38
are more like norms.
日常的に起きるのです
01:41
Say 99.999 percent of tweets
99.999%のツイートに
01:44
pose no risk to anyone.
何ら危険が
01:48
There's no threat involved.
なかったとしましょう
01:50
Maybe people are documenting travel landmarks
オーストラリアの
ハートリーフのような場所で
01:51
like Australia's Heart Reef,
旅の記録を
取っているのか
01:54
or tweeting about a concert they're attending,
参加しているコンサートのことを
つぶやいているのか
01:56
or sharing pictures of cute baby animals.
あるいは かわいい動物の赤ちゃんの
写真を見せているのかもしれません
01:59
After you take out that 99.999 percent,
そのような99.999%を
取り除いた後に残る
02:03
that tiny percentage of tweets remaining
ごくわずかの
ツイートの数は
02:08
works out to roughly
おおよそ
02:11
150,000 per month.
月に15万になります
02:14
The sheer scale of what we're dealing with
私たちの扱っている
規模の大きさが
02:17
makes for a challenge.
難題を生み出しているのです
02:20
You know what else makes my role
私の仕事を
難しくする
02:22
particularly challenging?
もう1つのものが
何かわかりますか?
02:23
People do weird things.
人間って変なことをする
ということです
02:26
(Laughter)
(笑)
02:32
And I have to figure out what they're doing,
彼らが何を
なぜやっているのか
02:33
why, and whether or not there's risk involved,
そこに危険がないか
見極めなければなりません
02:36
often without much in terms of context
あまり文脈や背景の
02:38
or background.
情報なしにです
02:40
I'm going to show you some examples
私がTwitterで
仕事する中で出会った
02:42
that I've run into during my time at Twitter --
例をいくつか
お目にかけましょう
02:44
these are all real examples —
いずれも実際の事例です
02:46
of situations that at first seemed cut and dried,
一見ありきたりの
状況に見えながら
02:48
but the truth of the matter was something
真実はまったく異なる—
02:50
altogether different.
という例です
02:52
The details have been changed
細部は 罪のない人の
あるいは
02:54
to protect the innocent
罪ある人かもしれませんが
02:56
and sometimes the guilty.
プライバシーを守るため
変えてあります
02:57
We'll start off easy.
簡単なのから いきましょう
03:00
["Yo bitch"]
[“Yo bitch” (おう メス犬)]
03:03
If you saw a Tweet that only said this,
このツイートだけ見たら
03:05
you might think to yourself,
罵り言葉だと
03:08
"That looks like abuse."
思うことでしょう
03:10
After all, why would you
want to receive the message,
誰が「おう メス犬」
なんてメッセージを
03:11
"Yo, bitch."
受け取りたいと
思うでしょう
03:14
Now, I try to stay relatively hip
私は最近のトレンドや
ミームには
03:17
to the latest trends and memes,
敏感であろうと
努めていますので
03:21
so I knew that "yo, bitch"
“Yo bitch”が
03:24
was also often a common greeting between friends,
友達同士の挨拶に
使われることや
03:27
as well as being a popular "Breaking Bad" reference.
人気ドラマ『ブレーキング・バッド』の台詞の
引用でありうることは承知しています
03:30
I will admit that I did not expect
しかしこの第4の用法は
03:34
to encounter a fourth use case.
正直予期していませんでした
03:36
It turns out it is also used on Twitter
これはTwitterで
犬のフリをして話す時に
03:39
when people are role-playing as dogs.
使われるということです
03:42
(Laughter)
[“Yo bitch” (おう メス犬)] (笑)
03:45
And in fact, in that case,
この場合には
03:51
it's not only not abusive,
罵り言葉でないだけでなく
03:52
it's technically just an accurate greeting.
むしろ状況に即した
正しい挨拶と言えるでしょう
03:54
(Laughter)
(笑)
03:57
So okay, determining whether or not
何かの言葉が
口汚いかどうかを
04:00
something is abusive without context,
文脈抜きに判断するのは
04:02
definitely hard.
困難なのです
04:04
Let's look at spam.
スパムを考えてみましょう
04:06
Here's an example of an account engaged
これは典型的な
スパマーの行動です
04:08
in classic spammer behavior,
これは典型的な
スパマーの行動です
04:10
sending the exact same message
まったく同一のメッセージを
何千という人に送りつけます
04:12
to thousands of people.
まったく同一のメッセージを
何千という人に送りつけます
04:13
While this is a mockup I put
together using my account,
これは私自身のアカウントで
真似て見せたものですが
04:15
we see accounts doing this all the time.
このようなものは
しょっちゅう目にしています
04:18
Seems pretty straightforward.
すごく分かりやすいですよね
04:21
We should just automatically suspend accounts
このようなことを
しているアカウントは
04:23
engaging in this kind of behavior.
自動的に閉鎖して
しまうべきでしょう
04:25
Turns out there's some exceptions to that rule.
しかし例外があることが
分かりました
04:28
Turns out that that message
could also be a notification
あのようなメッセージが
04:32
you signed up for that the International
Space Station is passing overhead
頭上を通過する
国際宇宙ステーションを
04:35
because you wanted to go outside
外に出て見られるよう
通知してくれる
04:38
and see if you could see it.
サービスかもしれないのです
04:40
You're not going to get that chance
これをスパムとみなして
04:42
if we mistakenly suspend the account
アカウントを閉鎖してしまったら
04:43
thinking it's spam.
みんな宇宙ステーションを
見逃してしまうでしょう
04:45
Okay. Let's make the stakes higher.
より重大なケースを
考えてみましょう
04:48
Back to my account,
再び私のアカウントで
04:51
again exhibiting classic behavior.
典型的な問題行動を
模倣してみました
04:53
This time it's sending the same message and link.
多数の同一メッセージを
リンク付きで送るというものです
04:56
This is often indicative of
something called phishing,
これはフィッシングと呼ばれるものに
よく見受けられます
04:59
somebody trying to steal another
person's account information
他のサイトに
誘導することで
05:02
by directing them to another website.
アカウント情報を
盗もうとするのです
05:05
That's pretty clearly not a good thing.
明らかに良くないことです
05:07
We want to, and do, suspend accounts
このような活動を
しているアカウントは
05:11
engaging in that kind of behavior.
停止したいし
実際停止していますが
05:13
So why are the stakes higher for this?
ではなぜこれが
重大だというのでしょう?
05:16
Well, this could also be a bystander at a rally
これは もしかしたら
05:19
who managed to record a video
無抵抗の抗議者に
05:22
of a police officer beating a non-violent protester
暴力を振るう警官を
目撃者が録画し
05:24
who's trying to let the world know what's happening.
世界に伝えようと
しているのかもしれないのです
05:27
We don't want to gamble
それをスパムに分類して
05:30
on potentially silencing that crucial speech
重要な言論を封じて
しまうような危険を
05:32
by classifying it as spam and suspending it.
冒したくはありません
05:35
That means we evaluate hundreds of parameters
だからアカウントの
活動を見る時には
05:38
when looking at account behaviors,
何百という尺度を
使っていますが
05:40
and even then, we can still get it wrong
それでも時には間違い
05:42
and have to reevaluate.
再確認を要することが
あり得ます
05:44
Now, given the sorts of challenges I'm up against,
私が直面している難題の
種類を考えるなら
05:46
it's crucial that I not only predict
惨事を予想するだけでなく
05:50
but also design protections for the unexpected.
予想外のことから守る仕組みを
設けることも重要です
05:53
And that's not just an issue for me,
これは私やTwitterにとって
だけの問題ではなく
05:57
or for Twitter, it's an issue for you.
皆さんの問題でもあるのです
05:59
It's an issue for anybody who's building or creating
みんなが素晴らしいことを
できるようにする
06:01
something that you think is going to be amazing
何かすごいものを
作ろうとしている
06:03
and will let people do awesome things.
すべての人にとっての
問題です
06:05
So what do I do?
ではどうするのか?
06:08
I pause and I think,
立ち止まって
こう考えるんです
06:11
how could all of this
「まったく酷いことが
06:14
go horribly wrong?
これから起きるとしたら
どのようにしてか?」
06:16
I visualize catastrophe.
惨事を思い描くのです
06:20
And that's hard. There's a sort of
これは難しいことです
06:25
inherent cognitive dissonance in doing that,
一種の認知的不協和があります
06:27
like when you're writing your wedding vows
結婚の誓いの言葉と同時に
06:30
at the same time as your prenuptial agreement.
婚前同意書を作ろうとする
ようなものです
06:32
(Laughter)
(笑)
06:34
But you still have to do it,
でもやらなければ
ならないんです
06:36
particularly if you're marrying
500 million tweets per day.
1日5億のツイートと
結婚すると決めたなら
06:38
What do I mean by "visualize catastrophe?"
惨事を思い描くというのは
06:43
I try to think of how something as
猫の写真のような
害のないものが
06:46
benign and innocuous as a picture of a cat
いかに人の死に
つながりうるか
06:49
could lead to death,
それを いかに防げるか
考えるということです
06:52
and what to do to prevent that.
それを いかに防げるか
考えるということです
06:53
Which happens to be my next example.
次のケースが
まさにその例です
06:55
This is my cat, Eli.
これは私の猫のイーライです
06:58
We wanted to give users the ability
私たちはツイートに写真を
07:01
to add photos to their tweets.
付けられるように
したいと思いました
07:03
A picture is worth a thousand words.
百聞は一見にしかずです
07:05
You only get 140 characters.
たった140文字のツイートに
07:07
You add a photo to your tweet,
写真を付けたなら
07:09
look at how much more content you've got now.
どれほど内容が
豊かになるでしょう
07:10
There's all sorts of great things you can do
ツイートに写真を付けることで
07:13
by adding a photo to a tweet.
可能になる素晴らしいことが
たくさんあります
07:14
My job isn't to think of those.
でもそれを考えるのは
私の仕事ではありません
07:16
It's to think of what could go wrong.
それがどうマズくなりうるか
考えるのが私の仕事です
07:19
How could this picture
この写真がどうしたら
07:22
lead to my death?
私の死につながりうるのか?
07:23
Well, here's one possibility.
たとえば こんな可能性があります
07:27
There's more in that picture than just a cat.
この写真に写っていのは
猫だけではありません
07:30
There's geodata.
GPS情報があります
07:33
When you take a picture with your smartphone
携帯やデジカメで
07:35
or digital camera,
写真を撮る時
画像とともに保存される
07:37
there's a lot of additional information
写真を撮る時
画像とともに保存される
07:39
saved along in that image.
様々な情報があります
07:40
In fact, this image also contains
この画像には
07:42
the equivalent of this,
これと同等の情報
07:44
more specifically, this.
より具体的には
この位置情報が含まれています
07:46
Sure, it's not likely that someone's going to try
私が撮った猫の写真の
07:49
to track me down and do me harm
付随情報から
私の居所を突き止め
07:51
based upon image data associated
悪さをしようという人が
07:53
with a picture I took of my cat,
いるとも思えませんが
07:55
but I start by assuming the worst will happen.
しかし私は最悪のことは起こると
仮定するところから始めます
07:57
That's why, when we launched photos on Twitter,
私たちがツイートに写真を
付けられるようにした時
08:01
we made the decision to strip that geodata out.
GPS情報が取り除かれる
ようにしたのは そのためです
08:03
(Applause)
(拍手)
08:07
If I start by assuming the worst
常に最悪のことを仮定し
08:13
and work backwards,
保守的に構えることで
08:15
I can make sure that the protections we build
私たちの作る守りが
間違いなく
08:16
work for both expected
予期されることにも
08:19
and unexpected use cases.
予期せざることにも
働くようにできます
08:20
Given that I spend my days and nights
起こりうる最悪のことを
08:22
imagining the worst that could happen,
いつも想像して
過ごしていたら
08:25
it wouldn't be surprising if
my worldview was gloomy.
私の世界観が暗いものになったとしても
不思議はないでしょう
08:28
(Laughter)
(笑)
08:32
It's not.
でもそうではありません
08:34
The vast majority of interactions I see --
私が目にする
やりとりの大多数は
08:35
and I see a lot, believe me -- are positive,
本当にたくさん見ていますが
ポジティブなのです
08:39
people reaching out to help
人々が助けの手を伸ばし
08:43
or to connect or share information with each other.
互いに繋がり合い
情報を共有し合っています
08:45
It's just that for those of us dealing with scale,
ただ私たちのような
大規模のものを扱い
08:49
for those of us tasked with keeping people safe,
人々の安全を保つことを
仕事とする者は
08:52
we have to assume the worst will happen,
最悪のことは起こると
仮定せざるを得ないのです
08:56
because for us, a one-in-a-million chance
私たちにとって
百万に1つという可能性というのは
08:58
is pretty good odds.
至極起きがちなことだからです
09:02
Thank you.
ありがとうございました
09:05
(Applause)
(拍手)
09:07
Translated by Yasushi Aoki
Reviewed by Takafusa Kitazume

▲Back to top

About the speaker:

Del Harvey - Security maven
Del Harvey is the VP of Trust & Safety at Twitter.

Why you should listen

At Twitter, Del Harvey works to ensure user safety and security, balancing Twitter's wide-open spaces against spammers, harassers and worse, to create a workable policy that lets the tweets flow. Prior to joining the booming social media site, she spent five years as the law enforcement liaison for a group fighting child exploitation, where she worked with agencies ranging from local police departments to the FBI, US Marshals and the Secret Service.

As Twitter grows, its ever inventive users (who famously came up with many of its key features by themselves) are finding ever new ways to overshare, offend and pick on others. Harvey and team's challenge is to weed out the worst while keeping the site feeling like a safe place to have this new kind of conversation we're all having there now.

More profile about the speaker
Del Harvey | Speaker | TED.com