sponsored links
TEDxPSU

Bruce Schneier: The security mirage

ブルース・シュナイアー: セキュリティの幻想

October 10, 2010

コンピューターセキュリティの専門家ブルース・シュナイアーは、安全だと感じることと実際に安全であることは必ずしも一致しないと言います。TEDxPSU(ペンシルバニア州立大)において、各地の飛行場で繰り広げられている「セキュリティシアター」のような新聞ネタの対処に大金を費やすのに、より起こり得るリスクは無視するのはなぜか、そしてそのパターンをどうすれば破れるのかを説明します。

Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

sponsored links
Double-click the English subtitles below to play the video.
So security is two different things:
セキュリティには 2 つの側面があります
00:15
it's a feeling, and it's a reality.
感情と現実です
00:17
And they're different.
両者は異なるものです
00:19
You could feel secure
実際に安全ではなくとも
00:21
even if you're not.
安全だと感じることができます
00:23
And you can be secure
安全だと感じなくても
00:25
even if you don't feel it.
安全であることもあります
00:27
Really, we have two separate concepts
二つの別々の概念が
00:29
mapped onto the same word.
安全という一つの言葉に対応付けてられています
00:31
And what I want to do in this talk
本日私がお話ししたいことは
00:33
is to split them apart --
感情と現実を区別し
00:35
figuring out when they diverge
どのような時に 別々の概念に別れ
00:37
and how they converge.
どう一つに収束するかです
00:39
And language is actually a problem here.
ここでは言葉が問題となります
00:41
There aren't a lot of good words
これからお話しする概念に則した
00:43
for the concepts we're going to talk about.
良い言葉があまりないのです
00:45
So if you look at security
安全を
00:48
from economic terms,
経済学の言葉で表現するなら
00:50
it's a trade-off.
「トレードオフ」となります
00:52
Every time you get some security,
安全を得るときはいつも
00:54
you're always trading off something.
何かをトレードオフしています
00:56
Whether this is a personal decision --
個人的な判断で
00:58
whether you're going to install a burglar alarm in your home --
自宅に防犯ベルを設置するとき
01:00
or a national decision -- where you're going to invade some foreign country --
国家的な判断で外国に侵攻するとき
01:02
you're going to trade off something,
何かをトレードオフすることになります
01:05
either money or time, convenience, capabilities,
それはお金 時間 利便性 機能性
01:07
maybe fundamental liberties.
あるいは根本的な自由かもしれません
01:10
And the question to ask when you look at a security anything
安全を考えるときに問うべきは
01:13
is not whether this makes us safer,
それが自身をより安全にするかではなく
01:16
but whether it's worth the trade-off.
トレードオフするに値するかです
01:19
You've heard in the past several years,
ここ数年でこんなことを耳にしたでしょう
01:22
the world is safer because Saddam Hussein is not in power.
サダム・フセインが権力を振るっていないので世界はより安全だと
01:24
That might be true, but it's not terribly relevant.
真実かもしれませんが関連性はごく僅かでしょう
01:26
The question is, was it worth it?
問うべきは その価値があったか ということです
01:29
And you can make your own decision,
これは個人個人で結論が出せます
01:32
and then you'll decide whether the invasion was worth it.
侵攻するに値したか 自分なりに判断するのです
01:35
That's how you think about security --
これが安全を考える方法です
01:37
in terms of the trade-off.
トレードオフという観点を用いるのです
01:39
Now there's often no right or wrong here.
この判断に特に正しい答えはありません
01:41
Some of us have a burglar alarm system at home,
自宅に防犯ベルを設置している人もいれば
01:44
and some of us don't.
そうでない人もいます
01:46
And it'll depend on where we live,
住んでいる地域
01:48
whether we live alone or have a family,
一人暮らしか家族と住んでいるか
01:50
how much cool stuff we have,
どんな凄いものを所有しているか
01:52
how much we're willing to accept
窃盗のリスクをどの程度
01:54
the risk of theft.
許容するかによるでしょう
01:56
In politics also,
政治でも
01:58
there are different opinions.
さまざまな見解があります
02:00
A lot of times, these trade-offs
多くの場合 トレードオフは
02:02
are about more than just security,
安全に関するものに留まりません
02:04
and I think that's really important.
これは重要なことです
02:06
Now people have a natural intuition
人間はこういったトレードオフに対して
02:08
about these trade-offs.
直感を持っており
02:10
We make them every day --
日々それを使っています
02:12
last night in my hotel room,
昨晩ホテルの部屋で
02:14
when I decided to double-lock the door,
ドアを二重に施錠すると判断したとき
02:16
or you in your car when you drove here,
皆さんがここまで運転してきたとき
02:18
when we go eat lunch
ランチに行き
02:20
and decide the food's not poison and we'll eat it.
食べ物に毒が混入していないと判断し食べるとき
02:22
We make these trade-offs again and again,
私たちはこういったトレードオフを
02:25
multiple times a day.
一日に何回も判断しています
02:27
We often won't even notice them.
あまり意識することはないでしょう
02:29
They're just part of being alive; we all do it.
生存活動の一部に過ぎません 皆やっていることです
02:31
Every species does it.
あらゆる種が行っていることです
02:33
Imagine a rabbit in a field, eating grass,
野原で草を食べているウサギを想像してください
02:36
and the rabbit's going to see a fox.
そのウサギはキツネを見つけます
02:38
That rabbit will make a security trade-off:
するとウサギは安全のトレードオフをするでしょう
02:41
"Should I stay, or should I flee?"
「留まるべきか 逃げるべきか」
02:43
And if you think about it,
こうして考えてみると
02:45
the rabbits that are good at making that trade-off
トレードオフの判断に長けたウサギは
02:47
will tend to live and reproduce,
生き延びて繁殖するでしょう
02:50
and the rabbits that are bad at it
そうでないウサギは
02:52
will get eaten or starve.
捕食されたり餓死するでしょう
02:54
So you'd think
では
02:56
that us, as a successful species on the planet --
地球で成功している種である
02:58
you, me, everybody --
皆さん 私 全員が
03:01
would be really good at making these trade-offs.
トレードオフの判断に長けていると考えるかもしれません
03:03
Yet it seems, again and again,
にも関わらず
03:06
that we're hopelessly bad at it.
私たちは絶望的に下手なようです
03:08
And I think that's a fundamentally interesting question.
これは非常に興味深い疑問だと思います
03:11
I'll give you the short answer.
端的な回答をお出ししましょう
03:14
The answer is, we respond to the feeling of security
私たちは安全の感覚に対応しているのであり
03:16
and not the reality.
安全の実態に反応しているのではないということです
03:18
Now most of the time, that works.
多くの場合これは有効です
03:21
Most of the time,
多くの場合
03:25
feeling and reality are the same.
感覚と実態は同じです
03:27
Certainly that's true
先史時代においては
03:30
for most of human prehistory.
まさしく真実でした
03:32
We've developed this ability
私たちが感覚的に反応する能力を発達させてきたのは
03:35
because it makes evolutionary sense.
進化的に正しかったからです
03:38
One way to think of it
一つの解釈は
03:40
is that we're highly optimized
少数のグループで生活するときに
03:42
for risk decisions
必要とされるリスク判断に
03:44
that are endemic to living in small family groups
極めて適合していたということです
03:46
in the East African highlands in 100,000 B.C.
これは紀元前10万年の東アフリカ高地でのことであり
03:49
2010 New York, not so much.
2010 年のニューヨークではまた別です
03:52
Now there are several biases in risk perception.
リスクの認知にはいくつものバイアスがかかるもので
03:56
A lot of good experiments in this.
それについては数多くの研究があります
03:59
And you can see certain biases that come up again and again.
特定のバイアスは繰り返し現れるものです
04:01
So I'll give you four.
ここでは 4 つ紹介したいと思います
04:04
We tend to exaggerate spectacular and rare risks
私たちは劇的なリスクや珍しいリスクを誇大化し
04:06
and downplay common risks --
一般的なリスクを過小評価しがちです
04:09
so flying versus driving.
例えば飛行機と車での移動の比較です
04:11
The unknown is perceived
未知のリスクは
04:14
to be riskier than the familiar.
既知のリスクより大きく捉えられます
04:16
One example would be,
例えば
04:20
people fear kidnapping by strangers
人々は見知らぬ人による誘拐を恐れますが
04:22
when the data supports kidnapping by relatives is much more common.
データによると顔見知りによる誘拐の方が断然多いのです
04:25
This is for children.
これは子供の場合です
04:28
Third, personified risks
第三に 名前を持つものによるリスクは
04:30
are perceived to be greater than anonymous risks --
匿名によるリスクより大きく捉えられます
04:33
so Bin Laden is scarier because he has a name.
ビン・ラディンは名を持つがゆえにより恐れられるということです
04:36
And the fourth
第四に 人々は
04:39
is people underestimate risks
自分でコントロールできる状況での
04:41
in situations they do control
リスクを過小評価し
04:43
and overestimate them in situations they don't control.
そうでない状況でのリスクを過大評価します
04:45
So once you take up skydiving or smoking,
スカイダイビングや喫煙をする人は
04:49
you downplay the risks.
そのリスクを実際より低く捉えます
04:52
If a risk is thrust upon you -- terrorism was a good example --
テロが良い例ですが そういったリスクに曝されると
04:54
you'll overplay it because you don't feel like it's in your control.
それを過大評価します 自分でコントロールできないと感じるからです
04:57
There are a bunch of other of these biases, these cognitive biases,
他にも私たちのリスク判断に影響する
05:02
that affect our risk decisions.
多数の認知バイアスが存在します
05:05
There's the availability heuristic,
利用可能性ヒューリスティックというものがあります
05:08
which basically means
これは基本的に
05:10
we estimate the probability of something
想像の し易さから
05:12
by how easy it is to bring instances of it to mind.
その可能性を推測するというものです
05:15
So you can imagine how that works.
どういうことかお話ししましょう
05:19
If you hear a lot about tiger attacks, there must be a lot of tigers around.
トラの襲撃をよく耳にする場合 周辺にはトラが沢山いるはずです
05:21
You don't hear about lion attacks, there aren't a lot of lions around.
ライオンの襲撃を耳にしないなら 周辺にライオンはあまりいないでしょう
05:24
This works until you invent newspapers.
こう考えられるのも新聞が出回るまでです
05:27
Because what newspapers do
なぜなら新聞とは
05:30
is they repeat again and again
繰り返し繰り返し
05:32
rare risks.
希なリスクを記すものだからです
05:34
I tell people, if it's in the news, don't worry about it.
ニュースになるくらいなら心配はいらないと私はみんなに言っています
05:36
Because by definition,
なぜなら定義によれば
05:38
news is something that almost never happens.
ニュースとはほぼ起こらない出来事のことだからです
05:40
(Laughter)
(笑)
05:43
When something is so common, it's no longer news --
ある出来事が一般的なら それはもはやニュースではないのです
05:45
car crashes, domestic violence --
自動車事故や家庭内暴力
05:48
those are the risks you worry about.
皆さんが心配するリスクはこういったものです
05:50
We're also a species of storytellers.
また私たちは物語る種です
05:53
We respond to stories more than data.
データより物語に敏感です
05:55
And there's some basic innumeracy going on.
また根本的な数量に対する感覚も欠けています
05:58
I mean, the joke "One, Two, Three, Many" is kind of right.
「一つ 二つ 三つ たくさん」はある意味正しいということです
06:00
We're really good at small numbers.
私たちは 小さい数にはとても強いです
06:03
One mango, two mangoes, three mangoes,
一つのマンゴー 二つのマンゴー 三つのマンゴー
06:06
10,000 mangoes, 100,000 mangoes --
一万のマンゴー 十万のマンゴー
06:08
it's still more mangoes you can eat before they rot.
食べきる前に腐ってしまうほどの数です
06:10
So one half, one quarter, one fifth -- we're good at that.
二分の一 四分の一 五分の一 こういうのも得意です
06:13
One in a million, one in a billion --
百万分の一 十億分の一
06:16
they're both almost never.
どちらも「ほぼありえない」です
06:18
So we have trouble with the risks
このように 私たちは
06:21
that aren't very common.
珍しいリスクというものが苦手です
06:23
And what these cognitive biases do
そしてこの認知バイアスは
06:25
is they act as filters between us and reality.
私たちと実態の間のフィルターとして働きます
06:27
And the result
その結果
06:30
is that feeling and reality get out of whack,
感覚と実態が狂います
06:32
they get different.
異なるものとなるのです
06:34
Now you either have a feeling -- you feel more secure than you are.
皆さんは実際より安全だと感じることがあります
06:37
There's a false sense of security.
偽りの感覚です
06:40
Or the other way,
あるいは
06:42
and that's a false sense of insecurity.
偽りの不安感もあります
06:44
I write a lot about "security theater,"
私は「セキュリティシアター」
06:46
which are products that make people feel secure,
つまり人々に安心感を与えつつも
06:49
but don't actually do anything.
実効を持たないものについて沢山書いています
06:52
There's no real word for stuff that makes us secure,
私たちに安全を提供しつつも
06:54
but doesn't make us feel secure.
安心にはさせないというものを示す言葉はありません
06:56
Maybe it's what the CIA's supposed to do for us.
CIA に是非やってもらいたいことです
06:58
So back to economics.
では経済の話に戻りましょう
07:03
If economics, if the market, drives security,
もし経済が 市場が 安全を促進するならば
07:05
and if people make trade-offs
そして人々が安心感に基づいて
07:09
based on the feeling of security,
トレードオフをするならば
07:11
then the smart thing for companies to do
経済刺激のために
07:14
for the economic incentives
会社が取れる良策は
07:16
are to make people feel secure.
人々に安心感を与えることです
07:18
And there are two ways to do this.
それには二つ方法があります
07:21
One, you can make people actually secure
実際に安全を提供し
07:24
and hope they notice.
人々が気付くのに期待するか
07:26
Or two, you can make people just feel secure
もしくは安心感を提供して
07:28
and hope they don't notice.
実態に気付かないことを期待するか です
07:31
So what makes people notice?
では気付くには何が必要でしょう
07:35
Well a couple of things:
いくつかあります
07:38
understanding of the security,
理解です
07:40
of the risks, the threats,
安全 リスク 脅威 対抗策
07:42
the countermeasures, how they work.
それらを理解し そして仕組みを知ることです
07:44
But if you know stuff,
もし知っていれば
07:47
you're more likely to have your feelings match reality.
感覚と実態は一致しているでしょう
07:49
Enough real world examples helps.
沢山の実例の知識も助けになるでしょう
07:52
Now we all know the crime rate in our neighborhood,
私たちは皆 近隣の犯罪率を知っています
07:55
because we live there, and we get a feeling about it
なぜならそこに住んでいるからであり
07:58
that basically matches reality.
基本的に実態と感覚は一致しています
08:01
Security theater's exposed
セキュリティシアターに気付くのは
08:04
when it's obvious that it's not working properly.
それらがうまく噛み合っていないときです
08:07
Okay, so what makes people not notice?
では実態に気付けない理由は何でしょう
08:10
Well, a poor understanding.
理解不足です
08:14
If you don't understand the risks, you don't understand the costs,
リスクやコストを理解していなければ
08:16
you're likely to get the trade-off wrong,
トレードオフの判断を誤るでしょう
08:19
and your feeling doesn't match reality.
感覚も実態とは ずれます
08:21
Not enough examples.
経験不足です
08:24
There's an inherent problem
そこには発生率の低さという
08:26
with low probability events.
固有の問題があります
08:28
If, for example,
もし仮に
08:30
terrorism almost never happens,
テロがほとんど起きなければ
08:32
it's really hard to judge
テロ対策の有効性を
08:34
the efficacy of counter-terrorist measures.
判断するのはとても困難でしょう
08:36
This is why you keep sacrificing virgins,
これが儀式でいけにえを捧げる習慣が続いたり
08:40
and why your unicorn defenses are working just great.
突拍子もない責任転嫁がまかり通る理由です
08:43
There aren't enough examples of failures.
失敗例が足りないのです
08:46
Also, feelings that are clouding the issues --
また感情も問題を曇らせます
08:50
the cognitive biases I talked about earlier,
先ほど触れた認知バイアス
08:53
fears, folk beliefs,
恐怖 迷信 等は
08:55
basically an inadequate model of reality.
基本的に不適切な現実のモデルなのです
08:58
So let me complicate things.
ここを更に複雑化します
09:02
I have feeling and reality.
感覚と実態があります
09:05
I want to add a third element. I want to add model.
ここに第三の要素「モデル」を加えたいと思います
09:07
Feeling and model in our head,
頭の中には感覚とモデルがあり
09:10
reality is the outside world.
外界に実態があります
09:12
It doesn't change; it's real.
実態は変わりません 現実です
09:14
So feeling is based on our intuition.
感覚は私たちの直感に基づいています
09:17
Model is based on reason.
モデルは理性に基づいています
09:19
That's basically the difference.
これが基本的な違いです
09:21
In a primitive and simple world,
原始的で単純な世界においては
09:24
there's really no reason for a model
モデルを持つ理由など全くありません
09:26
because feeling is close to reality.
感覚が現実ととても近いからです
09:29
You don't need a model.
モデルは必要ないのです
09:32
But in a modern and complex world,
しかし現代の複雑な世界においては
09:34
you need models
私たちが直面する
09:36
to understand a lot of the risks we face.
数々のリスクを理解するためにモデルが必要です
09:38
There's no feeling about germs.
ばい菌についての感覚などありません
09:42
You need a model to understand them.
理解するためにはモデルがいるのです
09:44
So this model
つまりモデルとは現実を知的に理解し
09:47
is an intelligent representation of reality.
違う形で表現した物です
09:49
It's, of course, limited by science,
モデルには当然科学 そしてテクノロジーによる
09:52
by technology.
限界があります
09:55
We couldn't have a germ theory of disease
ばい菌を観察できる顕微鏡を開発する以前には
09:57
before we invented the microscope to see them.
病気の細菌説などありえません
10:00
It's limited by our cognitive biases.
認知バイアスによる限界もあります
10:04
But it has the ability
ただこれには
10:07
to override our feelings.
感覚を覆す力があります
10:09
Where do we get these models? We get them from others.
モデルはどこから得るのでしょう?他から得るのです
10:11
We get them from religion, from culture,
宗教や文化
10:14
teachers, elders.
教師や長老から得ます
10:17
A couple years ago,
数年前 私は
10:19
I was in South Africa on safari.
狩猟旅行で南アフリカに行っていました
10:21
The tracker I was with grew up in Kruger National Park.
同行したトラッカーはクルーガー国立公園で育ちました
10:23
He had some very complex models of how to survive.
彼はサバイバルに関していくつか複雑なモデルを持っていました
10:26
And it depended on if you were attacked
それは何が襲ってきたのかによります
10:29
by a lion or a leopard or a rhino or an elephant --
ライオン、ヒョウ、サイ、ゾウ
10:31
and when you had to run away, and when you couldn't run away, and when you had to climb a tree --
また逃げなければならない場合 木に登らなければならない場合
10:33
when you could never climb a tree.
木に登れない場合もあります
10:36
I would have died in a day,
私は一日と生きられないでしょうが
10:38
but he was born there,
彼はそこで生まれ
10:41
and he understood how to survive.
生存方法を理解していました
10:43
I was born in New York City.
私はニューヨーク生まれです
10:45
I could have taken him to New York, and he would have died in a day.
ニューヨークに連れてきたら 彼は一日と持たないかもしれません
10:47
(Laughter)
(笑)
10:50
Because we had different models
というのも私たちはそれぞれの経験に基づいて
10:52
based on our different experiences.
別々のモデルを持っているからです
10:54
Models can come from the media,
モデルはメディアや
10:58
from our elected officials.
役人から得られることもあります
11:00
Think of models of terrorism,
テロのモデルや
11:03
child kidnapping,
子供の誘拐 航空安全
11:06
airline safety, car safety.
交通安全などのモデルを考えてみてください
11:09
Models can come from industry.
モデルは産業から出現することもあります
11:11
The two I'm following are surveillance cameras,
私が興味を持っているのは監視カメラと
11:14
ID cards,
ID カードの二つで
11:16
quite a lot of our computer security models come from there.
コンピュータセキュリティのモデルがこれらから沢山生まれています
11:18
A lot of models come from science.
科学からも沢山のモデルが来ています
11:21
Health models are a great example.
健康モデルは素晴らしい例です
11:24
Think of cancer, of bird flu, swine flu, SARS.
ガン、鳥インフルエンザ、豚インフルエンザ、SARS を考えてください
11:26
All of our feelings of security
こういった病気に関する
11:29
about those diseases
安全の感覚は全て
11:32
come from models
モデルから来ています
11:34
given to us, really, by science filtered through the media.
メディアのフィルターを通した科学からもたらされています
11:36
So models can change.
モデルは変化し得ます
11:40
Models are not static.
不変のものではありません
11:43
As we become more comfortable in our environments,
私たちが環境に馴染むにつれ
11:45
our model can move closer to our feelings.
モデルは私たちの感覚に近づいていきます
11:48
So an example might be,
例としては
11:53
if you go back 100 years ago
100 年前に戻ってみましょう
11:55
when electricity was first becoming common,
電気が出現したばかりの頃で
11:57
there were a lot of fears about it.
沢山の懸念が持たれていました
12:00
I mean, there were people who were afraid to push doorbells,
呼び鈴を鳴らすのを怖がっていた人がいました
12:02
because there was electricity in there, and that was dangerous.
当時 危険だった電気が使われていたためにです
12:04
For us, we're very facile around electricity.
私たちは電気製品はお手の物です
12:07
We change light bulbs
電球の付け替えも
12:10
without even thinking about it.
さして考えることもなくできます
12:12
Our model of security around electricity
電気にまつわる安全のモデルは
12:14
is something we were born into.
私たちにとっては常識です
12:18
It hasn't changed as we were growing up.
生まれたときから特に変化もしていません
12:21
And we're good at it.
使い方は完全にマスターしています
12:24
Or think of the risks
世代毎の
12:27
on the Internet across generations --
インターネットにまつわるリスクを考えてみましょう
12:29
how your parents approach Internet security,
ご両親のインターネットの安全に対する姿勢と
12:31
versus how you do,
皆さんの姿勢
12:33
versus how our kids will.
そして皆さんの子供はどうなるでしょう
12:35
Models eventually fade into the background.
モデルは最終的に背景へと馴染んでいきます
12:38
Intuitive is just another word for familiar.
直感は「慣れ」の言い換えに過ぎません
12:42
So as your model is close to reality,
つまりモデルが現実に近づくほど
12:45
and it converges with feelings,
そして感覚と一体になるほど
12:47
you often don't know it's there.
モデルの存在に気付かなくなります
12:49
So a nice example of this
この良い例は
12:52
came from last year and swine flu.
昨年の豚インフルエンザでしょう
12:54
When swine flu first appeared,
豚インフルエンザが最初現れたとき
12:57
the initial news caused a lot of overreaction.
初期情報は沢山の過剰反応を引き起こしました
12:59
Now it had a name,
名前が付いていたために
13:03
which made it scarier than the regular flu,
普通のインフルエンザより致死率が
13:05
even though it was more deadly.
低いにも関わらず恐ろしげです
13:07
And people thought doctors should be able to deal with it.
人々は医者に何とかしてもらいたいと考えていました
13:09
So there was that feeling of lack of control.
自分ではコントロールできない感覚があったわけです
13:13
And those two things
名前と制御不能感が
13:15
made the risk more than it was.
リスクを実際以上のものに見せました
13:17
As the novelty wore off, the months went by,
新奇性が薄れ 月日が経ち
13:19
there was some amount of tolerance,
ある程度 危機感も薄れ
13:22
people got used to it.
人々は慣れました
13:24
There was no new data, but there was less fear.
新しいデータはなくとも恐れは薄れたのです
13:26
By autumn,
秋になると
13:29
people thought
人々は
13:31
the doctors should have solved this already.
医者は既に解決していても良いはずだ と考えるようになりました
13:33
And there's kind of a bifurcation --
ある種の分岐がありました
13:35
people had to choose
人々は
13:37
between fear and acceptance --
恐怖か受容か--
13:39
actually fear and indifference --
実際には、恐怖か無関心かでしょうか--を選ぶところで
13:43
they kind of chose suspicion.
リスク自体を疑い始めたようなのです
13:45
And when the vaccine appeared last winter,
冬にワクチンが出てきたときには
13:48
there were a lot of people -- a surprising number --
驚くほど沢山の人が
13:51
who refused to get it --
ワクチンを受けることを拒否したのです
13:54
as a nice example
以上は
13:58
of how people's feelings of security change, how their model changes,
人々の安全の感覚やモデルが
14:00
sort of wildly
奔放に
14:03
with no new information,
新しい情報もなしに
14:05
with no new input.
変化することの良い例です
14:07
This kind of thing happens a lot.
こういったことはしばしば起こります
14:09
I'm going to give one more complication.
更にもう一つ問題を挙げます
14:12
We have feeling, model, reality.
感覚 モデル 実態とあります
14:15
I have a very relativistic view of security.
私は安全とは非常に相対的なものだと考えています
14:18
I think it depends on the observer.
これは観察者次第だと思います
14:20
And most security decisions
またほとんどの安全に関する判断には
14:23
have a variety of people involved.
多様な人々が関与しています
14:25
And stakeholders
特定のトレードオフで
14:29
with specific trade-offs
利害を得る人達は
14:31
will try to influence the decision.
判断に関与しようとします
14:34
And I call that their agenda.
それが彼らのアジェンダ(課題)だと私は呼んでいます
14:36
And you see agenda --
アジェンダ、つまりこれが
14:38
this is marketing, this is politics --
マーケッティングだとか政治なのですが
14:40
trying to convince you to have one model versus another,
都合の良いモデルを選ばせたり
14:43
trying to convince you to ignore a model
モデルを無視して
14:46
and trust your feelings,
感覚で行動するようにしむけて
14:48
marginalizing people with models you don't like.
好みのモデルを持っていない人を排除しようとしているのです
14:51
This is not uncommon.
これは珍しいことではありません
14:54
An example, a great example, is the risk of smoking.
その良い例は喫煙のリスクです
14:57
In the history of the past 50 years, the smoking risk
過去 50 年の歴史で 喫煙のリスクは
15:01
shows how a model changes,
モデルがどのように変化していくかを示しています
15:04
and it also shows how an industry fights against
また産業が望まないモデルに対して
15:06
a model it doesn't like.
どう戦っているかも分かります
15:09
Compare that to the secondhand smoke debate --
それを間接喫煙の議論と比較してください
15:11
probably about 20 years behind.
約 20 年遅れて出てきたものです
15:14
Think about seat belts.
シートベルトはどうでしょう
15:17
When I was a kid, no one wore a seat belt.
私が子供の頃 誰もシートベルトを締めていませんでした
15:19
Nowadays, no kid will let you drive
今ではシートベルトを締めないと
15:21
if you're not wearing a seat belt.
誰も運転させてくれません
15:23
Compare that to the airbag debate --
エアーバッグはどうでしょう
15:26
probably about 30 years behind.
約 30 年遅れて出てきた議論です
15:28
All examples of models changing.
全てモデルの変化の例です
15:31
What we learn is that changing models is hard.
そこから分かるのは モデルを変えるのは困難だということです
15:36
Models are hard to dislodge.
安定しているモデルを変えるのは難しいのです
15:39
If they equal your feelings,
モデルと感覚が等しいならば
15:41
you don't even know you have a model.
モデルを持っているということすら分かりません
15:43
And there's another cognitive bias
また別の認知バイアスがあります
15:46
I'll call confirmation bias,
確証バイアスというもので
15:48
where we tend to accept data
私たちは自身の信念に沿う
15:50
that confirms our beliefs
データを受け入れる傾向にあり
15:53
and reject data that contradicts our beliefs.
そぐわない情報ははねのける傾向にあるというものです
15:55
So evidence against our model,
モデルに反する証拠は
15:59
we're likely to ignore, even if it's compelling.
そうだろうと思っても無視しがちです
16:01
It has to get very compelling before we'll pay attention.
注意を引くには よほど強い説得力を持つものでなければなりません
16:04
New models that extend long periods of time are hard.
長期間をカバーする新しいモデルは難しいものです
16:08
Global warming is a great example.
地球温暖化がよい例です
16:10
We're terrible
私たちは 80 年という
16:12
at models that span 80 years.
長いスパンを持つモデルには向いていません
16:14
We can do to the next harvest.
次の収穫まではいけます
16:16
We can often do until our kids grow up.
自分の子供が成長するまでも大丈夫でしょう
16:18
But 80 years, we're just not good at.
しかし 80 年ともなると上手くやれません
16:21
So it's a very hard model to accept.
従って地球温暖化のモデルは受け入れがとても難しいのです
16:24
We can have both models in our head simultaneously,
私たちは頭の中で二つのモデルを同時に持つことが出来ます
16:27
right, that kind of problem
二つの概念をどちらも信じている
16:31
where we're holding both beliefs together,
そういう場合の問題で
16:34
right, the cognitive dissonance.
認知的不協和があるときです
16:37
Eventually,
最終的には
16:39
the new model will replace the old model.
新しいモデルが古いモデルに取って代わります
16:41
Strong feelings can create a model.
強い感情がモデルを作ることがあります
16:44
September 11th created a security model
9.11 は大勢の人の頭の中に
16:47
in a lot of people's heads.
安全モデルを作りました
16:50
Also, personal experiences with crime can do it,
また犯罪にあった個人的な経験や
16:52
personal health scare,
健康を害した経験
16:55
a health scare in the news.
ニュースで知った健康被害などもモデルを作るでしょう
16:57
You'll see these called flashbulb events
以上は精神科医によると
16:59
by psychiatrists.
フラッシュバルブ記憶と呼ばれるものです
17:01
They can create a model instantaneously,
モデルを一瞬で作り上げます
17:03
because they're very emotive.
非常に感情価が高いためです
17:06
So in the technological world,
科学技術の話となると
17:09
we don't have experience
モデルを評価するための経験を
17:11
to judge models.
私たちは持っていません
17:13
And we rely on others. We rely on proxies.
判断を他者に 代理に委ねています
17:15
I mean, this works as long as it's to correct others.
これは信頼性のある他者に委ねる場合に限り有効です
17:17
We rely on government agencies
私たちは治療薬の安全性の判断を
17:21
to tell us what pharmaceuticals are safe.
政府機関に委ねています
17:23
I flew here yesterday.
私は昨日飛行機でここまで来たのですが
17:28
I didn't check the airplane.
飛行機を調べませんでした
17:30
I relied on some other group
自分が乗る飛行機の安全性の判断を
17:32
to determine whether my plane was safe to fly.
他の組織に委ねたのです
17:34
We're here, none of us fear the roof is going to collapse on us,
この場にいる私たちは天井が落ちてくる心配なんてしていません
17:37
not because we checked,
調べたからではなく
17:40
but because we're pretty sure
ここの建築規定は良いと
17:43
the building codes here are good.
私たちは確信しているからです
17:45
It's a model we just accept
これは疑問も持たずに信じて
17:48
pretty much by faith.
受け入れているモデルです
17:50
And that's okay.
それでいいのです
17:52
Now, what we want
ここで私たちが望むのは
17:57
is people to get familiar enough
人々に より良いモデルに
17:59
with better models --
精通してもらい
18:01
have it reflected in their feelings --
そしてそれを感覚に反映して
18:03
to allow them to make security trade-offs.
安全に関するトレードオフ判断ができるようになることです
18:05
Now when these go out of whack,
これがうまくいかないときは
18:09
you have two options.
二つ 選択肢があります
18:11
One, you can fix people's feelings,
一つは直接感情に訴えて
18:13
directly appeal to feelings.
感覚を直すことです
18:15
It's manipulation, but it can work.
人を操るわけですが上手くいくときもあります
18:17
The second, more honest way
より誠実な方法は
18:20
is to actually fix the model.
実際にモデルを修正することです
18:22
Change happens slowly.
変化はゆっくり訪れます
18:26
The smoking debate took 40 years,
喫煙論争は 40 年掛かりました
18:28
and that was an easy one.
これは簡単だった方です
18:31
Some of this stuff is hard.
こういったことは難しいのです
18:34
I mean really though,
なんと言っても
18:36
information seems like our best hope.
情報こそが私たちの最高の希望に思えます
18:38
And I lied.
先ほど嘘をつきました
18:40
Remember I said feeling, model, reality;
感覚 モデル 実態について触れたことを覚えていますか?
18:42
I said reality doesn't change. It actually does.
現実は変わらないと言いましたが 変わります
18:44
We live in a technological world;
私たちは科学技術の世界に生きています
18:47
reality changes all the time.
現実は常に移り変わっています
18:49
So we might have -- for the first time in our species --
ヒトという種の歴史上で初めてこのような環境になったかもしれません
18:52
feeling chases model, model chases reality, reality's moving --
感覚がモデルを モデルが実態を追い 実態は変わり続け
18:55
they might never catch up.
いずれも追いつくことは恐らくありません
18:58
We don't know.
先のことは分かりませんが
19:02
But in the long-term,
しかし長期的には
19:04
both feeling and reality are important.
感覚と実態は共に重要なものです
19:06
And I want to close with two quick stories to illustrate this.
それを示す小話を二つ紹介して終わりにしたいと思います
19:09
1982 -- I don't know if people will remember this --
1982 年 皆さんが覚えているか分かりませんが
19:12
there was a short epidemic
アメリカで短期間
19:14
of Tylenol poisonings in the United States.
タイレノール中毒が流行りました
19:17
It's a horrific story. Someone took a bottle of Tylenol,
恐ろしい事件です 誰かがタイレノールのボトルに
19:19
put poison in it, closed it up, put it back on the shelf.
毒を混入し フタを閉めて棚に戻しました
19:22
Someone else bought it and died.
それを誰かが購入し 死亡しました
19:25
This terrified people.
この事件は人々に恐怖を与えました
19:27
There were a couple of copycat attacks.
いくつかの模倣犯が現れました
19:29
There wasn't any real risk, but people were scared.
実際の危険は無かったものの人々は恐れました
19:31
And this is how
こういった経緯で
19:34
the tamper-proof drug industry was invented.
タンパー防止の製薬産業ができたのです
19:36
Those tamper-proof caps, that came from this.
あのタンパー防止キャップはここから来ているのです
19:38
It's complete security theater.
完全にセキュリティシアターです
19:40
As a homework assignment, think of 10 ways to get around it.
宿題として回避策を十通り考えてください
19:42
I'll give you one, a syringe.
一つはお教えしましょう 注射器です
19:44
But it made people feel better.
しかし人々に安心感を与えました
19:47
It made their feeling of security
人々の安全感覚を
19:50
more match the reality.
より現実に近づけたのです
19:52
Last story, a few years ago, a friend of mine gave birth.
最後です 数年前友人が子供を産みました
19:54
I visit her in the hospital.
私は病院の彼女を訪ねました
19:57
It turns out when a baby's born now,
今日では新生児に
19:59
they put an RFID bracelet on the baby,
RFID の腕輪を着け
20:01
put a corresponding one on the mother,
それに対応した腕輪を母親に着けるようです
20:03
so if anyone other than the mother takes the baby out of the maternity ward,
こうすると 母親以外が赤ん坊を産科病棟から連れ出そうとしたときに
20:05
an alarm goes off.
アラームが鳴ります
20:07
I said, "Well, that's kind of neat.
「なんだか凄いですね
20:09
I wonder how rampant baby snatching is
病院で新生児連れ去りは
20:11
out of hospitals."
どれだけ発生しているんでしょう」
20:13
I go home, I look it up.
帰宅して調べてみました
20:15
It basically never happens.
ほとんど発生していないようです
20:17
But if you think about it,
しかし考えてみましょう
20:19
if you are a hospital,
病院で
20:21
and you need to take a baby away from its mother,
何らかの検査のために母親の元から
20:23
out of the room to run some tests,
部屋の外へ連れ出す必要があるとします
20:25
you better have some good security theater,
そのとき良いセキュリティシアターが無ければ
20:27
or she's going to rip your arm off.
母親はあなたの腕をもぐでしょう
20:29
(Laughter)
(笑)
20:31
So it's important for us,
従って私たち安全を考えるものにとって
20:33
those of us who design security,
またセキュリティポリシーや
20:35
who look at security policy,
更には公序良俗を考えるものにとって
20:37
or even look at public policy
安全への影響という点で
20:40
in ways that affect security.
これは重要なのです
20:42
It's not just reality; it's feeling and reality.
実態だけではなく 感覚と実態を考えねばなりません
20:44
What's important
重要なのは
20:47
is that they be about the same.
両者がほぼ同じであることです
20:49
It's important that, if our feelings match reality,
感覚が実態に則していれば 安全に関して
20:51
we make better security trade-offs.
より良いトレードオフ判断ができるということが重要なのです
20:53
Thank you.
ありがとうございました
20:55
(Applause)
(拍手)
20:57
Translator:Keiichi Kudo
Reviewer:Akiko Hicks

sponsored links

Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

sponsored links

If you need translations, you can install "Google Translate" extension into your Chrome Browser.
Furthermore, you can change playback rate by installing "Video Speed Controller" extension.

Data provided by TED.

This website is owned and operated by Tokyo English Network.
The developer's blog is here.