ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

ブルース・シュナイアー: セキュリティの幻想

Filmed:
958,315 views

コンピューターセキュリティの専門家ブルース・シュナイアーは、安全だと感じることと実際に安全であることは必ずしも一致しないと言います。TEDxPSU(ペンシルバニア州立大)において、各地の飛行場で繰り広げられている「セキュリティシアター」のような新聞ネタの対処に大金を費やすのに、より起こり得るリスクは無視するのはなぜか、そしてそのパターンをどうすれば破れるのかを説明します。
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securityセキュリティ is two different異なる things:
0
0
2000
セキュリティには 2 つの側面があります
00:17
it's a feeling感じ, and it's a reality現実.
1
2000
2000
感情と現実です
00:19
And they're different異なる.
2
4000
2000
両者は異なるものです
00:21
You could feel secure安全な
3
6000
2000
実際に安全ではなくとも
00:23
even if you're not.
4
8000
2000
安全だと感じることができます
00:25
And you can be secure安全な
5
10000
2000
安全だと感じなくても
00:27
even if you don't feel it.
6
12000
2000
安全であることもあります
00:29
Really, we have two separate別々の conceptsコンセプト
7
14000
2000
二つの別々の概念が
00:31
mappedマップされた onto〜に the same同じ wordワード.
8
16000
2000
安全という一つの言葉に対応付けてられています
00:33
And what I want to do in this talk
9
18000
2000
本日私がお話ししたいことは
00:35
is to splitスプリット them apart離れて --
10
20000
2000
感情と現実を区別し
00:37
figuring想像する out when they diverge発散する
11
22000
2000
どのような時に 別々の概念に別れ
00:39
and how they converge収束する.
12
24000
2000
どう一つに収束するかです
00:41
And language言語 is actually実際に a problem問題 here.
13
26000
2000
ここでは言葉が問題となります
00:43
There aren'tない a lot of good words言葉
14
28000
2000
これからお話しする概念に則した
00:45
for the conceptsコンセプト we're going to talk about.
15
30000
3000
良い言葉があまりないのです
00:48
So if you look at securityセキュリティ
16
33000
2000
安全を
00:50
from economic経済的 terms条項,
17
35000
2000
経済学の言葉で表現するなら
00:52
it's a trade-offトレード・オフ.
18
37000
2000
「トレードオフ」となります
00:54
Everyすべて time you get some securityセキュリティ,
19
39000
2000
安全を得るときはいつも
00:56
you're always tradingトレーディング off something.
20
41000
2000
何かをトレードオフしています
00:58
Whetherどうか this is a personal個人的 decision決定 --
21
43000
2000
個人的な判断で
01:00
whetherかどうか you're going to installインストール a burglar泥棒 alarm警報 in your home --
22
45000
2000
自宅に防犯ベルを設置するとき
01:02
or a national全国 decision決定 -- where you're going to invade侵入する some foreign外国人 country --
23
47000
3000
国家的な判断で外国に侵攻するとき
01:05
you're going to tradeトレード off something,
24
50000
2000
何かをトレードオフすることになります
01:07
eitherどちらか moneyお金 or time, convenience利便性, capabilities能力,
25
52000
3000
それはお金 時間 利便性 機能性
01:10
maybe fundamental基本的な liberties自由.
26
55000
3000
あるいは根本的な自由かもしれません
01:13
And the question質問 to ask尋ねる when you look at a securityセキュリティ anything
27
58000
3000
安全を考えるときに問うべきは
01:16
is not whetherかどうか this makes作る us saferより安全な,
28
61000
3000
それが自身をより安全にするかではなく
01:19
but whetherかどうか it's worth価値 the trade-offトレード・オフ.
29
64000
3000
トレードオフするに値するかです
01:22
You've heard聞いた in the past過去 severalいくつかの years,
30
67000
2000
ここ数年でこんなことを耳にしたでしょう
01:24
the world世界 is saferより安全な because Saddamサダム Husseinフセイン is not in powerパワー.
31
69000
2000
サダム・フセインが権力を振るっていないので世界はより安全だと
01:26
That mightかもしれない be true真実, but it's not terriblyひどく relevant関連する.
32
71000
3000
真実かもしれませんが関連性はごく僅かでしょう
01:29
The question質問 is, was it worth価値 it?
33
74000
3000
問うべきは その価値があったか ということです
01:32
And you can make your own自分の decision決定,
34
77000
3000
これは個人個人で結論が出せます
01:35
and then you'llあなたは decide決めます whetherかどうか the invasion侵入 was worth価値 it.
35
80000
2000
侵攻するに値したか 自分なりに判断するのです
01:37
That's how you think about securityセキュリティ --
36
82000
2000
これが安全を考える方法です
01:39
in terms条項 of the trade-offトレード・オフ.
37
84000
2000
トレードオフという観点を用いるのです
01:41
Now there's oftenしばしば no right or wrong違う here.
38
86000
3000
この判断に特に正しい答えはありません
01:44
Some of us have a burglar泥棒 alarm警報 systemシステム at home,
39
89000
2000
自宅に防犯ベルを設置している人もいれば
01:46
and some of us don't.
40
91000
2000
そうでない人もいます
01:48
And it'llそれはよ depend依存する on where we liveライブ,
41
93000
2000
住んでいる地域
01:50
whetherかどうか we liveライブ alone単独で or have a family家族,
42
95000
2000
一人暮らしか家族と住んでいるか
01:52
how much coolクール stuffもの we have,
43
97000
2000
どんな凄いものを所有しているか
01:54
how much we're willing喜んで to accept受け入れる
44
99000
2000
窃盗のリスクをどの程度
01:56
the riskリスク of theft盗難.
45
101000
2000
許容するかによるでしょう
01:58
In politics政治 alsoまた、,
46
103000
2000
政治でも
02:00
there are different異なる opinions意見.
47
105000
2000
さまざまな見解があります
02:02
A lot of times, these trade-offsトレードオフ
48
107000
2000
多くの場合 トレードオフは
02:04
are about more than just securityセキュリティ,
49
109000
2000
安全に関するものに留まりません
02:06
and I think that's really important重要.
50
111000
2000
これは重要なことです
02:08
Now people have a naturalナチュラル intuition直感
51
113000
2000
人間はこういったトレードオフに対して
02:10
about these trade-offsトレードオフ.
52
115000
2000
直感を持っており
02:12
We make them everyすべて day --
53
117000
2000
日々それを使っています
02:14
last night in my hotelホテル roomルーム,
54
119000
2000
昨晩ホテルの部屋で
02:16
when I decided決定しました to double-lockダブルロック the doorドア,
55
121000
2000
ドアを二重に施錠すると判断したとき
02:18
or you in your car when you drove運転した here,
56
123000
2000
皆さんがここまで運転してきたとき
02:20
when we go eat食べる lunchランチ
57
125000
2000
ランチに行き
02:22
and decide決めます the food's食べ物 not poison and we'll私たちは eat食べる it.
58
127000
3000
食べ物に毒が混入していないと判断し食べるとき
02:25
We make these trade-offsトレードオフ again and again,
59
130000
2000
私たちはこういったトレードオフを
02:27
multiple複数 times a day.
60
132000
2000
一日に何回も判断しています
02:29
We oftenしばしば won't〜されません even notice通知 them.
61
134000
2000
あまり意識することはないでしょう
02:31
They're just part of beingであること alive生きている; we all do it.
62
136000
2000
生存活動の一部に過ぎません 皆やっていることです
02:33
Everyすべて species does it.
63
138000
3000
あらゆる種が行っていることです
02:36
Imagine想像する a rabbitウサギ in a fieldフィールド, eating食べる grass,
64
141000
2000
野原で草を食べているウサギを想像してください
02:38
and the rabbit'sウサギの going to see a fox.
65
143000
3000
そのウサギはキツネを見つけます
02:41
That rabbitウサギ will make a securityセキュリティ trade-offトレード・オフ:
66
146000
2000
するとウサギは安全のトレードオフをするでしょう
02:43
"Should I stay滞在, or should I flee逃げる?"
67
148000
2000
「留まるべきか 逃げるべきか」
02:45
And if you think about it,
68
150000
2000
こうして考えてみると
02:47
the rabbitsウサギ that are good at making作る that trade-offトレード・オフ
69
152000
3000
トレードオフの判断に長けたウサギは
02:50
will tend傾向がある to liveライブ and reproduce再現する,
70
155000
2000
生き延びて繁殖するでしょう
02:52
and the rabbitsウサギ that are bad悪い at it
71
157000
2000
そうでないウサギは
02:54
will get eaten食べた or starve飢えている.
72
159000
2000
捕食されたり餓死するでしょう
02:56
So you'dあなたは think
73
161000
2000
では
02:58
that us, as a successful成功した species on the planet惑星 --
74
163000
3000
地球で成功している種である
03:01
you, me, everybodyみんな --
75
166000
2000
皆さん 私 全員が
03:03
would be really good at making作る these trade-offsトレードオフ.
76
168000
3000
トレードオフの判断に長けていると考えるかもしれません
03:06
Yetまだ it seems思われる, again and again,
77
171000
2000
にも関わらず
03:08
that we're hopelessly絶望的に bad悪い at it.
78
173000
3000
私たちは絶望的に下手なようです
03:11
And I think that's a fundamentally根本的に interesting面白い question質問.
79
176000
3000
これは非常に興味深い疑問だと思います
03:14
I'll give you the shortショート answer回答.
80
179000
2000
端的な回答をお出ししましょう
03:16
The answer回答 is, we respond応答する to the feeling感じ of securityセキュリティ
81
181000
2000
私たちは安全の感覚に対応しているのであり
03:18
and not the reality現実.
82
183000
3000
安全の実態に反応しているのではないということです
03:21
Now most最も of the time, that works作品.
83
186000
3000
多くの場合これは有効です
03:25
Most最も of the time,
84
190000
2000
多くの場合
03:27
feeling感じ and reality現実 are the same同じ.
85
192000
3000
感覚と実態は同じです
03:30
Certainly確かに that's true真実
86
195000
2000
先史時代においては
03:32
for most最も of human人間 prehistory先史時代.
87
197000
3000
まさしく真実でした
03:35
We've私たちは developed発展した this ability能力
88
200000
3000
私たちが感覚的に反応する能力を発達させてきたのは
03:38
because it makes作る evolutionary進化的 senseセンス.
89
203000
2000
進化的に正しかったからです
03:40
One way to think of it
90
205000
2000
一つの解釈は
03:42
is that we're highly高く optimized最適化した
91
207000
2000
少数のグループで生活するときに
03:44
for riskリスク decisions決定
92
209000
2000
必要とされるリスク判断に
03:46
that are endemic風土病 to living生活 in small小さい family家族 groupsグループ
93
211000
3000
極めて適合していたということです
03:49
in the East Africanアフリカ highlands高地 in 100,000 B.C.
94
214000
3000
これは紀元前10万年の東アフリカ高地でのことであり
03:52
2010 New新しい Yorkヨーク, not so much.
95
217000
3000
2010 年のニューヨークではまた別です
03:56
Now there are severalいくつかの biasesバイアス in riskリスク perception知覚.
96
221000
3000
リスクの認知にはいくつものバイアスがかかるもので
03:59
A lot of good experiments実験 in this.
97
224000
2000
それについては数多くの研究があります
04:01
And you can see certainある biasesバイアス that come up again and again.
98
226000
3000
特定のバイアスは繰り返し現れるものです
04:04
So I'll give you four4つの.
99
229000
2000
ここでは 4 つ紹介したいと思います
04:06
We tend傾向がある to exaggerate誇張する spectacular素晴らしい and rareまれな risksリスク
100
231000
3000
私たちは劇的なリスクや珍しいリスクを誇大化し
04:09
and downplay過小評価 common一般 risksリスク --
101
234000
2000
一般的なリスクを過小評価しがちです
04:11
so flying飛行 versus driving運転.
102
236000
3000
例えば飛行機と車での移動の比較です
04:14
The unknown未知の is perceived知覚される
103
239000
2000
未知のリスクは
04:16
to be riskierより危険な than the familiar身近な.
104
241000
3000
既知のリスクより大きく捉えられます
04:20
One example would be,
105
245000
2000
例えば
04:22
people fear恐れ kidnapping誘拐 by strangers見知らぬ人
106
247000
3000
人々は見知らぬ人による誘拐を恐れますが
04:25
when the dataデータ supportsサポート kidnapping誘拐 by relatives親族 is much more common一般.
107
250000
3000
データによると顔見知りによる誘拐の方が断然多いのです
04:28
This is for children子供.
108
253000
2000
これは子供の場合です
04:30
Third三番, personified個性化された risksリスク
109
255000
3000
第三に 名前を持つものによるリスクは
04:33
are perceived知覚される to be greater大きい than anonymous匿名 risksリスク --
110
258000
3000
匿名によるリスクより大きく捉えられます
04:36
so Binビン Ladenラーデン is scarier恐ろしい because he has a name.
111
261000
3000
ビン・ラディンは名を持つがゆえにより恐れられるということです
04:39
And the fourth第4
112
264000
2000
第四に 人々は
04:41
is people underestimate過小評価する risksリスク
113
266000
2000
自分でコントロールできる状況での
04:43
in situations状況 they do controlコントロール
114
268000
2000
リスクを過小評価し
04:45
and overestimate過大評価する them in situations状況 they don't controlコントロール.
115
270000
4000
そうでない状況でのリスクを過大評価します
04:49
So once一度 you take up skydivingスカイダイビング or smoking喫煙,
116
274000
3000
スカイダイビングや喫煙をする人は
04:52
you downplay過小評価 the risksリスク.
117
277000
2000
そのリスクを実際より低く捉えます
04:54
If a riskリスク is thrust推力 upon〜に you -- terrorismテロ was a good example --
118
279000
3000
テロが良い例ですが そういったリスクに曝されると
04:57
you'llあなたは overplayオーバープレイ it because you don't feel like it's in your controlコントロール.
119
282000
3000
それを過大評価します 自分でコントロールできないと感じるからです
05:02
There are a bunch of other of these biasesバイアス, these cognitive認知 biasesバイアス,
120
287000
3000
他にも私たちのリスク判断に影響する
05:05
that affect影響を与える our riskリスク decisions決定.
121
290000
3000
多数の認知バイアスが存在します
05:08
There's the availability可用性 heuristicヒューリスティック,
122
293000
2000
利用可能性ヒューリスティックというものがあります
05:10
whichどの basically基本的に means手段
123
295000
2000
これは基本的に
05:12
we estimate推定 the probability確率 of something
124
297000
3000
想像の し易さから
05:15
by how easy簡単 it is to bring持参する instancesインスタンス of it to mindマインド.
125
300000
4000
その可能性を推測するというものです
05:19
So you can imagine想像する how that works作品.
126
304000
2000
どういうことかお話ししましょう
05:21
If you hear聞く a lot about tiger attacks攻撃, there must必須 be a lot of tigersトラ around.
127
306000
3000
トラの襲撃をよく耳にする場合 周辺にはトラが沢山いるはずです
05:24
You don't hear聞く about lionライオン attacks攻撃, there aren'tない a lot of lionsライオンズ around.
128
309000
3000
ライオンの襲撃を耳にしないなら 周辺にライオンはあまりいないでしょう
05:27
This works作品 until〜まで you invent発明する newspapers新聞.
129
312000
3000
こう考えられるのも新聞が出回るまでです
05:30
Because what newspapers新聞 do
130
315000
2000
なぜなら新聞とは
05:32
is they repeat繰り返す again and again
131
317000
2000
繰り返し繰り返し
05:34
rareまれな risksリスク.
132
319000
2000
希なリスクを記すものだからです
05:36
I tell people, if it's in the newsニュース, don't worry心配 about it.
133
321000
2000
ニュースになるくらいなら心配はいらないと私はみんなに言っています
05:38
Because by definition定義,
134
323000
2000
なぜなら定義によれば
05:40
newsニュース is something that almostほぼ never happens起こる.
135
325000
3000
ニュースとはほぼ起こらない出来事のことだからです
05:43
(Laughter笑い)
136
328000
2000
(笑)
05:45
When something is so common一般, it's no longerより長いです newsニュース --
137
330000
3000
ある出来事が一般的なら それはもはやニュースではないのです
05:48
car crashesクラッシュ, domestic国内の violence暴力 --
138
333000
2000
自動車事故や家庭内暴力
05:50
those are the risksリスク you worry心配 about.
139
335000
3000
皆さんが心配するリスクはこういったものです
05:53
We're alsoまた、 a species of storytellersストーリーテラー.
140
338000
2000
また私たちは物語る種です
05:55
We respond応答する to stories物語 more than dataデータ.
141
340000
3000
データより物語に敏感です
05:58
And there's some basic基本的な innumeracy無名 going on.
142
343000
2000
また根本的な数量に対する感覚も欠けています
06:00
I mean, the joke冗談で "One, Two, Three, Manyたくさんの" is kind種類 of right.
143
345000
3000
「一つ 二つ 三つ たくさん」はある意味正しいということです
06:03
We're really good at small小さい numbers数字.
144
348000
3000
私たちは 小さい数にはとても強いです
06:06
One mangoマンゴー, two mangoesマンゴー, three mangoesマンゴー,
145
351000
2000
一つのマンゴー 二つのマンゴー 三つのマンゴー
06:08
10,000 mangoesマンゴー, 100,000 mangoesマンゴー --
146
353000
2000
一万のマンゴー 十万のマンゴー
06:10
it's still more mangoesマンゴー you can eat食べる before they rot腐敗.
147
355000
3000
食べきる前に腐ってしまうほどの数です
06:13
So one halfハーフ, one quarter四半期, one fifth五番目 -- we're good at that.
148
358000
3000
二分の一 四分の一 五分の一 こういうのも得意です
06:16
One in a million百万, one in a billion --
149
361000
2000
百万分の一 十億分の一
06:18
they're bothどちらも almostほぼ never.
150
363000
3000
どちらも「ほぼありえない」です
06:21
So we have troubleトラブル with the risksリスク
151
366000
2000
このように 私たちは
06:23
that aren'tない very common一般.
152
368000
2000
珍しいリスクというものが苦手です
06:25
And what these cognitive認知 biasesバイアス do
153
370000
2000
そしてこの認知バイアスは
06:27
is they act行為 as filtersフィルター betweenの間に us and reality現実.
154
372000
3000
私たちと実態の間のフィルターとして働きます
06:30
And the result結果
155
375000
2000
その結果
06:32
is that feeling感じ and reality現実 get out of whack打撃,
156
377000
2000
感覚と実態が狂います
06:34
they get different異なる.
157
379000
3000
異なるものとなるのです
06:37
Now you eitherどちらか have a feeling感じ -- you feel more secure安全な than you are.
158
382000
3000
皆さんは実際より安全だと感じることがあります
06:40
There's a false senseセンス of securityセキュリティ.
159
385000
2000
偽りの感覚です
06:42
Or the other way,
160
387000
2000
あるいは
06:44
and that's a false senseセンス of insecurity不安.
161
389000
2000
偽りの不安感もあります
06:46
I write書きます a lot about "securityセキュリティ theater劇場,"
162
391000
3000
私は「セキュリティシアター」
06:49
whichどの are products製品 that make people feel secure安全な,
163
394000
3000
つまり人々に安心感を与えつつも
06:52
but don't actually実際に do anything.
164
397000
2000
実効を持たないものについて沢山書いています
06:54
There's no realリアル wordワード for stuffもの that makes作る us secure安全な,
165
399000
2000
私たちに安全を提供しつつも
06:56
but doesn't make us feel secure安全な.
166
401000
2000
安心にはさせないというものを示す言葉はありません
06:58
Maybe it's what the CIA'sCIAの supposed想定される to do for us.
167
403000
3000
CIA に是非やってもらいたいことです
07:03
So back to economics経済.
168
408000
2000
では経済の話に戻りましょう
07:05
If economics経済, if the market市場, drivesドライブ securityセキュリティ,
169
410000
4000
もし経済が 市場が 安全を促進するならば
07:09
and if people make trade-offsトレードオフ
170
414000
2000
そして人々が安心感に基づいて
07:11
basedベース on the feeling感じ of securityセキュリティ,
171
416000
3000
トレードオフをするならば
07:14
then the smartスマート thing for companies企業 to do
172
419000
2000
経済刺激のために
07:16
for the economic経済的 incentivesインセンティブ
173
421000
2000
会社が取れる良策は
07:18
are to make people feel secure安全な.
174
423000
3000
人々に安心感を与えることです
07:21
And there are two ways方法 to do this.
175
426000
3000
それには二つ方法があります
07:24
One, you can make people actually実際に secure安全な
176
429000
2000
実際に安全を提供し
07:26
and hope希望 they notice通知.
177
431000
2000
人々が気付くのに期待するか
07:28
Or two, you can make people just feel secure安全な
178
433000
3000
もしくは安心感を提供して
07:31
and hope希望 they don't notice通知.
179
436000
3000
実態に気付かないことを期待するか です
07:35
So what makes作る people notice通知?
180
440000
3000
では気付くには何が必要でしょう
07:38
Well a coupleカップル of things:
181
443000
2000
いくつかあります
07:40
understanding理解 of the securityセキュリティ,
182
445000
2000
理解です
07:42
of the risksリスク, the threats脅威,
183
447000
2000
安全 リスク 脅威 対抗策
07:44
the countermeasures対策, how they work.
184
449000
3000
それらを理解し そして仕組みを知ることです
07:47
But if you know stuffもの,
185
452000
2000
もし知っていれば
07:49
you're more likelyおそらく to have your feelings感情 match一致 reality現実.
186
454000
3000
感覚と実態は一致しているでしょう
07:52
Enough十分な realリアル world世界 examples helps助けて.
187
457000
3000
沢山の実例の知識も助けになるでしょう
07:55
Now we all know the crime犯罪 rateレート in our neighborhoodご近所,
188
460000
3000
私たちは皆 近隣の犯罪率を知っています
07:58
because we liveライブ there, and we get a feeling感じ about it
189
463000
3000
なぜならそこに住んでいるからであり
08:01
that basically基本的に matchesマッチ reality現実.
190
466000
3000
基本的に実態と感覚は一致しています
08:04
Securityセキュリティ theater's劇場 exposed露出した
191
469000
3000
セキュリティシアターに気付くのは
08:07
when it's obvious明らか that it's not workingワーキング properly正しく.
192
472000
3000
それらがうまく噛み合っていないときです
08:10
Okay, so what makes作る people not notice通知?
193
475000
4000
では実態に気付けない理由は何でしょう
08:14
Well, a poor貧しい understanding理解.
194
479000
2000
理解不足です
08:16
If you don't understandわかる the risksリスク, you don't understandわかる the costsコスト,
195
481000
3000
リスクやコストを理解していなければ
08:19
you're likelyおそらく to get the trade-offトレード・オフ wrong違う,
196
484000
2000
トレードオフの判断を誤るでしょう
08:21
and your feeling感じ doesn't match一致 reality現実.
197
486000
3000
感覚も実態とは ずれます
08:24
Not enough十分な examples.
198
489000
2000
経験不足です
08:26
There's an inherent固有の problem問題
199
491000
2000
そこには発生率の低さという
08:28
with low低い probability確率 eventsイベント.
200
493000
2000
固有の問題があります
08:30
If, for example,
201
495000
2000
もし仮に
08:32
terrorismテロ almostほぼ never happens起こる,
202
497000
2000
テロがほとんど起きなければ
08:34
it's really hardハード to judge裁判官
203
499000
2000
テロ対策の有効性を
08:36
the efficacy効能 of counter-terrorist反テロリスト measures措置.
204
501000
3000
判断するのはとても困難でしょう
08:40
This is why you keep sacrificing犠牲にする virgins処女,
205
505000
3000
これが儀式でいけにえを捧げる習慣が続いたり
08:43
and why your unicornユニコーン defenses防御 are workingワーキング just great.
206
508000
3000
突拍子もない責任転嫁がまかり通る理由です
08:46
There aren'tない enough十分な examples of failures失敗.
207
511000
3000
失敗例が足りないのです
08:50
Alsoまた、, feelings感情 that are clouding曇っている the issues問題 --
208
515000
3000
また感情も問題を曇らせます
08:53
the cognitive認知 biasesバイアス I talked話した about earlier先に,
209
518000
2000
先ほど触れた認知バイアス
08:55
fears恐怖, folkフォーク beliefs信念,
210
520000
3000
恐怖 迷信 等は
08:58
basically基本的に an inadequate不十分な modelモデル of reality現実.
211
523000
3000
基本的に不適切な現実のモデルなのです
09:02
So let me complicate複雑にする things.
212
527000
3000
ここを更に複雑化します
09:05
I have feeling感じ and reality現実.
213
530000
2000
感覚と実態があります
09:07
I want to add追加する a third三番 element素子. I want to add追加する modelモデル.
214
532000
3000
ここに第三の要素「モデル」を加えたいと思います
09:10
Feeling感じ and modelモデル in our head,
215
535000
2000
頭の中には感覚とモデルがあり
09:12
reality現実 is the outside外側 world世界.
216
537000
2000
外界に実態があります
09:14
It doesn't change変化する; it's realリアル.
217
539000
3000
実態は変わりません 現実です
09:17
So feeling感じ is basedベース on our intuition直感.
218
542000
2000
感覚は私たちの直感に基づいています
09:19
Modelモデル is basedベース on reason理由.
219
544000
2000
モデルは理性に基づいています
09:21
That's basically基本的に the difference.
220
546000
3000
これが基本的な違いです
09:24
In a primitiveプリミティブ and simple単純 world世界,
221
549000
2000
原始的で単純な世界においては
09:26
there's really no reason理由 for a modelモデル
222
551000
3000
モデルを持つ理由など全くありません
09:29
because feeling感じ is close閉じる to reality現実.
223
554000
3000
感覚が現実ととても近いからです
09:32
You don't need a modelモデル.
224
557000
2000
モデルは必要ないのです
09:34
But in a modernモダン and complex複合体 world世界,
225
559000
2000
しかし現代の複雑な世界においては
09:36
you need modelsモデル
226
561000
2000
私たちが直面する
09:38
to understandわかる a lot of the risksリスク we face.
227
563000
3000
数々のリスクを理解するためにモデルが必要です
09:42
There's no feeling感じ about germs病原菌.
228
567000
2000
ばい菌についての感覚などありません
09:44
You need a modelモデル to understandわかる them.
229
569000
3000
理解するためにはモデルがいるのです
09:47
So this modelモデル
230
572000
2000
つまりモデルとは現実を知的に理解し
09:49
is an intelligentインテリジェントな representation表現 of reality現実.
231
574000
3000
違う形で表現した物です
09:52
It's, of courseコース, limited限られた by science科学,
232
577000
3000
モデルには当然科学 そしてテクノロジーによる
09:55
by technology技術.
233
580000
2000
限界があります
09:57
We couldn'tできなかった have a germ胚芽 theory理論 of disease疾患
234
582000
3000
ばい菌を観察できる顕微鏡を開発する以前には
10:00
before we invented発明された the microscope顕微鏡 to see them.
235
585000
3000
病気の細菌説などありえません
10:04
It's limited限られた by our cognitive認知 biasesバイアス.
236
589000
3000
認知バイアスによる限界もあります
10:07
But it has the ability能力
237
592000
2000
ただこれには
10:09
to overrideオーバーライド our feelings感情.
238
594000
2000
感覚を覆す力があります
10:11
Where do we get these modelsモデル? We get them from othersその他.
239
596000
3000
モデルはどこから得るのでしょう?他から得るのです
10:14
We get them from religion宗教, from culture文化,
240
599000
3000
宗教や文化
10:17
teachers教師, elders長老たち.
241
602000
2000
教師や長老から得ます
10:19
A coupleカップル years ago,
242
604000
2000
数年前 私は
10:21
I was in South Africaアフリカ on safariサファリ.
243
606000
2000
狩猟旅行で南アフリカに行っていました
10:23
The trackerトラッカー I was with grew成長しました up in Krugerクルーガー Nationalナショナル Parkパーク.
244
608000
3000
同行したトラッカーはクルーガー国立公園で育ちました
10:26
He had some very complex複合体 modelsモデル of how to survive生き残ります.
245
611000
3000
彼はサバイバルに関していくつか複雑なモデルを持っていました
10:29
And it depended依存した on if you were attacked攻撃された
246
614000
2000
それは何が襲ってきたのかによります
10:31
by a lionライオン or a leopardヒョウ or a rhinoライノ or an elephant --
247
616000
2000
ライオン、ヒョウ、サイ、ゾウ
10:33
and when you had to run走る away, and when you couldn'tできなかった run走る away, and when you had to climb登る a tree --
248
618000
3000
また逃げなければならない場合 木に登らなければならない場合
10:36
when you could never climb登る a tree.
249
621000
2000
木に登れない場合もあります
10:38
I would have died死亡しました in a day,
250
623000
3000
私は一日と生きられないでしょうが
10:41
but he was bornうまれた there,
251
626000
2000
彼はそこで生まれ
10:43
and he understood理解された how to survive生き残ります.
252
628000
2000
生存方法を理解していました
10:45
I was bornうまれた in New新しい Yorkヨーク Cityシティ.
253
630000
2000
私はニューヨーク生まれです
10:47
I could have taken撮影 him to New新しい Yorkヨーク, and he would have died死亡しました in a day.
254
632000
3000
ニューヨークに連れてきたら 彼は一日と持たないかもしれません
10:50
(Laughter笑い)
255
635000
2000
(笑)
10:52
Because we had different異なる modelsモデル
256
637000
2000
というのも私たちはそれぞれの経験に基づいて
10:54
basedベース on our different異なる experiences経験.
257
639000
3000
別々のモデルを持っているからです
10:58
Modelsモデル can come from the mediaメディア,
258
643000
2000
モデルはメディアや
11:00
from our elected選出された officials関係者.
259
645000
3000
役人から得られることもあります
11:03
Think of modelsモデル of terrorismテロ,
260
648000
3000
テロのモデルや
11:06
child kidnapping誘拐,
261
651000
3000
子供の誘拐 航空安全
11:09
airline航空会社 safety安全性, car safety安全性.
262
654000
2000
交通安全などのモデルを考えてみてください
11:11
Modelsモデル can come from industry業界.
263
656000
3000
モデルは産業から出現することもあります
11:14
The two I'm following以下 are surveillance監視 camerasカメラ,
264
659000
2000
私が興味を持っているのは監視カメラと
11:16
IDID cardsカード,
265
661000
2000
ID カードの二つで
11:18
quiteかなり a lot of our computerコンピューター securityセキュリティ modelsモデル come from there.
266
663000
3000
コンピュータセキュリティのモデルがこれらから沢山生まれています
11:21
A lot of modelsモデル come from science科学.
267
666000
3000
科学からも沢山のモデルが来ています
11:24
Health健康 modelsモデル are a great example.
268
669000
2000
健康モデルは素晴らしい例です
11:26
Think of cancer, of bird fluインフルエンザ, swine fluインフルエンザ, SARSSARS.
269
671000
3000
ガン、鳥インフルエンザ、豚インフルエンザ、SARS を考えてください
11:29
All of our feelings感情 of securityセキュリティ
270
674000
3000
こういった病気に関する
11:32
about those diseases病気
271
677000
2000
安全の感覚は全て
11:34
come from modelsモデル
272
679000
2000
モデルから来ています
11:36
given与えられた to us, really, by science科学 filteredフィルタリングした throughを通して the mediaメディア.
273
681000
3000
メディアのフィルターを通した科学からもたらされています
11:40
So modelsモデル can change変化する.
274
685000
3000
モデルは変化し得ます
11:43
Modelsモデル are not static静的.
275
688000
2000
不変のものではありません
11:45
As we become〜になる more comfortable快適 in our environments環境,
276
690000
3000
私たちが環境に馴染むにつれ
11:48
our modelモデル can move動く closerクローザー to our feelings感情.
277
693000
4000
モデルは私たちの感覚に近づいていきます
11:53
So an example mightかもしれない be,
278
698000
2000
例としては
11:55
if you go back 100 years ago
279
700000
2000
100 年前に戻ってみましょう
11:57
when electricity電気 was first becoming〜になる common一般,
280
702000
3000
電気が出現したばかりの頃で
12:00
there were a lot of fears恐怖 about it.
281
705000
2000
沢山の懸念が持たれていました
12:02
I mean, there were people who were afraid恐れ to push押す doorbellsドアベル,
282
707000
2000
呼び鈴を鳴らすのを怖がっていた人がいました
12:04
because there was electricity電気 in there, and that was dangerous危険な.
283
709000
3000
当時 危険だった電気が使われていたためにです
12:07
For us, we're very facile容易な around electricity電気.
284
712000
3000
私たちは電気製品はお手の物です
12:10
We change変化する light bulbs球根
285
715000
2000
電球の付け替えも
12:12
withoutなし even thinking考え about it.
286
717000
2000
さして考えることもなくできます
12:14
Our modelモデル of securityセキュリティ around electricity電気
287
719000
4000
電気にまつわる安全のモデルは
12:18
is something we were bornうまれた into.
288
723000
3000
私たちにとっては常識です
12:21
It hasn't持っていない changedかわった as we were growing成長する up.
289
726000
3000
生まれたときから特に変化もしていません
12:24
And we're good at it.
290
729000
3000
使い方は完全にマスターしています
12:27
Or think of the risksリスク
291
732000
2000
世代毎の
12:29
on the Internetインターネット across横断する generations世代 --
292
734000
2000
インターネットにまつわるリスクを考えてみましょう
12:31
how your parents approachアプローチ Internetインターネット securityセキュリティ,
293
736000
2000
ご両親のインターネットの安全に対する姿勢と
12:33
versus how you do,
294
738000
2000
皆さんの姿勢
12:35
versus how our kids子供たち will.
295
740000
3000
そして皆さんの子供はどうなるでしょう
12:38
Modelsモデル eventually最終的に fadeフェード into the backgroundバックグラウンド.
296
743000
3000
モデルは最終的に背景へと馴染んでいきます
12:42
Intuitive直感的な is just another別の wordワード for familiar身近な.
297
747000
3000
直感は「慣れ」の言い換えに過ぎません
12:45
So as your modelモデル is close閉じる to reality現実,
298
750000
2000
つまりモデルが現実に近づくほど
12:47
and it converges収束する with feelings感情,
299
752000
2000
そして感覚と一体になるほど
12:49
you oftenしばしば don't know it's there.
300
754000
3000
モデルの存在に気付かなくなります
12:52
So a niceいい example of this
301
757000
2000
この良い例は
12:54
came来た from last year and swine fluインフルエンザ.
302
759000
3000
昨年の豚インフルエンザでしょう
12:57
When swine fluインフルエンザ first appeared出現した,
303
762000
2000
豚インフルエンザが最初現れたとき
12:59
the initial初期 newsニュース caused原因 a lot of overreaction過反応.
304
764000
4000
初期情報は沢山の過剰反応を引き起こしました
13:03
Now it had a name,
305
768000
2000
名前が付いていたために
13:05
whichどの made it scarier恐ろしい than the regular定期的 fluインフルエンザ,
306
770000
2000
普通のインフルエンザより致死率が
13:07
even thoughしかし it was more deadly致命的.
307
772000
2000
低いにも関わらず恐ろしげです
13:09
And people thought doctors医師 should be ableできる to deal対処 with it.
308
774000
4000
人々は医者に何とかしてもらいたいと考えていました
13:13
So there was that feeling感じ of lack欠如 of controlコントロール.
309
778000
2000
自分ではコントロールできない感覚があったわけです
13:15
And those two things
310
780000
2000
名前と制御不能感が
13:17
made the riskリスク more than it was.
311
782000
2000
リスクを実際以上のものに見せました
13:19
As the novelty新規性 wore着て off, the months数ヶ月 went行った by,
312
784000
3000
新奇性が薄れ 月日が経ち
13:22
there was some amount of tolerance耐性,
313
787000
2000
ある程度 危機感も薄れ
13:24
people got used to it.
314
789000
2000
人々は慣れました
13:26
There was no new新しい dataデータ, but there was lessもっと少なく fear恐れ.
315
791000
3000
新しいデータはなくとも恐れは薄れたのです
13:29
By autumn,
316
794000
2000
秋になると
13:31
people thought
317
796000
2000
人々は
13:33
the doctors医師 should have solved解決した this already既に.
318
798000
2000
医者は既に解決していても良いはずだ と考えるようになりました
13:35
And there's kind種類 of a bifurcation分岐 --
319
800000
2000
ある種の分岐がありました
13:37
people had to choose選択する
320
802000
2000
人々は
13:39
betweenの間に fear恐れ and acceptance受け入れ --
321
804000
4000
恐怖か受容か--
13:43
actually実際に fear恐れ and indifference無関心 --
322
808000
2000
実際には、恐怖か無関心かでしょうか--を選ぶところで
13:45
they kind種類 of chose選択した suspicion疑い.
323
810000
3000
リスク自体を疑い始めたようなのです
13:48
And when the vaccineワクチン appeared出現した last winter,
324
813000
3000
冬にワクチンが出てきたときには
13:51
there were a lot of people -- a surprising驚くべき number --
325
816000
3000
驚くほど沢山の人が
13:54
who refused拒否された to get it --
326
819000
3000
ワクチンを受けることを拒否したのです
13:58
as a niceいい example
327
823000
2000
以上は
14:00
of how people's人々の feelings感情 of securityセキュリティ change変化する, how their彼らの modelモデル changes変更,
328
825000
3000
人々の安全の感覚やモデルが
14:03
sortソート of wildly激しく
329
828000
2000
奔放に
14:05
with no new新しい information情報,
330
830000
2000
新しい情報もなしに
14:07
with no new新しい input入力.
331
832000
2000
変化することの良い例です
14:09
This kind種類 of thing happens起こる a lot.
332
834000
3000
こういったことはしばしば起こります
14:12
I'm going to give one more complication合併症.
333
837000
3000
更にもう一つ問題を挙げます
14:15
We have feeling感じ, modelモデル, reality現実.
334
840000
3000
感覚 モデル 実態とあります
14:18
I have a very relativistic相対論的 view見る of securityセキュリティ.
335
843000
2000
私は安全とは非常に相対的なものだと考えています
14:20
I think it depends依存する on the observer観察者.
336
845000
3000
これは観察者次第だと思います
14:23
And most最も securityセキュリティ decisions決定
337
848000
2000
またほとんどの安全に関する判断には
14:25
have a variety品種 of people involved関係する.
338
850000
4000
多様な人々が関与しています
14:29
And stakeholdersステークホルダー
339
854000
2000
特定のトレードオフで
14:31
with specific特定 trade-offsトレードオフ
340
856000
3000
利害を得る人達は
14:34
will try to influence影響 the decision決定.
341
859000
2000
判断に関与しようとします
14:36
And I call that their彼らの agenda議題.
342
861000
2000
それが彼らのアジェンダ(課題)だと私は呼んでいます
14:38
And you see agenda議題 --
343
863000
2000
アジェンダ、つまりこれが
14:40
this is marketingマーケティング, this is politics政治 --
344
865000
3000
マーケッティングだとか政治なのですが
14:43
trying試す to convince説得する you to have one modelモデル versus another別の,
345
868000
3000
都合の良いモデルを選ばせたり
14:46
trying試す to convince説得する you to ignore無視する a modelモデル
346
871000
2000
モデルを無視して
14:48
and trust信頼 your feelings感情,
347
873000
3000
感覚で行動するようにしむけて
14:51
marginalizing辺境化する people with modelsモデル you don't like.
348
876000
3000
好みのモデルを持っていない人を排除しようとしているのです
14:54
This is not uncommon珍しい.
349
879000
3000
これは珍しいことではありません
14:57
An example, a great example, is the riskリスク of smoking喫煙.
350
882000
3000
その良い例は喫煙のリスクです
15:01
In the history歴史 of the past過去 50 years, the smoking喫煙 riskリスク
351
886000
3000
過去 50 年の歴史で 喫煙のリスクは
15:04
showsショー how a modelモデル changes変更,
352
889000
2000
モデルがどのように変化していくかを示しています
15:06
and it alsoまた、 showsショー how an industry業界 fights戦う againstに対して
353
891000
3000
また産業が望まないモデルに対して
15:09
a modelモデル it doesn't like.
354
894000
2000
どう戦っているかも分かります
15:11
Compare比較 that to the secondhand中古 smoke debateディベート --
355
896000
3000
それを間接喫煙の議論と比較してください
15:14
probably多分 about 20 years behind後ろに.
356
899000
3000
約 20 年遅れて出てきたものです
15:17
Think about seatシート beltsベルト.
357
902000
2000
シートベルトはどうでしょう
15:19
When I was a kidキッド, no one wore着て a seatシート beltベルト.
358
904000
2000
私が子供の頃 誰もシートベルトを締めていませんでした
15:21
Nowadays今日, no kidキッド will let you driveドライブ
359
906000
2000
今ではシートベルトを締めないと
15:23
if you're not wearing着る a seatシート beltベルト.
360
908000
2000
誰も運転させてくれません
15:26
Compare比較 that to the airbagエアバッグ debateディベート --
361
911000
2000
エアーバッグはどうでしょう
15:28
probably多分 about 30 years behind後ろに.
362
913000
3000
約 30 年遅れて出てきた議論です
15:31
All examples of modelsモデル changing変化.
363
916000
3000
全てモデルの変化の例です
15:36
What we learn学ぶ is that changing変化 modelsモデル is hardハード.
364
921000
3000
そこから分かるのは モデルを変えるのは困難だということです
15:39
Modelsモデル are hardハード to dislodge取り除く.
365
924000
2000
安定しているモデルを変えるのは難しいのです
15:41
If they equal等しい your feelings感情,
366
926000
2000
モデルと感覚が等しいならば
15:43
you don't even know you have a modelモデル.
367
928000
3000
モデルを持っているということすら分かりません
15:46
And there's another別の cognitive認知 biasバイアス
368
931000
2000
また別の認知バイアスがあります
15:48
I'll call confirmation確認 biasバイアス,
369
933000
2000
確証バイアスというもので
15:50
where we tend傾向がある to accept受け入れる dataデータ
370
935000
3000
私たちは自身の信念に沿う
15:53
that confirms確認する our beliefs信念
371
938000
2000
データを受け入れる傾向にあり
15:55
and reject拒絶する dataデータ that contradicts矛盾する our beliefs信念.
372
940000
3000
そぐわない情報ははねのける傾向にあるというものです
15:59
So evidence証拠 againstに対して our modelモデル,
373
944000
2000
モデルに反する証拠は
16:01
we're likelyおそらく to ignore無視する, even if it's compelling説得力のある.
374
946000
3000
そうだろうと思っても無視しがちです
16:04
It has to get very compelling説得力のある before we'll私たちは pay支払う attention注意.
375
949000
3000
注意を引くには よほど強い説得力を持つものでなければなりません
16:08
New新しい modelsモデル that extend拡張する long periods期間 of time are hardハード.
376
953000
2000
長期間をカバーする新しいモデルは難しいものです
16:10
Globalグローバル warming温暖化 is a great example.
377
955000
2000
地球温暖化がよい例です
16:12
We're terribleひどい
378
957000
2000
私たちは 80 年という
16:14
at modelsモデル that spanスパン 80 years.
379
959000
2000
長いスパンを持つモデルには向いていません
16:16
We can do to the next harvest収穫.
380
961000
2000
次の収穫まではいけます
16:18
We can oftenしばしば do until〜まで our kids子供たち grow成長する up.
381
963000
3000
自分の子供が成長するまでも大丈夫でしょう
16:21
But 80 years, we're just not good at.
382
966000
3000
しかし 80 年ともなると上手くやれません
16:24
So it's a very hardハード modelモデル to accept受け入れる.
383
969000
3000
従って地球温暖化のモデルは受け入れがとても難しいのです
16:27
We can have bothどちらも modelsモデル in our head simultaneously同時に,
384
972000
4000
私たちは頭の中で二つのモデルを同時に持つことが出来ます
16:31
right, that kind種類 of problem問題
385
976000
3000
二つの概念をどちらも信じている
16:34
where we're holdingホールディング bothどちらも beliefs信念 together一緒に,
386
979000
3000
そういう場合の問題で
16:37
right, the cognitive認知 dissonance不協和音.
387
982000
2000
認知的不協和があるときです
16:39
Eventually最終的に,
388
984000
2000
最終的には
16:41
the new新しい modelモデル will replace置き換える the old古い modelモデル.
389
986000
3000
新しいモデルが古いモデルに取って代わります
16:44
Strong強い feelings感情 can create作成する a modelモデル.
390
989000
3000
強い感情がモデルを作ることがあります
16:47
September9月 11thth created作成した a securityセキュリティ modelモデル
391
992000
3000
9.11 は大勢の人の頭の中に
16:50
in a lot of people's人々の heads.
392
995000
2000
安全モデルを作りました
16:52
Alsoまた、, personal個人的 experiences経験 with crime犯罪 can do it,
393
997000
3000
また犯罪にあった個人的な経験や
16:55
personal個人的 health健康 scare恐怖,
394
1000000
2000
健康を害した経験
16:57
a health健康 scare恐怖 in the newsニュース.
395
1002000
2000
ニュースで知った健康被害などもモデルを作るでしょう
16:59
You'llあなたは see these calledと呼ばれる flashbulbフラッシュ電球 eventsイベント
396
1004000
2000
以上は精神科医によると
17:01
by psychiatrists精神科医.
397
1006000
2000
フラッシュバルブ記憶と呼ばれるものです
17:03
They can create作成する a modelモデル instantaneously瞬時に,
398
1008000
3000
モデルを一瞬で作り上げます
17:06
because they're very emotive感情的.
399
1011000
3000
非常に感情価が高いためです
17:09
So in the technological技術的 world世界,
400
1014000
2000
科学技術の話となると
17:11
we don't have experience経験
401
1016000
2000
モデルを評価するための経験を
17:13
to judge裁判官 modelsモデル.
402
1018000
2000
私たちは持っていません
17:15
And we rely頼りにする on othersその他. We rely頼りにする on proxies代理.
403
1020000
2000
判断を他者に 代理に委ねています
17:17
I mean, this works作品 as long as it's to correct正しい othersその他.
404
1022000
4000
これは信頼性のある他者に委ねる場合に限り有効です
17:21
We rely頼りにする on government政府 agencies代理店
405
1026000
2000
私たちは治療薬の安全性の判断を
17:23
to tell us what pharmaceuticals医薬品 are safe安全.
406
1028000
5000
政府機関に委ねています
17:28
I flew飛んだ here yesterday昨日.
407
1033000
2000
私は昨日飛行機でここまで来たのですが
17:30
I didn't checkチェック the airplane飛行機.
408
1035000
2000
飛行機を調べませんでした
17:32
I relied信頼した on some other groupグループ
409
1037000
2000
自分が乗る飛行機の安全性の判断を
17:34
to determine決定する whetherかどうか my plane飛行機 was safe安全 to fly飛ぶ.
410
1039000
3000
他の組織に委ねたのです
17:37
We're here, noneなし of us fear恐れ the roofルーフ is going to collapse崩壊 on us,
411
1042000
3000
この場にいる私たちは天井が落ちてくる心配なんてしていません
17:40
not because we checkedチェックした,
412
1045000
3000
調べたからではなく
17:43
but because we're prettyかなり sure
413
1048000
2000
ここの建築規定は良いと
17:45
the building建物 codesコード here are good.
414
1050000
3000
私たちは確信しているからです
17:48
It's a modelモデル we just accept受け入れる
415
1053000
2000
これは疑問も持たずに信じて
17:50
prettyかなり much by faith信仰.
416
1055000
2000
受け入れているモデルです
17:52
And that's okay.
417
1057000
3000
それでいいのです
17:57
Now, what we want
418
1062000
2000
ここで私たちが望むのは
17:59
is people to get familiar身近な enough十分な
419
1064000
2000
人々に より良いモデルに
18:01
with better modelsモデル --
420
1066000
2000
精通してもらい
18:03
have it reflected反射した in their彼らの feelings感情 --
421
1068000
2000
そしてそれを感覚に反映して
18:05
to allow許す them to make securityセキュリティ trade-offsトレードオフ.
422
1070000
4000
安全に関するトレードオフ判断ができるようになることです
18:09
Now when these go out of whack打撃,
423
1074000
2000
これがうまくいかないときは
18:11
you have two optionsオプション.
424
1076000
2000
二つ 選択肢があります
18:13
One, you can fix修正する people's人々の feelings感情,
425
1078000
2000
一つは直接感情に訴えて
18:15
directly直接 appealアピール to feelings感情.
426
1080000
2000
感覚を直すことです
18:17
It's manipulation操作, but it can work.
427
1082000
3000
人を操るわけですが上手くいくときもあります
18:20
The second二番, more honest正直な way
428
1085000
2000
より誠実な方法は
18:22
is to actually実際に fix修正する the modelモデル.
429
1087000
3000
実際にモデルを修正することです
18:26
Change変化する happens起こる slowlyゆっくり.
430
1091000
2000
変化はゆっくり訪れます
18:28
The smoking喫煙 debateディベート took取った 40 years,
431
1093000
3000
喫煙論争は 40 年掛かりました
18:31
and that was an easy簡単 one.
432
1096000
3000
これは簡単だった方です
18:34
Some of this stuffもの is hardハード.
433
1099000
2000
こういったことは難しいのです
18:36
I mean really thoughしかし,
434
1101000
2000
なんと言っても
18:38
information情報 seems思われる like our bestベスト hope希望.
435
1103000
2000
情報こそが私たちの最高の希望に思えます
18:40
And I lied嘘をついた.
436
1105000
2000
先ほど嘘をつきました
18:42
Remember忘れない I said feeling感じ, modelモデル, reality現実;
437
1107000
2000
感覚 モデル 実態について触れたことを覚えていますか?
18:44
I said reality現実 doesn't change変化する. It actually実際に does.
438
1109000
3000
現実は変わらないと言いましたが 変わります
18:47
We liveライブ in a technological技術的 world世界;
439
1112000
2000
私たちは科学技術の世界に生きています
18:49
reality現実 changes変更 all the time.
440
1114000
3000
現実は常に移り変わっています
18:52
So we mightかもしれない have -- for the first time in our species --
441
1117000
3000
ヒトという種の歴史上で初めてこのような環境になったかもしれません
18:55
feeling感じ chases追跡 modelモデル, modelモデル chases追跡 reality現実, reality's現実の moving動く --
442
1120000
3000
感覚がモデルを モデルが実態を追い 実態は変わり続け
18:58
they mightかもしれない never catchキャッチ up.
443
1123000
3000
いずれも追いつくことは恐らくありません
19:02
We don't know.
444
1127000
2000
先のことは分かりませんが
19:04
But in the long-term長期,
445
1129000
2000
しかし長期的には
19:06
bothどちらも feeling感じ and reality現実 are important重要.
446
1131000
3000
感覚と実態は共に重要なものです
19:09
And I want to close閉じる with two quickクイック stories物語 to illustrate説明する this.
447
1134000
3000
それを示す小話を二つ紹介して終わりにしたいと思います
19:12
1982 -- I don't know if people will remember思い出す this --
448
1137000
2000
1982 年 皆さんが覚えているか分かりませんが
19:14
there was a shortショート epidemic流行
449
1139000
3000
アメリカで短期間
19:17
of Tylenolタイレノール poisonings中毒 in the Unitedユナイテッド States.
450
1142000
2000
タイレノール中毒が流行りました
19:19
It's a horrific恐ろしい storyストーリー. Someone誰か took取った a bottleボトル of Tylenolタイレノール,
451
1144000
3000
恐ろしい事件です 誰かがタイレノールのボトルに
19:22
put poison in it, closed閉まっている it up, put it back on the shelf.
452
1147000
3000
毒を混入し フタを閉めて棚に戻しました
19:25
Someone誰か elseelse bought買った it and died死亡しました.
453
1150000
2000
それを誰かが購入し 死亡しました
19:27
This terrified恐ろしい people.
454
1152000
2000
この事件は人々に恐怖を与えました
19:29
There were a coupleカップル of copycatコピーキャット attacks攻撃.
455
1154000
2000
いくつかの模倣犯が現れました
19:31
There wasn'tなかった any realリアル riskリスク, but people were scared怖い.
456
1156000
3000
実際の危険は無かったものの人々は恐れました
19:34
And this is how
457
1159000
2000
こういった経緯で
19:36
the tamper-proof耐タンパー性 drugドラッグ industry業界 was invented発明された.
458
1161000
2000
タンパー防止の製薬産業ができたのです
19:38
Those tamper-proof耐タンパー性 capsキャップ, that came来た from this.
459
1163000
2000
あのタンパー防止キャップはここから来ているのです
19:40
It's completeコンプリート securityセキュリティ theater劇場.
460
1165000
2000
完全にセキュリティシアターです
19:42
As a homework宿題 assignment割り当て, think of 10 ways方法 to get around it.
461
1167000
2000
宿題として回避策を十通り考えてください
19:44
I'll give you one, a syringeシリンジ.
462
1169000
3000
一つはお教えしましょう 注射器です
19:47
But it made people feel better.
463
1172000
3000
しかし人々に安心感を与えました
19:50
It made their彼らの feeling感じ of securityセキュリティ
464
1175000
2000
人々の安全感覚を
19:52
more match一致 the reality現実.
465
1177000
2000
より現実に近づけたのです
19:54
Last storyストーリー, a few少数 years ago, a friend友人 of mine鉱山 gave与えた birth誕生.
466
1179000
3000
最後です 数年前友人が子供を産みました
19:57
I visit訪問 her in the hospital病院.
467
1182000
2000
私は病院の彼女を訪ねました
19:59
It turnsターン out when a baby's赤ちゃんの bornうまれた now,
468
1184000
2000
今日では新生児に
20:01
they put an RFIDRFID braceletブレスレット on the baby赤ちゃん,
469
1186000
2000
RFID の腕輪を着け
20:03
put a corresponding対応する one on the mother,
470
1188000
2000
それに対応した腕輪を母親に着けるようです
20:05
so if anyone誰でも other than the mother takes the baby赤ちゃん out of the maternityマタニティ ward,
471
1190000
2000
こうすると 母親以外が赤ん坊を産科病棟から連れ出そうとしたときに
20:07
an alarm警報 goes行く off.
472
1192000
2000
アラームが鳴ります
20:09
I said, "Well, that's kind種類 of neatきちんとした.
473
1194000
2000
「なんだか凄いですね
20:11
I wonderワンダー how rampant猛烈な baby赤ちゃん snatching奪う is
474
1196000
2000
病院で新生児連れ去りは
20:13
out of hospitals病院."
475
1198000
2000
どれだけ発生しているんでしょう」
20:15
I go home, I look it up.
476
1200000
2000
帰宅して調べてみました
20:17
It basically基本的に never happens起こる.
477
1202000
2000
ほとんど発生していないようです
20:19
But if you think about it,
478
1204000
2000
しかし考えてみましょう
20:21
if you are a hospital病院,
479
1206000
2000
病院で
20:23
and you need to take a baby赤ちゃん away from its mother,
480
1208000
2000
何らかの検査のために母親の元から
20:25
out of the roomルーム to run走る some testsテスト,
481
1210000
2000
部屋の外へ連れ出す必要があるとします
20:27
you better have some good securityセキュリティ theater劇場,
482
1212000
2000
そのとき良いセキュリティシアターが無ければ
20:29
or she's going to ripRIP your arm off.
483
1214000
2000
母親はあなたの腕をもぐでしょう
20:31
(Laughter笑い)
484
1216000
2000
(笑)
20:33
So it's important重要 for us,
485
1218000
2000
従って私たち安全を考えるものにとって
20:35
those of us who design設計 securityセキュリティ,
486
1220000
2000
またセキュリティポリシーや
20:37
who look at securityセキュリティ policyポリシー,
487
1222000
3000
更には公序良俗を考えるものにとって
20:40
or even look at publicパブリック policyポリシー
488
1225000
2000
安全への影響という点で
20:42
in ways方法 that affect影響を与える securityセキュリティ.
489
1227000
2000
これは重要なのです
20:44
It's not just reality現実; it's feeling感じ and reality現実.
490
1229000
3000
実態だけではなく 感覚と実態を考えねばなりません
20:47
What's important重要
491
1232000
2000
重要なのは
20:49
is that they be about the same同じ.
492
1234000
2000
両者がほぼ同じであることです
20:51
It's important重要 that, if our feelings感情 match一致 reality現実,
493
1236000
2000
感覚が実態に則していれば 安全に関して
20:53
we make better securityセキュリティ trade-offsトレードオフ.
494
1238000
2000
より良いトレードオフ判断ができるということが重要なのです
20:55
Thank you.
495
1240000
2000
ありがとうございました
20:57
(Applause拍手)
496
1242000
2000
(拍手)
Translated by Keiichi Kudo
Reviewed by Akiko Hicks

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com