ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Брюс Шнайер: Иллюзия безопасности

Filmed:
958,315 views

По словам эксперта по компьютерной безопасности Брюса Шнайера, ощущение безопасности и безопасность не всегда совпадают. На конференции TEDxPSU он объясняет, почему мы тратим миллиарды, пытаясь решить надуманные проблемы, например «играми в безопасность», происходящими сейчас в аэропортах, одновременно игнорируя более вероятные риски, и как мы можем изменить ситуацию к лучшему.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securityбезопасность is two differentдругой things:
0
0
2000
Итак, безопасность —
это две разные вещи:
00:17
it's a feelingчувство, and it's a realityреальность.
1
2000
2000
ощущение и реальность.
00:19
And they're differentдругой.
2
4000
2000
И они разные.
00:21
You could feel secureбезопасный
3
6000
2000
Вы можете
чувствовать себя защищённым,
00:23
even if you're not.
4
8000
2000
даже если на самом деле это не так.
00:25
And you can be secureбезопасный
5
10000
2000
И вы можете быть вне опасности,
00:27
even if you don't feel it.
6
12000
2000
даже если чувствуете по-другому.
00:29
Really, we have two separateотдельный conceptsконцепции
7
14000
2000
На самом деле, два различных понятия
00:31
mappedсопоставляются ontoна the sameодна и та же wordслово.
8
16000
2000
соответствуют одному слову.
00:33
And what I want to do in this talk
9
18000
2000
В этой лекции я хочу
00:35
is to splitТрещина them apartКроме --
10
20000
2000
разделить их,
00:37
figuringвычисляя out when they divergeрасходиться
11
22000
2000
разобраться чем они отличаются
00:39
and how they convergeсходиться.
12
24000
2000
и чем они похожи.
00:41
And languageязык is actuallyна самом деле a problemпроблема here.
13
26000
2000
Начнём с проблемы терминологии.
00:43
There aren'tне a lot of good wordsслова
14
28000
2000
У нас очень мало подходящих слов,
00:45
for the conceptsконцепции we're going to talk about.
15
30000
3000
чтобы выразить понятия,
о которых сейчас пойдёт речь.
00:48
So if you look at securityбезопасность
16
33000
2000
Если посмотреть на безопасность
00:50
from economicэкономической termsсроки,
17
35000
2000
с точки зрения экономики —
00:52
it's a trade-offкомпромисс.
18
37000
2000
это компромисс.
00:54
Everyкаждый time you get some securityбезопасность,
19
39000
2000
Каждый раз,
добиваясь большей безопасности,
00:56
you're always tradingторговый off something.
20
41000
2000
мы чем-то за это платим.
00:58
WhetherБудь то this is a personalличный decisionрешение --
21
43000
2000
Будь то личное решение —
01:00
whetherбудь то you're going to installустанавливать a burglarвзломщик alarmаварийная сигнализация in your home --
22
45000
2000
— устанавливать ли сигнализацию в доме —
01:02
or a nationalнациональный decisionрешение -- where you're going to invadeвторгаться some foreignиностранные countryстрана --
23
47000
3000
или решение национального масштаба —
не завоевать ли какую-нибудь страну —
01:05
you're going to tradeсделка off something,
24
50000
2000
нам приходится чем-то поступиться,
01:07
eitherили moneyДеньги or time, convenienceудобство, capabilitiesвозможности,
25
52000
3000
будь то деньги или время,
удобство, возможности,
01:10
maybe fundamentalфундаментальный libertiesсвободы.
26
55000
3000
или даже фундаментальные права.
01:13
And the questionвопрос to askпросить when you look at a securityбезопасность anything
27
58000
3000
Вопрос, который стоит задать
при решении любых проблем безопасности
01:16
is not whetherбудь то this makesмарки us saferбезопаснее,
28
61000
3000
не «Насколько это эффективно против угрозы?»,
01:19
but whetherбудь то it's worthстоимость the trade-offкомпромисс.
29
64000
3000
а «Стоит ли оно того?»
01:22
You've heardуслышанным in the pastмимо severalнесколько yearsлет,
30
67000
2000
В последние годы много говорится о том,
01:24
the worldМир is saferбезопаснее because SaddamСаддам HusseinХусейн is not in powerмощность.
31
69000
2000
что мир стал безопаснее после
отстранения Саддама Хусейна от власти.
01:26
That mightмог бы be trueправда, but it's not terriblyужасно relevantСоответствующий.
32
71000
3000
Может это и правда, но это не так уж важно.
01:29
The questionвопрос is, was it worthстоимость it?
33
74000
3000
Вопрос в том, стоила ли овчинка выделки?
01:32
And you can make your ownсвоя decisionрешение,
34
77000
3000
Сначала можно решить что-то сделать,
01:35
and then you'llВы будете decideпринимать решение whetherбудь то the invasionвторжение was worthстоимость it.
35
80000
2000
а потом решить,
оправдало ли себя вторжение.
01:37
That's how you think about securityбезопасность --
36
82000
2000
Именно так нужно думать
в области безопасности —
01:39
in termsсроки of the trade-offкомпромисс.
37
84000
2000
в терминах компромисса.
01:41
Now there's oftenдовольно часто no right or wrongнеправильно here.
38
86000
3000
И речь часто не о том,
что правильно, а что нет.
01:44
Some of us have a burglarвзломщик alarmаварийная сигнализация systemсистема at home,
39
89000
2000
Кто-то устанавливает дома сигнализацию,
01:46
and some of us don't.
40
91000
2000
а кто-то — нет.
01:48
And it'llэто будет dependзависеть on where we liveжить,
41
93000
2000
Это зависит от места жительства,
01:50
whetherбудь то we liveжить aloneв одиночестве or have a familyсемья,
42
95000
2000
семейного положения,
01:52
how much coolкруто stuffматериал we have,
43
97000
2000
достатка,
01:54
how much we're willingготовы to acceptпринимать
44
99000
2000
и того, насколько мы готовы принять
01:56
the riskриск of theftкража.
45
101000
2000
риск кражи.
01:58
In politicsполитика alsoтакже,
46
103000
2000
Так же как и в политике,
02:00
there are differentдругой opinionsмнения.
47
105000
2000
есть много разных мнений.
02:02
A lot of timesраз, these trade-offsкомпромиссные
48
107000
2000
Часто компромиссы в области безопасности
02:04
are about more than just securityбезопасность,
49
109000
2000
затрагивают не только нашу защищённость,
02:06
and I think that's really importantважный.
50
111000
2000
и я считаю это очень важным.
02:08
Now people have a naturalнатуральный intuitionинтуиция
51
113000
2000
Мы интуитивно понимаем
02:10
about these trade-offsкомпромиссные.
52
115000
2000
эти компромиссы.
02:12
We make them everyкаждый day --
53
117000
2000
Мы делаем этот выбор ежедневно —
02:14
last night in my hotelГостиница roomкомната,
54
119000
2000
вчера вечером в гостинице,
02:16
when I decidedприняли решение to double-lockзапереть, повернув ключ в замке два раза the doorдверь,
55
121000
2000
когда я решил закрыть дверь на все замки,
02:18
or you in your carавтомобиль when you droveпоехали here,
56
123000
2000
или вы в своей машине на пути сюда,
02:20
when we go eatесть lunchобед
57
125000
2000
за обедом,
02:22
and decideпринимать решение the food'sпищевой not poisonяд and we'llЧто ж eatесть it.
58
127000
3000
когда мы решаем что еда
не отравлена и мы её съедим.
02:25
We make these trade-offsкомпромиссные again and again,
59
130000
2000
Мы делаем подобный выбор снова и снова,
02:27
multipleмножественный timesраз a day.
60
132000
2000
по многу раз в день.
02:29
We oftenдовольно часто won'tне будет even noticeуведомление them.
61
134000
2000
Часто мы этого даже не замечаем.
02:31
They're just partчасть of beingявляющийся aliveв живых; we all do it.
62
136000
2000
Это просто часть жизни,
часть жизни каждого из нас.
02:33
Everyкаждый speciesвид does it.
63
138000
3000
Каждой живое существо делает это.
02:36
ImagineПредставить a rabbitкролик in a fieldполе, eatingпринимать пищу grassтрава,
64
141000
2000
Возьмём, к примеру,
кролика в поле, грызущего траву,
02:38
and the rabbit'sкролика going to see a foxлиса.
65
143000
3000
и вдруг замечающего лису.
02:41
That rabbitкролик will make a securityбезопасность trade-offкомпромисс:
66
146000
2000
Перед кроликом встанет выбор:
02:43
"Should I stayоставаться, or should I fleeбежать?"
67
148000
2000
«Оставаться или бежать?»
02:45
And if you think about it,
68
150000
2000
И если подумать,
02:47
the rabbitsкролики that are good at makingизготовление that trade-offкомпромисс
69
152000
3000
то кролики, которые умеют
делать правильный выбор,
02:50
will tendиметь тенденцию to liveжить and reproduceвоспроизводить,
70
155000
2000
останутся в живых и дадут потомство,
02:52
and the rabbitsкролики that are badПлохо at it
71
157000
2000
а кролики, которые ошибаются,
02:54
will get eatenсъеденный or starveголодать.
72
159000
2000
будут съедены или умрут от голода.
02:56
So you'dвы бы think
73
161000
2000
Можно подумать,
02:58
that us, as a successfulуспешный speciesвид on the planetпланета --
74
163000
3000
что мы как вид успешный
на этой планете —
03:01
you, me, everybodyвсе --
75
166000
2000
ты, я, любой человек --
03:03
would be really good at makingизготовление these trade-offsкомпромиссные.
76
168000
3000
должны безошибочно
решать такие задачки.
03:06
YetВсе же it seemsкажется, again and again,
77
171000
2000
Однако практика
показывает снова и снова,
03:08
that we're hopelesslyбезнадежно badПлохо at it.
78
173000
3000
что мы практически
неспособны это делать.
03:11
And I think that's a fundamentallyв корне interestingинтересно questionвопрос.
79
176000
3000
И это чрезвычайно интересная задачка.
03:14
I'll give you the shortкороткая answerответ.
80
179000
2000
Я дам вам краткий ответ.
03:16
The answerответ is, we respondотвечать to the feelingчувство of securityбезопасность
81
181000
2000
Дело в том, что мы принимаем решения
основываясь на ощущении безопасности,
03:18
and not the realityреальность.
82
183000
3000
а не на фактах.
03:21
Now mostбольшинство of the time, that worksработает.
83
186000
3000
И в основном это работает.
03:25
MostНаиболее of the time,
84
190000
2000
Довольно часто
03:27
feelingчувство and realityреальность are the sameодна и та же.
85
192000
3000
ощущения и реальность совпадают.
03:30
CertainlyБезусловно that's trueправда
86
195000
2000
По меньшей мере,
03:32
for mostбольшинство of humanчеловек prehistoryпредыстория.
87
197000
3000
так всегда было раньше.
03:35
We'veУ нас developedразвитая this abilityспособность
88
200000
3000
Эта наша способность была развита
03:38
because it makesмарки evolutionaryэволюционный senseсмысл.
89
203000
2000
путём естественного отбора.
03:40
One way to think of it
90
205000
2000
Можно сказать,
03:42
is that we're highlyвысоко optimizedоптимизированный
91
207000
2000
что мы приспособлены
03:44
for riskриск decisionsрешения
92
209000
2000
для принятия решений о рисках,
03:46
that are endemicэндемический to livingживой in smallмаленький familyсемья groupsгруппы
93
211000
3000
которые относятся к жизни
в небольших семейных группах
03:49
in the Eastвосток Africanафриканец highlandsгорная местность in 100,000 B.C.
94
214000
3000
на восточноафриканском плоскогорье
сто тысяч лет до нашей эры.
03:52
2010 Newновый YorkЙорк, not so much.
95
217000
3000
Нью-Йорк 2010-го? Совсем другое дело.
03:56
Now there are severalнесколько biasesуклоны in riskриск perceptionвосприятие.
96
221000
3000
Есть разные предубеждения
в восприятии риска.
03:59
A lot of good experimentsэксперименты in this.
97
224000
2000
И много хороших экспериментов
было проведено на эту тему.
04:01
And you can see certainопределенный biasesуклоны that come up again and again.
98
226000
3000
И можно заметить, что определённые
предубеждения встречаются раз за разом.
04:04
So I'll give you four4.
99
229000
2000
Я перечислю четыре из них.
04:06
We tendиметь тенденцию to exaggerateпреувеличивать spectacularзахватывающий and rareредкий risksриски
100
231000
3000
Мы склонны преувеличивать
эффектные и редкие риски
04:09
and downplayпреуменьшать commonобщий risksриски --
101
234000
2000
и преуменьшать повседневные риски:
04:11
so flyingлетающий versusпротив drivingвождение.
102
236000
3000
сравните авиаперелёты
и вождение автомобиля.
04:14
The unknownнеизвестный is perceivedвоспринимается
103
239000
2000
Незнакомое воспринимается
04:16
to be riskierрискованными than the familiarзнакомые.
104
241000
3000
более рискованным, чем знакомое.
04:20
One exampleпример would be,
105
245000
2000
Например,
04:22
people fearстрах kidnappingпохищение людей by strangersнезнакомцы
106
247000
3000
многие боятся похищений незнакомцами,
04:25
when the dataданные supportsопоры kidnappingпохищение людей by relativesродные is much more commonобщий.
107
250000
3000
тогда как, согласно данным, гораздо чаще
похищения совершают родственники,
04:28
This is for childrenдети.
108
253000
2000
Речь о похищении детей.
04:30
ThirdВ третьих, personifiedперсонифицированной risksриски
109
255000
3000
В-третьих, олицетворённые риски
04:33
are perceivedвоспринимается to be greaterбольшая than anonymousанонимный risksриски --
110
258000
3000
воспринимаются как более опасные,
чем обезличенные риски —
04:36
so Binмусорное ведро Ladenнагруженный is scarierстрашней because he has a nameимя.
111
261000
3000
так бен Ладен становится страшнее,
потому что у него есть имя.
04:39
And the fourthчетвертый
112
264000
2000
И в-четвёртых,
04:41
is people underestimateнедооценивать risksриски
113
266000
2000
люди недооценивают риски
04:43
in situationsситуации they do controlконтроль
114
268000
2000
в ситуациях им подконтрольных,
04:45
and overestimateпереоценивать them in situationsситуации they don't controlконтроль.
115
270000
4000
и переоценивают риски в ситуациях,
которые они не контролируют.
04:49
So onceодин раз you take up skydivingзатяжные прыжки с парашютом or smokingкурение,
116
274000
3000
Как только вы начинаете
прыгать с парашютом или курить,
04:52
you downplayпреуменьшать the risksриски.
117
277000
2000
вы начинаете недооценивать риски.
04:54
If a riskриск is thrustосевая нагрузка uponна you -- terrorismтерроризм was a good exampleпример --
118
279000
3000
Когда же риск вам навязан —
например как с терроризмом —
04:57
you'llВы будете overplayпереигрывать it because you don't feel like it's in your controlконтроль.
119
282000
3000
вы его переоцените, потому что
у вас нет ощущения контроля.
05:02
There are a bunchгроздь of other of these biasesуклоны, these cognitiveпознавательный biasesуклоны,
120
287000
3000
Есть целый ряд
подобных искажений восприятия,
05:05
that affectаффект our riskриск decisionsрешения.
121
290000
3000
которые влияют на принятие решений
в рискованных ситуациях.
05:08
There's the availabilityдоступность heuristicэвристический,
122
293000
2000
Например, доступность опыта,
05:10
whichкоторый basicallyв основном meansозначает
123
295000
2000
что, по сути, означает,
05:12
we estimateоценить the probabilityвероятность of something
124
297000
3000
что мы оцениваем вероятность события
05:15
by how easyлегко it is to bringприносить instancesэкземпляры of it to mindразум.
125
300000
4000
по тому, насколько легко
вспомнить примеры таких событий.
05:19
So you can imagineпредставить how that worksработает.
126
304000
2000
Попробуем представить,
как это получается.
05:21
If you hearзаслушивать a lot about tigerтигр attacksнападки, there mustдолжен be a lot of tigersтигры around.
127
306000
3000
Если мы постоянно слышим о нападениях тигров —
в округе должно быть много тигров.
05:24
You don't hearзаслушивать about lionлев attacksнападки, there aren'tне a lot of lionsльвы around.
128
309000
3000
Если о нападениях львов ничего не слышно —
львов в округе не много.
05:27
This worksработает untilдо you inventвыдумывать newspapersгазеты.
129
312000
3000
Это работало пока не изобрели газеты.
05:30
Because what newspapersгазеты do
130
315000
2000
Потому что суть газет в том,
05:32
is they repeatповторение again and again
131
317000
2000
что они раз за разом повторяют
05:34
rareредкий risksриски.
132
319000
2000
редкие риски.
05:36
I tell people, if it's in the newsНовости, don't worryбеспокоиться about it.
133
321000
2000
Я всегда говорю, что если об этом
пишут в новостях — спите спокойно.
05:38
Because by definitionопределение,
134
323000
2000
Просто по определению,
05:40
newsНовости is something that almostпочти never happensпроисходит.
135
325000
3000
новость — это то,
что почти никогда не случается.
05:43
(LaughterСмех)
136
328000
2000
(Смех)
05:45
When something is so commonобщий, it's no longerдольше newsНовости --
137
330000
3000
Когда что-то становится обыденным,
это больше не новость —
05:48
carавтомобиль crashesсбой, domesticвнутренний violenceнасилие --
138
333000
2000
автомобильные аварии,
бытовые преступления —
05:50
those are the risksриски you worryбеспокоиться about.
139
335000
3000
это именно те риски,
о которых нужно беспокоиться.
05:53
We're alsoтакже a speciesвид of storytellersсказочники.
140
338000
2000
К тому же, люди — это рассказчики.
05:55
We respondотвечать to storiesистории more than dataданные.
141
340000
3000
Мы принимаем рассказы
близко к сердцу, ближе, чем факты.
05:58
And there's some basicосновной innumeracyнавыков счета going on.
142
343000
2000
Но при этом, мы, в общем-то,
не умеем считать.
06:00
I mean, the jokeшутка "One, Two, ThreeТри, ManyМногие" is kindсвоего рода of right.
143
345000
3000
Я имею в виду, что многие считают:
«один, два, три, много».
06:03
We're really good at smallмаленький numbersчисел.
144
348000
3000
Мы очень хорошо понимаем
небольшие числа.
06:06
One mangoманго, two mangoesманго, threeтри mangoesманго,
145
351000
2000
Одно яблоко, два яблока, три яблока,
06:08
10,000 mangoesманго, 100,000 mangoesманго --
146
353000
2000
10 000 яблок, 100 000 яблок —
06:10
it's still more mangoesманго you can eatесть before they rotгниль.
147
355000
3000
это намного больше яблок, чем можно
съесть, прежде чем они сгниют.
06:13
So one halfполовина, one quarterчетверть, one fifthпятый -- we're good at that.
148
358000
3000
Т.е. половинка, четвертинка —
это просто и понятно.
06:16
One in a millionмиллиона, one in a billionмиллиард --
149
361000
2000
Раз в миллион,
раз в миллиард —
06:18
they're bothи то и другое almostпочти never.
150
363000
3000
это всё равно, что никогда.
06:21
So we have troubleбеда with the risksриски
151
366000
2000
Поэтому нам сложно с рисками,
06:23
that aren'tне very commonобщий.
152
368000
2000
которые не являются повседневными.
06:25
And what these cognitiveпознавательный biasesуклоны do
153
370000
2000
Так вот эти искажения восприятия
06:27
is they actакт as filtersфильтры betweenмежду us and realityреальность.
154
372000
3000
работают как фильтры
между нами и реальностью.
06:30
And the resultрезультат
155
375000
2000
И в результате,
06:32
is that feelingчувство and realityреальность get out of whackсильный удар,
156
377000
2000
ощущение и реальность
больше не совпадают,
06:34
they get differentдругой.
157
379000
3000
они начинают отличаться.
06:37
Now you eitherили have a feelingчувство -- you feel more secureбезопасный than you are.
158
382000
3000
И вот тут, либо вы ощущаете себя
безопаснее, чем на самом деле —
06:40
There's a falseложный senseсмысл of securityбезопасность.
159
385000
2000
это ложное чувство безопасности —
06:42
Or the other way,
160
387000
2000
либо наоборот —
06:44
and that's a falseложный senseсмысл of insecurityненадежность.
161
389000
2000
и это ложное чувство опасности.
06:46
I writeзаписывать a lot about "securityбезопасность theaterтеатр,"
162
391000
3000
Я много пишу об «играх в безопасность»,
06:49
whichкоторый are productsпродукты that make people feel secureбезопасный,
163
394000
3000
о тех мерах, которые внушают людям
чувство защищённости,
06:52
but don't actuallyна самом деле do anything.
164
397000
2000
но реально ничего не дают.
06:54
There's no realреальный wordслово for stuffматериал that makesмарки us secureбезопасный,
165
399000
2000
Не существует термина для мер,
которые делают нас защищённее,
06:56
but doesn't make us feel secureбезопасный.
166
401000
2000
но не дают чувства защищённости.
06:58
Maybe it's what the CIA'sЦРУ supposedпредполагаемый to do for us.
167
403000
3000
Наверное, это то, чем должно заниматься ЦРУ.
07:03
So back to economicsэкономика.
168
408000
2000
Давайте вернёмся к экономике.
07:05
If economicsэкономика, if the marketрынок, drivesдиски securityбезопасность,
169
410000
4000
Если деньги, если рынок
определяет меры безопасности
07:09
and if people make trade-offsкомпромиссные
170
414000
2000
и если люди принимают решения
07:11
basedисходя из on the feelingчувство of securityбезопасность,
171
416000
3000
основываясь на чувстве защищённости,
07:14
then the smartумная thing for companiesкомпании to do
172
419000
2000
то самое умное, что может сделать компания,
07:16
for the economicэкономической incentivesстимулы
173
421000
2000
исходя из экономических соображений, —
07:18
are to make people feel secureбезопасный.
174
423000
3000
это дать людям чувство защищённости.
07:21
And there are two waysпути to do this.
175
426000
3000
И всегда есть два способа этого добиться.
07:24
One, you can make people actuallyна самом деле secureбезопасный
176
429000
2000
Первый — можно реально защитить людей
07:26
and hopeнадежда they noticeуведомление.
177
431000
2000
и надеяться, что они обратят внимание.
07:28
Or two, you can make people just feel secureбезопасный
178
433000
3000
Или второй — можно создать
чувство защищённости
07:31
and hopeнадежда they don't noticeуведомление.
179
436000
3000
и надеяться,
что они не обратят внимания.
07:35
So what makesмарки people noticeуведомление?
180
440000
3000
Что же заставляет людей
обращать внимание?
07:38
Well a coupleпара of things:
181
443000
2000
Ряд вещей:
07:40
understandingпонимание of the securityбезопасность,
182
445000
2000
понимание мер безопасности,
07:42
of the risksриски, the threatsугрозы,
183
447000
2000
рисков, угроз
07:44
the countermeasuresмеры противодействия, how they work.
184
449000
3000
контрмер, и как всё это работает.
07:47
But if you know stuffматериал,
185
452000
2000
Но если вы в этом разбираетесь,
07:49
you're more likelyвероятно to have your feelingsчувства matchсовпадение realityреальность.
186
454000
3000
то более вероятно, что ваши
ощущения совпадают с реальностью.
07:52
EnoughДостаточно realреальный worldМир examplesПримеры helpsпомогает.
187
457000
3000
Здесь хорошо работает
жизненный опыт.
07:55
Now we all know the crimeпреступление rateставка in our neighborhoodокрестности,
188
460000
3000
Все мы знаем
неблагополучные районы города,
07:58
because we liveжить there, and we get a feelingчувство about it
189
463000
3000
потому что мы тут живём, и,
в общем, наше чувство опасности
08:01
that basicallyв основном matchesМатчи realityреальность.
190
466000
3000
совпадает с реальностью.
08:04
SecurityБезопасность theater'sтеатра exposedподвергаются
191
469000
3000
«Игры в безопасность» вскрываются,
08:07
when it's obviousочевидный that it's not workingза работой properlyдолжным образом.
192
472000
3000
когда становится очевидно,
что меры безопасности не работают.
08:10
Okay, so what makesмарки people not noticeуведомление?
193
475000
4000
Итак, почему же люди не обращают внимания?
08:14
Well, a poorбедные understandingпонимание.
194
479000
2000
Из-за непонимания.
08:16
If you don't understandПонимаю the risksриски, you don't understandПонимаю the costsрасходы,
195
481000
3000
Если вы не понимаете риски,
не понимаете, каковы издержки,
08:19
you're likelyвероятно to get the trade-offкомпромисс wrongнеправильно,
196
484000
2000
вы склонны принять ошибочное решение,
08:21
and your feelingчувство doesn't matchсовпадение realityреальность.
197
486000
3000
и ваше чувство безопасности
не совпадает с реальностью.
08:24
Not enoughдостаточно examplesПримеры.
198
489000
2000
Из-за недостатка жизненного опыта.
08:26
There's an inherentсвойственный problemпроблема
199
491000
2000
Эта проблема присуща
08:28
with lowнизкий probabilityвероятность eventsМероприятия.
200
493000
2000
маловероятным событиям.
08:30
If, for exampleпример,
201
495000
2000
Например,
08:32
terrorismтерроризм almostпочти never happensпроисходит,
202
497000
2000
если теракты случаются очень редко,
08:34
it's really hardжесткий to judgeсудья
203
499000
2000
то очень тяжело оценить
08:36
the efficacyэффективность of counter-terroristконтртеррористическая measuresмеры.
204
501000
3000
эффективность контртеррористических мер.
08:40
This is why you keep sacrificingпожертвовав virginsдев,
205
505000
3000
Вот почему продолжается охота на ведьм,
08:43
and why your unicornединорог defensesоборонительные сооружения are workingза работой just great.
206
508000
3000
и вот почему бутафорские меры
работают до поры до времени.
08:46
There aren'tне enoughдостаточно examplesПримеры of failuresнеудачи.
207
511000
3000
Недостаточно примеров сбоев этих мер.
08:50
AlsoТакже, feelingsчувства that are cloudingпотускнение the issuesвопросы --
208
515000
3000
К тому же, чувства затмевают разум —
08:53
the cognitiveпознавательный biasesуклоны I talkedговорили about earlierранее,
209
518000
2000
искажения восприятия,
о которых я говорил раньше,
08:55
fearsбоится, folkлюди beliefsубеждения,
210
520000
3000
страхи, народные поверья,
08:58
basicallyв основном an inadequateнеадекватный modelмодель of realityреальность.
211
523000
3000
просто-напросто
неадекватная модель реальности.
09:02
So let me complicateусложнять things.
212
527000
3000
Давайте усложним.
09:05
I have feelingчувство and realityреальность.
213
530000
2000
Есть ощущение,
и есть действительность.
09:07
I want to addДобавить a thirdв третьих elementэлемент. I want to addДобавить modelмодель.
214
532000
3000
Добавим третий элемент.
Добавим модель.
09:10
Feelingчувство and modelмодель in our headглава,
215
535000
2000
Ощущение и модель у нас в уме,
09:12
realityреальность is the outsideза пределами worldМир.
216
537000
2000
реальность это окружающий мир.
09:14
It doesn't changeизменение; it's realреальный.
217
539000
3000
Он не изменчив, он настоящий.
09:17
So feelingчувство is basedисходя из on our intuitionинтуиция.
218
542000
2000
Итак, ощущение основано на интуиции.
09:19
ModelМодель is basedисходя из on reasonпричина.
219
544000
2000
Модель основана
на логических умозаключениях.
09:21
That's basicallyв основном the differenceразница.
220
546000
3000
Вот и вся разница.
09:24
In a primitiveпримитивный and simpleпросто worldМир,
221
549000
2000
В примитивном и простом мире
09:26
there's really no reasonпричина for a modelмодель
222
551000
3000
модель не нужна.
09:29
because feelingчувство is closeЗакрыть to realityреальность.
223
554000
3000
Потому что ощущение
близко к действительности.
09:32
You don't need a modelмодель.
224
557000
2000
Модель просто не нужна.
09:34
But in a modernсовременное and complexсложный worldМир,
225
559000
2000
Но в современном сложном мире
09:36
you need modelsмодели
226
561000
2000
нужны модели,
09:38
to understandПонимаю a lot of the risksриски we faceлицо.
227
563000
3000
чтобы понять большую часть
встречаемых нами рисков.
09:42
There's no feelingчувство about germsростки.
228
567000
2000
Мы не ощущаем бактерий.
09:44
You need a modelмодель to understandПонимаю them.
229
569000
3000
Нам нужна модель,
чтобы понять, что такое бактерии.
09:47
So this modelмодель
230
572000
2000
И эта модель
09:49
is an intelligentумный representationпредставление of realityреальность.
231
574000
3000
является осмысленным
представлением действительности.
09:52
It's, of courseкурс, limitedограниченное by scienceнаука,
232
577000
3000
Конечно, она ограничена
текущим уровнем развития науки,
09:55
by technologyтехнологии.
233
580000
2000
технологии.
09:57
We couldn'tне может have a germмикроб theoryтеория of diseaseболезнь
234
582000
3000
Мы не знали, что бактерии
являются причиной болезней,
10:00
before we inventedизобрел the microscopeмикроскоп to see them.
235
585000
3000
пока мы не изобрели
микроскоп, чтобы видеть их.
10:04
It's limitedограниченное by our cognitiveпознавательный biasesуклоны.
236
589000
3000
Она ограничена
искажениями нашего восприятия.
10:07
But it has the abilityспособность
237
592000
2000
Но она даёт возможность
10:09
to overrideпереопределение our feelingsчувства.
238
594000
2000
пересилить ощущения.
10:11
Where do we get these modelsмодели? We get them from othersдругие.
239
596000
3000
Откуда же берутся модели?
Мы заимствуем их у других.
10:14
We get them from religionрелигия, from cultureкультура,
240
599000
3000
Они достаются нам
из религии, из культуры,
10:17
teachersучителей, eldersстарейшины.
241
602000
2000
от учителей, от родителей.
10:19
A coupleпара yearsлет agoтому назад,
242
604000
2000
Пару лет назад
10:21
I was in Southюг AfricaАфрика on safariсафари.
243
606000
2000
я был в Южной Африке на сафари.
10:23
The trackerтрекер I was with grewвырос up in KrugerКрюгер Nationalнациональный ParkПарк.
244
608000
3000
Егерь, меня сопровождавший, вырос
в Национальном парке Крюгера.
10:26
He had some very complexсложный modelsмодели of how to surviveуцелеть.
245
611000
3000
У него был ряд довольно
сложных моделей для выживания.
10:29
And it dependedзависит on if you were attackedатакован
246
614000
2000
Они предусматривали случаи нападения
10:31
by a lionлев or a leopardлеопард or a rhinoносорог or an elephantслон --
247
616000
2000
львов, и леопардов,
и носорогов, и слонов,
10:33
and when you had to runбег away, and when you couldn'tне может runбег away, and when you had to climbвосхождение a treeдерево --
248
618000
3000
и когда нужно было бежать,
а когда — лезть на дерево,
10:36
when you could never climbвосхождение a treeдерево.
249
621000
2000
и когда лезть нельзя ни в коем случае.
10:38
I would have diedумер in a day,
250
623000
3000
Я бы умер там в первый же день,
10:41
but he was bornРодился there,
251
626000
2000
но он там родился,
10:43
and he understoodпонимать how to surviveуцелеть.
252
628000
2000
и он знает, как там выжить.
10:45
I was bornРодился in Newновый YorkЙорк Cityгород.
253
630000
2000
Я родился в Нью-Йорке.
10:47
I could have takenвзятый him to Newновый YorkЙорк, and he would have diedумер in a day.
254
632000
3000
Я мог бы привезти его в Нью-Йорк,
и он не выжил бы и дня.
10:50
(LaughterСмех)
255
635000
2000
(Смех)
10:52
Because we had differentдругой modelsмодели
256
637000
2000
Потому что у нас разные модели,
10:54
basedисходя из on our differentдругой experiencesопыт.
257
639000
3000
основанные на разном жизненном опыте.
10:58
Modelsмодели can come from the mediaСМИ,
258
643000
2000
Модели могут навязываться СМИ
11:00
from our electedизбран officialsдолжностные лица.
259
645000
3000
и чиновниками.
11:03
Think of modelsмодели of terrorismтерроризм,
260
648000
3000
Подумайте о модели терроризма,
11:06
childребенок kidnappingпохищение людей,
261
651000
3000
о похищениях детей,
11:09
airlineавиакомпания safetyбезопасность, carавтомобиль safetyбезопасность.
262
654000
2000
безопасности полётов,
безопасности дорожного движения.
11:11
Modelsмодели can come from industryпромышленность.
263
656000
3000
Модели могут навязываться индустрией.
11:14
The two I'm followingследующий are surveillanceнаблюдение camerasкамеры,
264
659000
2000
Я слежу за двумя из них —
камерами наблюдения
11:16
IDЯ БЫ cardsкарты,
265
661000
2000
и удостоверениями личности —
11:18
quiteдовольно a lot of our computerкомпьютер securityбезопасность modelsмодели come from there.
266
663000
3000
довольно много моделей
компьютерной безопасности берут начало оттуда.
11:21
A lot of modelsмодели come from scienceнаука.
267
666000
3000
Много моделей приходит из науки.
11:24
HealthЗдоровье modelsмодели are a great exampleпример.
268
669000
2000
Модели болезней — отличный пример.
11:26
Think of cancerрак, of birdптица fluгрипп, swineсвинья fluгрипп, SARSSARS.
269
671000
3000
Например рак, птичий грипп,
свиной грипп, атипичная пневмония.
11:29
All of our feelingsчувства of securityбезопасность
270
674000
3000
Наши ощущения опасности
11:32
about those diseasesболезни
271
677000
2000
этих болезней
11:34
come from modelsмодели
272
679000
2000
берут начало в моделях,
11:36
givenданный to us, really, by scienceнаука filteredотфильтрованный throughчерез the mediaСМИ.
273
681000
3000
данных нам наукой
и изменённых СМИ.
11:40
So modelsмодели can changeизменение.
274
685000
3000
Итак, модели могут меняться.
11:43
Modelsмодели are not staticстатический.
275
688000
2000
Модели не статичны.
11:45
As we becomeстали more comfortableудобный in our environmentsокружающая среда,
276
690000
3000
По мере привыкания к среде
11:48
our modelмодель can moveпереехать closerближе to our feelingsчувства.
277
693000
4000
наши модели могут
приблизиться к нашим ощущениям.
11:53
So an exampleпример mightмог бы be,
278
698000
2000
Например,
11:55
if you go back 100 yearsлет agoтому назад
279
700000
2000
если вернуться на сто лет назад,
11:57
when electricityэлектричество was first becomingстановление commonобщий,
280
702000
3000
когда электричество
только входило в обиход,
12:00
there were a lot of fearsбоится about it.
281
705000
2000
ему сопутствовало много страхов.
12:02
I mean, there were people who were afraidбоюсь to pushОт себя doorbellsДверные звонки,
282
707000
2000
Люди буквально боялись
звонить в дверной звонок,
12:04
because there was electricityэлектричество in there, and that was dangerousопасно.
283
709000
3000
потому там внутри было электричество
и это было опасно.
12:07
For us, we're very facileснисходительный around electricityэлектричество.
284
712000
3000
Для нас электричество обыденно.
12:10
We changeизменение lightлегкий bulbsлуковицы
285
715000
2000
Мы меняем лампочки
12:12
withoutбез even thinkingмышление about it.
286
717000
2000
даже не задумываясь о нём.
12:14
Our modelмодель of securityбезопасность around electricityэлектричество
287
719000
4000
Наша модель
безопасности электричества —
12:18
is something we were bornРодился into.
288
723000
3000
это то, с чем мы родились.
12:21
It hasn'tне имеет changedизменено as we were growingрост up.
289
726000
3000
Оно не менялось
пока мы взрослели.
12:24
And we're good at it.
290
729000
3000
И нам с ним легко.
12:27
Or think of the risksриски
291
732000
2000
Или, например, восприятие рисков
12:29
on the Internetинтернет acrossчерез generationsпоколения --
292
734000
2000
в интернете разными поколениями —
12:31
how your parentsродители approachподход Internetинтернет securityбезопасность,
293
736000
2000
как старшее поколение понимает
безопасность в интернете
12:33
versusпротив how you do,
294
738000
2000
и как — вы,
12:35
versusпротив how our kidsДети will.
295
740000
3000
и как её будут понимать ваши дети.
12:38
Modelsмодели eventuallyв итоге fadeувядать into the backgroundзадний план.
296
743000
3000
Рано или поздно модели уходят на задний фон.
12:42
Intuitiveинтуитивный is just anotherдругой wordслово for familiarзнакомые.
297
747000
3000
Интуитивно-понятный
это то же что и знакомый.
12:45
So as your modelмодель is closeЗакрыть to realityреальность,
298
750000
2000
Так вот, когда модель
близка к действительности
12:47
and it convergesсходится with feelingsчувства,
299
752000
2000
и совпадает с ощущениями,
12:49
you oftenдовольно часто don't know it's there.
300
754000
3000
мы перестаём её замечать.
12:52
So a niceхороший exampleпример of this
301
757000
2000
Красивый пример --
12:54
cameпришел from last yearгод and swineсвинья fluгрипп.
302
759000
3000
прошлогодняя эпидемия
свиного гриппа.
12:57
When swineсвинья fluгрипп first appearedпоявился,
303
762000
2000
Когда свиной грипп только появился,
12:59
the initialначальная newsНовости causedвызванный a lot of overreactionгиперреакция.
304
764000
4000
первые новости
вызвали чрезмерную реакцию.
13:03
Now it had a nameимя,
305
768000
2000
Ему дали имя,
13:05
whichкоторый madeсделал it scarierстрашней than the regularрегулярный fluгрипп,
306
770000
2000
что сделало его
страшнее обычного гриппа,
13:07
even thoughхоть it was more deadlyсмертоносный.
307
772000
2000
при том, что
обычный грипп более опасный.
13:09
And people thought doctorsврачи should be ableв состоянии to dealпо рукам with it.
308
774000
4000
И люди считали,
что медики должны что-то сделать.
13:13
So there was that feelingчувство of lackотсутствие of controlконтроль.
309
778000
2000
Возникло то самое
ощущение бесконтрольности.
13:15
And those two things
310
780000
2000
Сочетание этих двух факторов
13:17
madeсделал the riskриск more than it was.
311
782000
2000
раздуло риск свыше реального.
13:19
As the noveltyновинка woreносил off, the monthsмесяцы wentотправился by,
312
784000
3000
Как только новизна пропала,
прошли месяцы,
13:22
there was some amountколичество of toleranceтолерантность,
313
787000
2000
притерпелись,
13:24
people got used to it.
314
789000
2000
и люди к нему привыкли.
13:26
There was no newновый dataданные, but there was lessМеньше fearстрах.
315
791000
3000
Новых данных не поступало,
но страх снижался.
13:29
By autumnосень,
316
794000
2000
К осени
13:31
people thought
317
796000
2000
люди думали
13:33
the doctorsврачи should have solvedрешена this alreadyуже.
318
798000
2000
что медики
уже решили эту проблему.
13:35
And there's kindсвоего рода of a bifurcationразветвление --
319
800000
2000
Была некая развилка —
13:37
people had to chooseвыберите
320
802000
2000
люди стояли перед выбором
13:39
betweenмежду fearстрах and acceptanceпринятие --
321
804000
4000
между страхом и признанием,
13:43
actuallyна самом деле fearстрах and indifferenceравнодушие --
322
808000
2000
на самом деле,
между страхом и безразличием,
13:45
they kindсвоего рода of choseвыбрал suspicionподозрение.
323
810000
3000
и они выбрали подозрительность.
13:48
And when the vaccineвакцина appearedпоявился last winterзима,
324
813000
3000
И когда прошлой зимой
появилась вакцина,
13:51
there were a lot of people -- a surprisingудивительный numberномер --
325
816000
3000
много людей, поразительно много,
13:54
who refusedотказалась to get it --
326
819000
3000
отказались сделать прививку —
13:58
as a niceхороший exampleпример
327
823000
2000
прекрасный пример того,
14:00
of how people'sнародный feelingsчувства of securityбезопасность changeизменение, how theirих modelмодель changesизменения,
328
825000
3000
как меняется ощущение опасности
и как меняются соответствующие модели,
14:03
sortСортировать of wildlyдико
329
828000
2000
сильно меняются,
14:05
with no newновый informationИнформация,
330
830000
2000
даже без новой информации,
14:07
with no newновый inputвход.
331
832000
2000
даже без новых данных.
14:09
This kindсвоего рода of thing happensпроисходит a lot.
332
834000
3000
Подобное происходит довольно часто.
14:12
I'm going to give one more complicationусложнение.
333
837000
3000
Усложним ещё раз.
14:15
We have feelingчувство, modelмодель, realityреальность.
334
840000
3000
Есть ощущения,
модель, реальность.
14:18
I have a very relativisticрелятивистский viewПосмотреть of securityбезопасность.
335
843000
2000
У меня очень относительное
понятие о безопасности.
14:20
I think it dependsзависит on the observerнаблюдатель.
336
845000
3000
Я считаю,
что она зависит от наблюдателя.
14:23
And mostбольшинство securityбезопасность decisionsрешения
337
848000
2000
И в большинство
решений о безопасности
14:25
have a varietyразнообразие of people involvedучаствует.
338
850000
4000
вовлечены разные люди.
14:29
And stakeholdersзаинтересованные стороны
339
854000
2000
И стороны
14:31
with specificконкретный trade-offsкомпромиссные
340
856000
3000
со специальными интересами
14:34
will try to influenceвлияние the decisionрешение.
341
859000
2000
будут пробовать
влиять на решение.
14:36
And I call that theirих agendaповестка дня.
342
861000
2000
Я называю это
их секретным планом.
14:38
And you see agendaповестка дня --
343
863000
2000
Видите ли, план —
14:40
this is marketingмаркетинг, this is politicsполитика --
344
865000
3000
а это и маркетинг, и политика —
14:43
tryingпытаясь to convinceубеждать you to have one modelмодель versusпротив anotherдругой,
345
868000
3000
в том, чтобы убедить вас использовать
одну модель, а не другую,
14:46
tryingпытаясь to convinceубеждать you to ignoreигнорировать a modelмодель
346
871000
2000
в том, чтобы убедить
проигнорировать модель
14:48
and trustдоверять your feelingsчувства,
347
873000
3000
и довериться чувствам,
14:51
marginalizingмаргинализации people with modelsмодели you don't like.
348
876000
3000
очерняя людей с «неудобными» моделями.
14:54
This is not uncommonредкий.
349
879000
3000
Это не такая уж редкость.
14:57
An exampleпример, a great exampleпример, is the riskриск of smokingкурение.
350
882000
3000
Отличный пример — вред от курения.
15:01
In the historyистория of the pastмимо 50 yearsлет, the smokingкурение riskриск
351
886000
3000
Последние 50 лет
15:04
showsшоу how a modelмодель changesизменения,
352
889000
2000
показали как меняется
восприятие вреда от курения
15:06
and it alsoтакже showsшоу how an industryпромышленность fightsбои againstпротив
353
891000
3000
и как табачная промышленность
борется против
15:09
a modelмодель it doesn't like.
354
894000
2000
модели, которая ей не нравится.
15:11
Compareсравнить that to the secondhandподержанный smokeдым debateобсуждение --
355
896000
3000
Сравните это с дискуссией
о вреде пассивного курения
15:14
probablyвероятно about 20 yearsлет behindза.
356
899000
3000
примерно 20-летней давности.
15:17
Think about seatсиденье beltsремни.
357
902000
2000
Вспомните о ремнях безопасности.
15:19
When I was a kidдитя, no one woreносил a seatсиденье beltремень.
358
904000
2000
Когда я был ребёнком,
никто не пристёгивался.
15:21
NowadaysВ наше время, no kidдитя will let you driveводить машину
359
906000
2000
Сегодня ни один ребёнок
не даст вам поехать
15:23
if you're not wearingносить a seatсиденье beltремень.
360
908000
2000
если вы не пристегнули ремень.
15:26
Compareсравнить that to the airbagвоздушная подушка debateобсуждение --
361
911000
2000
Сравните это с дискуссией
о подушках безопасности
15:28
probablyвероятно about 30 yearsлет behindза.
362
913000
3000
примерно 30-летней давности.
15:31
All examplesПримеры of modelsмодели changingизменения.
363
916000
3000
Всё это примеры изменяющихся моделей.
15:36
What we learnучить is that changingизменения modelsмодели is hardжесткий.
364
921000
3000
Что мы узнали, так это то,
что менять модели сложно.
15:39
Modelsмодели are hardжесткий to dislodgeвытеснять.
365
924000
2000
Модели сложно вытеснить.
15:41
If they equalравный your feelingsчувства,
366
926000
2000
А если они совпадают с ощущениями,
15:43
you don't even know you have a modelмодель.
367
928000
3000
то вы даже не знаете,
что пользуетесь моделью.
15:46
And there's anotherдругой cognitiveпознавательный biasсмещение
368
931000
2000
Есть и другое искажение восприятия.
15:48
I'll call confirmationподтверждение biasсмещение,
369
933000
2000
Я называю его ошибка подтверждения,
15:50
where we tendиметь тенденцию to acceptпринимать dataданные
370
935000
3000
когда мы склонны рассматривать данные,
15:53
that confirmsподтверждает our beliefsубеждения
371
938000
2000
которые подтверждают наши убеждения
15:55
and rejectотклонять dataданные that contradictsпротиворечит our beliefsубеждения.
372
940000
3000
и отвергать данные
противоречащие нашим убеждениям.
15:59
So evidenceдоказательства againstпротив our modelмодель,
373
944000
2000
Так, свидетельство
против нашей модели
16:01
we're likelyвероятно to ignoreигнорировать, even if it's compellingнеотразимый.
374
946000
3000
мы скорее всего проигнорируем,
даже если оно убедительно.
16:04
It has to get very compellingнеотразимый before we'llЧто ж payплатить attentionвнимание.
375
949000
3000
Оно должно стать очень убедительным,
прежде чем мы обратим внимание.
16:08
Newновый modelsмодели that extendпростираться long periodsпериодов of time are hardжесткий.
376
953000
2000
Особенно сложны новые модели
с долгосрочными последствиями.
16:10
GlobalГлобальный warmingсогревание is a great exampleпример.
377
955000
2000
Глобальное потепление —
отличный пример.
16:12
We're terribleужасный
378
957000
2000
Мы становимся двоечниками
16:14
at modelsмодели that spanпролет 80 yearsлет.
379
959000
2000
когда речь идёт о моделях
с продолжительностью в 80 лет.
16:16
We can do to the nextследующий harvestуборка урожая.
380
961000
2000
Мы можем дотянуть
до следующего урожая.
16:18
We can oftenдовольно часто do untilдо our kidsДети growрасти up.
381
963000
3000
Мы можем
спланировать и вырастить детей.
16:21
But 80 yearsлет, we're just not good at.
382
966000
3000
Но 80 лет —
это для нас слишком сложно.
16:24
So it's a very hardжесткий modelмодель to acceptпринимать.
383
969000
3000
Именно поэтому эту модель
так трудно принять.
16:27
We can have bothи то и другое modelsмодели in our headглава simultaneouslyодновременно,
384
972000
4000
Иногда мы держим в уме
несколько моделей одновременно,
16:31
right, that kindсвоего рода of problemпроблема
385
976000
3000
это похоже на то,
16:34
where we're holdingдержа bothи то и другое beliefsубеждения togetherвместе,
386
979000
3000
когда мы верим
одновременно в разные вещи,
16:37
right, the cognitiveпознавательный dissonanceдиссонанс.
387
982000
2000
на внутреннее противоречие.
16:39
EventuallyВ итоге,
388
984000
2000
Рано или поздно
16:41
the newновый modelмодель will replaceзамещать the oldстарый modelмодель.
389
986000
3000
новая модель заменит старую.
16:44
Strongсильный feelingsчувства can createСоздайте a modelмодель.
390
989000
3000
Сильные переживания
могут создать модель.
16:47
Septemberсентябрь 11thго createdсозданный a securityбезопасность modelмодель
391
992000
3000
Теракт 11-го сентября
создал новую модель безопасности
16:50
in a lot of people'sнародный headsруководители.
392
995000
2000
в умах многих людей.
16:52
AlsoТакже, personalличный experiencesопыт with crimeпреступление can do it,
393
997000
3000
Также могут
и столкновения с преступностью,
16:55
personalличный healthздоровье scareпопугать,
394
1000000
2000
страх заболеть,
16:57
a healthздоровье scareпопугать in the newsНовости.
395
1002000
2000
страшные новости об эпидемиях.
16:59
You'llВы будете see these calledназывается flashbulbлампа-вспышка eventsМероприятия
396
1004000
2000
Такие события психиатры
17:01
by psychiatristsпсихиатры.
397
1006000
2000
называют события-вспышки.
17:03
They can createСоздайте a modelмодель instantaneouslyмгновенно,
398
1008000
3000
Они могут
создать модель мгновенно,
17:06
because they're very emotiveволнующий.
399
1011000
3000
потому что они
очень эмоциональны.
17:09
So in the technologicalтехнологический worldМир,
400
1014000
2000
В технологическом мире
17:11
we don't have experienceопыт
401
1016000
2000
у нас просто нет опыта
17:13
to judgeсудья modelsмодели.
402
1018000
2000
для оценки моделей.
17:15
And we relyполагаться on othersдругие. We relyполагаться on proxiesпрокси.
403
1020000
2000
И мы полагаемся на суждение других.
Мы полагаемся на посредников.
17:17
I mean, this worksработает as long as it's to correctверный othersдругие.
404
1022000
4000
Я имею в виду, что это работает
с компетентным посредником.
17:21
We relyполагаться on governmentправительство agenciesагентства
405
1026000
2000
Мы полагаемся на Минздрав
17:23
to tell us what pharmaceuticalsфармацевтические препараты are safeбезопасно.
406
1028000
5000
в решениях о безопасности лекарств.
17:28
I flewполетела here yesterdayвчера.
407
1033000
2000
Я вчера прилетел сюда.
17:30
I didn't checkпроверить the airplaneсамолет.
408
1035000
2000
Я не проверял самолёт лично.
17:32
I reliedполагались on some other groupгруппа
409
1037000
2000
Я доверил кому-то другому
17:34
to determineопределить whetherбудь то my planeсамолет was safeбезопасно to flyлетать.
410
1039000
3000
Проверить, что мой самолёт
был безопасен.
17:37
We're here, noneникто of us fearстрах the roofкрыша is going to collapseколлапс on us,
411
1042000
3000
В этом зале никто не боится,
что крыша рухнет,
17:40
not because we checkedпроверено,
412
1045000
3000
не потому что мы лично проверили,
17:43
but because we're prettyСимпатичная sure
413
1048000
2000
а потому что мы знаем, что
17:45
the buildingздание codesкоды here are good.
414
1050000
3000
местные строительные стандарты надёжны.
17:48
It's a modelмодель we just acceptпринимать
415
1053000
2000
Это лишь одна из моделей,
17:50
prettyСимпатичная much by faithвера.
416
1055000
2000
которые мы принимаем на веру.
17:52
And that's okay.
417
1057000
3000
И это нормально.
17:57
Now, what we want
418
1062000
2000
Чего мы хотим,
17:59
is people to get familiarзнакомые enoughдостаточно
419
1064000
2000
так это, чтобы люди обучались
18:01
with better modelsмодели --
420
1066000
2000
наилучшим моделям
18:03
have it reflectedотраженный in theirих feelingsчувства --
421
1068000
2000
и приводили свои чувства
в соответствие с этими моделями,
18:05
to allowпозволять them to make securityбезопасность trade-offsкомпромиссные.
422
1070000
4000
что позволит им
делать правильный выбор.
18:09
Now when these go out of whackсильный удар,
423
1074000
2000
Когда же модель перестаёт работать,
18:11
you have two optionsопции.
424
1076000
2000
у вас есть два варианта.
18:13
One, you can fixфиксировать people'sнародный feelingsчувства,
425
1078000
2000
Первый — можно исправить
ощущения людей,
18:15
directlyнепосредственно appealобращение to feelingsчувства.
426
1080000
2000
напрямую обратившись к эмоциям.
18:17
It's manipulationманипуляция, but it can work.
427
1082000
3000
Это манипуляция,
но может сработать.
18:20
The secondвторой, more honestчестный way
428
1085000
2000
Второй, более честный путь —
18:22
is to actuallyна самом деле fixфиксировать the modelмодель.
429
1087000
3000
исправить модель.
18:26
Change+ Изменить happensпроисходит slowlyмедленно.
430
1091000
2000
Изменения происходят медленно.
18:28
The smokingкурение debateобсуждение tookвзял 40 yearsлет,
431
1093000
3000
Дискуссия о вреде курения
заняла 40 лет,
18:31
and that was an easyлегко one.
432
1096000
3000
и это ещё простая дискуссия.
18:34
Some of this stuffматериал is hardжесткий.
433
1099000
2000
Есть примеры посложнее.
18:36
I mean really thoughхоть,
434
1101000
2000
Я намекаю на то, что
18:38
informationИнформация seemsкажется like our bestЛучший hopeнадежда.
435
1103000
2000
наша единственная надежда —
информированность.
18:40
And I liedсолгал.
436
1105000
2000
И я вас обманул.
18:42
RememberЗапомнить I said feelingчувство, modelмодель, realityреальность;
437
1107000
2000
Вспомните, когда я рассказывал
про ощущения, модель, реальность.
18:44
I said realityреальность doesn't changeизменение. It actuallyна самом деле does.
438
1109000
3000
Я сказал, что реальность
не меняется. А она меняется.
18:47
We liveжить in a technologicalтехнологический worldМир;
439
1112000
2000
Мы живём в эпоху технологий —
18:49
realityреальность changesизменения all the time.
440
1114000
3000
реальность постоянно меняется.
18:52
So we mightмог бы have -- for the first time in our speciesвид --
441
1117000
3000
И мы сталкиваемся, наверное,
впервые в истории нашего вида, с тем, что
18:55
feelingчувство chasesпогонь modelмодель, modelмодель chasesпогонь realityреальность, reality'sреальности movingперемещение --
442
1120000
3000
ощущения следуют за моделью, модель
следует за реальностью, реальность меняется —
18:58
they mightмог бы never catchпоймать up.
443
1123000
3000
да, они могут
никогда не встретиться.
19:02
We don't know.
444
1127000
2000
Сложно сказать.
19:04
But in the long-termдолгосрочный,
445
1129000
2000
Но в долгосрочной перспективе
19:06
bothи то и другое feelingчувство and realityреальность are importantважный.
446
1131000
3000
важны и ощущения и реальность.
19:09
And I want to closeЗакрыть with two quickбыстро storiesистории to illustrateиллюстрировать this.
447
1134000
3000
Я хочу завершить двумя
короткими показательными историями.
19:12
1982 -- I don't know if people will rememberзапомнить this --
448
1137000
2000
В 1982-м, не знаю, помните ли вы,
19:14
there was a shortкороткая epidemicэпидемия
449
1139000
3000
в США была кратковременная суматоха
19:17
of TylenolТайленол poisoningsотравлений in the Unitedобъединенный Statesсостояния.
450
1142000
2000
по поводу отравленного Тайленола.
19:19
It's a horrificужасающий storyистория. SomeoneКто то tookвзял a bottleбутылка of TylenolТайленол,
451
1144000
3000
Ужасная история.
Кто-то взял бутылку Тайленола,
19:22
put poisonяд in it, closedзакрыто it up, put it back on the shelfполка.
452
1147000
3000
добавил туда яд, упаковал
заново и положил на прилавок.
19:25
SomeoneКто то elseеще boughtкупил it and diedумер.
453
1150000
2000
Кто-то другой купил и умер.
19:27
This terrifiedужас people.
454
1152000
2000
Это вселило ужас в людей.
19:29
There were a coupleпара of copycatобезьяна attacksнападки.
455
1154000
2000
Было ещё пару подобных случаев.
19:31
There wasn'tне было any realреальный riskриск, but people were scaredиспуганный.
456
1156000
3000
Реальной опасности не было,
но люди были напуганы.
19:34
And this is how
457
1159000
2000
Это положило начало
19:36
the tamper-proofпротивовзломные drugлекарственное средство industryпромышленность was inventedизобрел.
458
1161000
2000
индустрии упаковок с защитой.
19:38
Those tamper-proofпротивовзломные capsколпачки, that cameпришел from this.
459
1163000
2000
Колпачки в защитном полиэтилене —
они появились после этих случаев.
19:40
It's completeполный securityбезопасность theaterтеатр.
460
1165000
2000
Это типичная
«игра в безопасность».
19:42
As a homeworkдомашнее задание assignmentназначение, think of 10 waysпути to get around it.
461
1167000
2000
Дома придумайте
10 способов обойти эту защиту.
19:44
I'll give you one, a syringeшприц.
462
1169000
3000
Я подскажу один — шприц.
19:47
But it madeсделал people feel better.
463
1172000
3000
Но всё это дало людям
ощущение безопасности.
19:50
It madeсделал theirих feelingчувство of securityбезопасность
464
1175000
2000
Это привело
их ощущение безопасности
19:52
more matchсовпадение the realityреальность.
465
1177000
2000
к лучшему соответствию
с реальностью.
19:54
Last storyистория, a fewмало yearsлет agoтому назад, a friendдруг of mineмой gaveдал birthрождение.
466
1179000
3000
Последняя история. Несколько лет назад
моя подруга рожала.
19:57
I visitпосещение her in the hospitalбольница.
467
1182000
2000
Я приехал к ней в роддом.
19:59
It turnsвитки out when a baby'sмладенца bornРодился now,
468
1184000
2000
Оказывается, что сейчас, после родов
20:01
they put an RFIDRFID braceletбраслет on the babyдетка,
469
1186000
2000
на ребёнка надевается радио-браслет,
20:03
put a correspondingсоответствующий one on the motherмама,
470
1188000
2000
и такой же надевается на маму,
20:05
so if anyoneкто угодно other than the motherмама takes the babyдетка out of the maternityматеринство wardподопечный,
471
1190000
2000
так что, если кто-либо кроме мамы
выносит ребёнка из покоев,
20:07
an alarmаварийная сигнализация goesидет off.
472
1192000
2000
срабатывает сигнализация.
20:09
I said, "Well, that's kindсвоего рода of neatаккуратный.
473
1194000
2000
Я подумал: «Ого, здорово!
20:11
I wonderзадаваться вопросом how rampantбезудержный babyдетка snatchingвырывание кошельки, сумки, срывание шапок is
474
1196000
2000
Интересно, а как часто детей крадут
20:13
out of hospitalsбольницы."
475
1198000
2000
из роддомов?»
20:15
I go home, I look it up.
476
1200000
2000
Дома я это проверил.
20:17
It basicallyв основном never happensпроисходит.
477
1202000
2000
Это практически
никогда не случается.
20:19
But if you think about it,
478
1204000
2000
Но если подумать,
20:21
if you are a hospitalбольница,
479
1206000
2000
если вы в роддоме,
20:23
and you need to take a babyдетка away from its motherмама,
480
1208000
2000
и если вам нужно
отлучить ребёнка от матери,
20:25
out of the roomкомната to runбег some testsтесты,
481
1210000
2000
например, чтобы
взять какие-то анализы,
20:27
you better have some good securityбезопасность theaterтеатр,
482
1212000
2000
вам лучше поиграть в безопасность,
20:29
or she's going to ripПокойся с миром your armрука off.
483
1214000
2000
а то мама оторвёт вам голову.
20:31
(LaughterСмех)
484
1216000
2000
(Смех)
20:33
So it's importantважный for us,
485
1218000
2000
Это важно для нас,
20:35
those of us who designдизайн securityбезопасность,
486
1220000
2000
для тех, кто придумывает
меры безопасности,
20:37
who look at securityбезопасность policyполитика,
487
1222000
3000
кто проверяет меры безопасности
20:40
or even look at publicобщественности policyполитика
488
1225000
2000
или просто правила поведения,
20:42
in waysпути that affectаффект securityбезопасность.
489
1227000
2000
относящиеся к безопасности.
20:44
It's not just realityреальность; it's feelingчувство and realityреальность.
490
1229000
3000
Это не только реальность,
это ощущение и реальность.
20:47
What's importantважный
491
1232000
2000
Важно,
20:49
is that they be about the sameодна и та же.
492
1234000
2000
чтобы они совпадали.
20:51
It's importantважный that, if our feelingsчувства matchсовпадение realityреальность,
493
1236000
2000
Важно, потому что, когда ощущения
совпадают с реальностью,
20:53
we make better securityбезопасность trade-offsкомпромиссные.
494
1238000
2000
мы гораздо лучше делаем
выборы в плане безопасности.
20:55
Thank you.
495
1240000
2000
Спасибо за внимание.
20:57
(ApplauseАплодисменты)
496
1242000
2000
(Аплодисменты)
Translated by Aliaksandr Autayeu
Reviewed by Larisa Larionova

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com