ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Брус Шнайдер: Сигурността като мираж

Filmed:
958,315 views

Експертът по кибер сигурност Брус Шнайдер говори как усещането ни за сигурност и реалната сигурност не винаги съвпадат. На TEDxPSU той обяснява защо харчим милиарди, за да се предпазим от рискове разпространени в новините, като театралната сигурност, която се разиграва на локалното ни летище. В същия момент ние игнорираме по-вероятни рискове. Презентацията показва как можем да разчупим тази схема.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securityсигурност is two differentразличен things:
0
0
2000
Сигурността има две значения.
00:17
it's a feelingчувство, and it's a realityреалност.
1
2000
2000
тя е усещане и реалност.
00:19
And they're differentразличен.
2
4000
2000
И това са две различни неща.
00:21
You could feel secureзащитено
3
6000
2000
Възможно е да се чувствате сигурни,
00:23
even if you're not.
4
8000
2000
дори и когато реално не сте сигурни.
00:25
And you can be secureзащитено
5
10000
2000
Възможно е да бъдете в сигурност
00:27
even if you don't feel it.
6
12000
2000
дори и да не се чувствате така.
00:29
Really, we have two separateотделен conceptsконцепции
7
14000
2000
За нас съществуват две различни концепции
00:31
mappedнанесени ontoвърху the sameедин и същ wordдума.
8
16000
2000
обозначени по един и същи начин.
00:33
And what I want to do in this talk
9
18000
2000
И това, което искам да направя в презентацията си
00:35
is to splitразцепване them apartна части --
10
20000
2000
е да ги разделя една от друга,
00:37
figuringфигуриращ out when they divergeотклонявам
11
22000
2000
дефинирайки кога се различават
00:39
and how they convergeприближават.
12
24000
2000
и в какво си приличат,
00:41
And languageезик is actuallyвсъщност a problemпроблем here.
13
26000
2000
Тук проблемът е и в езика, който използваме.
00:43
There aren'tне са a lot of good wordsдуми
14
28000
2000
Не съществуват много подходящи думи
00:45
for the conceptsконцепции we're going to talk about.
15
30000
3000
за концепциите, които ще обсъждаме тук.
00:48
So if you look at securityсигурност
16
33000
2000
Ако разглеждате сигурността
00:50
from economicикономически termsусловия,
17
35000
2000
от перспективата на икономиката,
00:52
it's a trade-offкомпромис.
18
37000
2000
тя е един постоянен баланс.
00:54
EveryВсеки time you get some securityсигурност,
19
39000
2000
Винаги когато получаваш сигурност,
00:56
you're always tradingтъргуване off something.
20
41000
2000
се отказваш от нещо друго.
00:58
WhetherДали this is a personalперсонален decisionрешение --
21
43000
2000
Независимо дали това е лично решение --
01:00
whetherдали you're going to installИнсталирай a burglarкрадец alarmаларма in your home --
22
45000
2000
например дали ще поставиш аларма в дома си
01:02
or a nationalнационален decisionрешение -- where you're going to invadeнахлувам some foreignчуждестранен countryдържава --
23
47000
3000
или политическо решение -- дали ще нападнеш чужда страна --
01:05
you're going to tradeтърговия off something,
24
50000
2000
винаги се отказваш от нещо,
01:07
eitherедин moneyпари or time, convenienceудобство, capabilitiesвъзможности,
25
52000
3000
било то пари или време, комфорт или ресурси.
01:10
maybe fundamentalосновен libertiesсвободи.
26
55000
3000
а може би дори фундаментални свободи.
01:13
And the questionвъпрос to askпитам when you look at a securityсигурност anything
27
58000
3000
И въпросът който си задаваш, когато наблюдаваш нещо сигурно
01:16
is not whetherдали this makesправи us saferпо-безопасно,
28
61000
3000
е не дали то ни прави по-сигурни,
01:19
but whetherдали it's worthзаслужава си the trade-offкомпромис.
29
64000
3000
а дали си заслужава да се откажеш от нещо друго в негово име.
01:22
You've heardчух in the pastминало severalняколко yearsгодини,
30
67000
2000
Сигурно сте чували през последните години, че
01:24
the worldсвят is saferпо-безопасно because SaddamСаддам HusseinХюсеин is not in powerмощност.
31
69000
2000
светът е по-сигурно място, защото Садам Хюсеин не е на власт.
01:26
That mightбиха могли, може be trueвярно, but it's not terriblyужасно relevantсъответен.
32
71000
3000
Това може и да е истина, но не е много уместно.
01:29
The questionвъпрос is, was it worthзаслужава си it?
33
74000
3000
Въпросът е дали си е заслужавало усилието?
01:32
And you can make your ownсобствен decisionрешение,
34
77000
3000
И тук всеки решава за себе си
01:35
and then you'llти ще decideреши whetherдали the invasionинвазия was worthзаслужава си it.
35
80000
2000
дали инвазията си е заслужавала.
01:37
That's how you think about securityсигурност --
36
82000
2000
Така разсъждаваме за сигурността --
01:39
in termsусловия of the trade-offкомпромис.
37
84000
2000
по отношение на компромисите.
01:41
Now there's oftenчесто no right or wrongпогрешно here.
38
86000
3000
Често тук няма правилен или грешен отговор.
01:44
Some of us have a burglarкрадец alarmаларма systemсистема at home,
39
89000
2000
Някои от нас имат аларми в домовете си,
01:46
and some of us don't.
40
91000
2000
други нямат.
01:48
And it'llще dependзависи on where we liveживея,
41
93000
2000
Решението зависи от това къде живеем,
01:50
whetherдали we liveживея aloneсам or have a familyсемейство,
42
95000
2000
дали живеем сами или имаме семейство,
01:52
how much coolготино stuffматерия we have,
43
97000
2000
дали имаме скъпи предмети,
01:54
how much we're willingсклонен to acceptприемам
44
99000
2000
до каква степен можем да приемем
01:56
the riskриск of theftкражба.
45
101000
2000
риска от кражба.
01:58
In politicsполитика alsoсъщо,
46
103000
2000
И в политиката
02:00
there are differentразличен opinionsстановища.
47
105000
2000
съществуват различни мнения.
02:02
A lot of timesпъти, these trade-offsкомпромиси
48
107000
2000
Много често тези компромиси
02:04
are about more than just securityсигурност,
49
109000
2000
са за нещо повече от сигурност,
02:06
and I think that's really importantважно.
50
111000
2000
и това е наистина важно.
02:08
Now people have a naturalестествен intuitionинтуиция
51
113000
2000
В днешно време хората притежават вътрешна интуиция
02:10
about these trade-offsкомпромиси.
52
115000
2000
за тези компромиси.
02:12
We make them everyвсеки day --
53
117000
2000
Ние ги извършваме всеки ден --
02:14
last night in my hotelхотел roomстая,
54
119000
2000
например вчера в хотелската ми стая,
02:16
when I decidedреши to double-lockдва пъти за заключване the doorврата,
55
121000
2000
когато реших да заключа два пъти вратата,
02:18
or you in your carкола when you droveизпъди here,
56
123000
2000
или вие идвайки с колите си тук,
02:20
when we go eatЯжте lunchобяд
57
125000
2000
или когато обядваме
02:22
and decideреши the food'sна храни not poisonотрова and we'llдобре eatЯжте it.
58
127000
3000
и решаваме, че храната не е отровна и ще я изядем.
02:25
We make these trade-offsкомпромиси again and again,
59
130000
2000
Ние правим тази равносметка на риска отново и отново
02:27
multipleмногократни timesпъти a day.
60
132000
2000
многократно всеки ден.
02:29
We oftenчесто won'tняма да even noticeизвестие them.
61
134000
2000
Дори понякога не го забелязваме.
02:31
They're just partчаст of beingсъщество aliveжив; we all do it.
62
136000
2000
Те са просто част от това да си жив; всички го правим.
02:33
EveryВсеки speciesвид does it.
63
138000
3000
Всички видове го правят.
02:36
ImagineПредставете си a rabbitзаек in a fieldполе, eatingхраня се grassтрева,
64
141000
2000
Представете си заек в полето, ядящ трева
02:38
and the rabbit'sзаек going to see a foxлисица.
65
143000
3000
и изведнъж заекът вижда лисица.
02:41
That rabbitзаек will make a securityсигурност trade-offкомпромис:
66
146000
2000
Този заек ще направи равносметка на риска:
02:43
"Should I stayстоя, or should I fleeбягат?"
67
148000
2000
"Да остана или да избягам?"
02:45
And if you think about it,
68
150000
2000
И ако се замислите над това,
02:47
the rabbitsзайци that are good at makingприготвяне that trade-offкомпромис
69
152000
3000
зайците, които са добри в правенето на тази преценка
02:50
will tendсклонен to liveживея and reproduceвъзпроизвеждат,
70
155000
2000
по-скоро ще избягат и ще продължат да се размножават,
02:52
and the rabbitsзайци that are badлошо at it
71
157000
2000
зайците, които не могат да вземат правилното решение
02:54
will get eatenял or starveглад.
72
159000
2000
ще бъдат изядени или ще умрат от глад.
02:56
So you'dти можеш think
73
161000
2000
И така вие ще си помислите,
02:58
that us, as a successfulуспешен speciesвид on the planetпланета --
74
163000
3000
че ние като успешни видове на планетата --
03:01
you, me, everybodyвсички --
75
166000
2000
вие, аз, всеки друг от себеподобните ни --
03:03
would be really good at makingприготвяне these trade-offsкомпромиси.
76
168000
3000
сме наистина добри в правенето на тези преценки.
03:06
YetОще it seemsИзглежда, again and again,
77
171000
2000
Макар че отново и отново се потвърждава,
03:08
that we're hopelesslyбезнадеждно badлошо at it.
78
173000
3000
че ние сме безнадеждно зле в това.
03:11
And I think that's a fundamentallyв основата си interestingинтересен questionвъпрос.
79
176000
3000
И аз мисля, че това е фундаментално интересен въпрос.
03:14
I'll give you the shortнисък answerотговор.
80
179000
2000
Ще ви дам кратък отговор.
03:16
The answerотговор is, we respondотговарям to the feelingчувство of securityсигурност
81
181000
2000
Той е, че ние се подчиняваме на чувството за сигурност,
03:18
and not the realityреалност.
82
183000
3000
а не на реалността.
03:21
Now mostнай-много of the time, that worksвърши работа.
83
186000
3000
През повечето време това върши работа.
03:25
MostНай-много of the time,
84
190000
2000
През повечето време
03:27
feelingчувство and realityреалност are the sameедин и същ.
85
192000
3000
чувствата и реалността са идентични.
03:30
CertainlyСъс сигурност that's trueвярно
86
195000
2000
Това със сигурност е вярно
03:32
for mostнай-много of humanчовек prehistoryПраистория.
87
197000
3000
за голяма част от човешката праистория.
03:35
We'veНие сме developedразвита this abilityспособност
88
200000
3000
Ние сме развили тази способност,
03:38
because it makesправи evolutionaryеволюционен senseсмисъл.
89
203000
2000
защото тя има еволюционен смисъл.
03:40
One way to think of it
90
205000
2000
Един от начините да се мисли за това
03:42
is that we're highlyсилно optimizedоптимизирана
91
207000
2000
е, че ние сме високо оптимизирани
03:44
for riskриск decisionsрешения
92
209000
2000
за рискови решения,
03:46
that are endemicендемични to livingжив in smallмалък familyсемейство groupsгрупи
93
211000
3000
които са типични за живота в малки семейни общества
03:49
in the EastИзток AfricanАфрикански highlandsпланините in 100,000 B.C.
94
214000
3000
в източно африканските плата 100.000 години преди Христа,
03:52
2010 NewНов YorkЙорк, not so much.
95
217000
3000
но не и за живот в Ню Йорк от 2010 година.
03:56
Now there are severalняколко biasesпристрастия in riskриск perceptionвъзприятие.
96
221000
3000
Има различни изкривявания във възприемането на риска.
03:59
A lot of good experimentsексперименти in this.
97
224000
2000
Съществуват редица добри експерименти в тази област.
04:01
And you can see certainопределен biasesпристрастия that come up again and again.
98
226000
3000
И вие може да наблюдавате определени изкривявания, които се появяват отново и отново.
04:04
So I'll give you fourчетирима.
99
229000
2000
Ще ви дам четири примера.
04:06
We tendсклонен to exaggerateпреувеличавам spectacularграндиозен and rareрядък risksрискове
100
231000
3000
Склонни сме да преувеличаваме сензационен и по-рядък риск
04:09
and downplayомаловажават commonчесто срещани risksрискове --
101
234000
2000
и да умаловажаваме по-често срещани рискове --
04:11
so flyingлетене versusсрещу drivingшофиране.
102
236000
3000
например летене в сравнение с шофиране.
04:14
The unknownнеизвестен is perceivedвъзприема
103
239000
2000
Непознатото се възприема
04:16
to be riskierрискови than the familiarзапознат.
104
241000
3000
като по-рисковано от познатото.
04:20
One exampleпример would be,
105
245000
2000
Пример за това е,
04:22
people fearстрах kidnappingотвличане by strangersнепознати
106
247000
3000
когато хората се страхуват да бъдат отвлечени от непознати,
04:25
when the dataданни supportsподдържа kidnappingотвличане by relativesроднини is much more commonчесто срещани.
107
250000
3000
в същото време числата за отвличания от близки хора са много по-високи.
04:28
This is for childrenдеца.
108
253000
2000
Това се отнася най-вече за деца.
04:30
ThirdТрета, personifiedперсонифицирани risksрискове
109
255000
3000
Трето -- персонализираните рискове
04:33
are perceivedвъзприема to be greaterпо-голяма than anonymousанонимен risksрискове --
110
258000
3000
се считат за по-големи от анонимните рискове --
04:36
so BinСК LadenНатоварено is scarierплашещо because he has a nameиме.
111
261000
3000
така Бин Ладен е по-страшен, защото си има име.
04:39
And the fourthчетвърти
112
264000
2000
И четвъртото е,
04:41
is people underestimateподценяваме risksрискове
113
266000
2000
че хората подценяват риска
04:43
in situationsситуации they do controlконтрол
114
268000
2000
в ситуации, които контролират
04:45
and overestimateнадценяват them in situationsситуации they don't controlконтрол.
115
270000
4000
и го надценяват в ситуации, които не контролират.
04:49
So onceведнъж you take up skydivingскачане с парашут or smokingпушене,
116
274000
3000
Така в момента, в който правиш каскади във въздуха или пушиш
04:52
you downplayомаловажават the risksрискове.
117
277000
2000
ти подценяваш риска.
04:54
If a riskриск is thrustтласък uponвърху you -- terrorismтероризъм was a good exampleпример --
118
279000
3000
Ако рискът е извън контрола ти -- тероризмът е добър пример --
04:57
you'llти ще overplayПреигравам it because you don't feel like it's in your controlконтрол.
119
282000
3000
ти го надценяваш, защото чувстваш, че е извън твоя контрол.
05:02
There are a bunchкуп of other of these biasesпристрастия, these cognitiveпознавателен biasesпристрастия,
120
287000
3000
Съществуват още редица от тези изкривявания, тези когнитивни изкривявания,
05:05
that affectзасегне our riskриск decisionsрешения.
121
290000
3000
които влияят на решенията ни за риска.
05:08
There's the availabilityналичност heuristicевристичен,
122
293000
2000
Съществува механизма на достъпността,
05:10
whichкойто basicallyв основата си meansсредства
123
295000
2000
което принципно значи,
05:12
we estimateприблизителна оценка the probabilityвероятност of something
124
297000
3000
че ние преценяваме вероятността нещо да се случи,
05:15
by how easyлесно it is to bringвъвеждат instancesинстанции of it to mindум.
125
300000
4000
според това колко лесно то може да бъде онагледено в съзнанието ни.
05:19
So you can imagineПредставете си how that worksвърши работа.
126
304000
2000
Така може да си представите как това функционира.
05:21
If you hearчувам a lot about tigerТигър attacksнападки, there mustтрябва да be a lot of tigersтигри around.
127
306000
3000
Ако чуете, че наоколо има много нападения от тигри, това значи, че наоколо има много тигри.
05:24
You don't hearчувам about lionЛъв attacksнападки, there aren'tне са a lot of lionsлъвове around.
128
309000
3000
Не чуватe за нападения на лъвове, значи наоколо няма много лъвове.
05:27
This worksвърши работа untilдо you inventизмислям newspapersвестници.
129
312000
3000
Това функционира до момента, в който се измисля вестника.
05:30
Because what newspapersвестници do
130
315000
2000
Защото това, което прави той
05:32
is they repeatповторение again and again
131
317000
2000
е да повтаря отново и отново
05:34
rareрядък risksрискове.
132
319000
2000
неща, за които няма толкова голям риск да се случат.
05:36
I tell people, if it's in the newsНовини, don't worryтревожа about it.
133
321000
2000
Аз казвам на хората, че ако нещо е в новините, то те не трябва да се притесняват за него.
05:38
Because by definitionдефиниция,
134
323000
2000
Защото по дефиниция,
05:40
newsНовини is something that almostпочти never happensслучва се.
135
325000
3000
новините са нещо, което почти никога не се случва.
05:43
(LaughterСмях)
136
328000
2000
(Смях в залата)
05:45
When something is so commonчесто срещани, it's no longerповече време newsНовини --
137
330000
3000
Когато нещо се случва често, то то не е в новините --
05:48
carкола crashesкатастрофи, domesticвътрешен violenceнасилие --
138
333000
2000
катастрофи, домашно насилие --
05:50
those are the risksрискове you worryтревожа about.
139
335000
3000
това са рисковете, за които трябва да се притесняваме.
05:53
We're alsoсъщо a speciesвид of storytellersразказвачи.
140
338000
2000
Ние сме вид, който обича истории.
05:55
We respondотговарям to storiesистории more than dataданни.
141
340000
3000
Реагираме повече на истории, отколкото на факти.
05:58
And there's some basicосновен innumeracyinnumeracy going on.
142
343000
2000
Освен това имаме проблем с математиката.
06:00
I mean, the jokeшега "One, Two, ThreeТри, ManyМного" is kindмил of right.
143
345000
3000
С това искам да кажа, че има нещо вярно в шегата -- "Едно, две, три, много".
06:03
We're really good at smallмалък numbersчисленост.
144
348000
3000
Ние сме добри с малките числа.
06:06
One mangoманго, two mangoesманго, threeтри mangoesманго,
145
351000
2000
Едно, две, три мангота.
06:08
10,000 mangoesманго, 100,000 mangoesманго --
146
353000
2000
10 000 мангота, 100 000 мангота --
06:10
it's still more mangoesманго you can eatЯжте before they rotгниене.
147
355000
3000
това са все още повече мангота от това, което можеш да изядеш преди да се развалят.
06:13
So one halfнаполовина, one quarterтримесечие, one fifthпети -- we're good at that.
148
358000
3000
Ние сме добри в половинки, четвъртини, петини.
06:16
One in a millionмилион, one in a billionмилиард --
149
361000
2000
Един на милион, един на милиард --
06:18
they're bothи двете almostпочти never.
150
363000
3000
и двете означават почти никога.
06:21
So we have troubleбеда with the risksрискове
151
366000
2000
Така ние имаме проблеми с рискове,
06:23
that aren'tне са very commonчесто срещани.
152
368000
2000
които не са много често срещани.
06:25
And what these cognitiveпознавателен biasesпристрастия do
153
370000
2000
Това, което правят когнитивните ни предразсъдъци
06:27
is they actакт as filtersфилтри betweenмежду us and realityреалност.
154
372000
3000
е да служат като филтър между нас и реалността.
06:30
And the resultрезултат
155
375000
2000
И резултатът е, че
06:32
is that feelingчувство and realityреалност get out of whackфрасвам,
156
377000
2000
усещането и реалността се разминават,
06:34
they get differentразличен.
157
379000
3000
стават ралични.
06:37
Now you eitherедин have a feelingчувство -- you feel more secureзащитено than you are.
158
382000
3000
Така или се чувстваш по-сигурен, отколкото си.
06:40
There's a falseфалшив senseсмисъл of securityсигурност.
159
385000
2000
Това е фалшиво чувство за сигурност.
06:42
Or the other way,
160
387000
2000
Или обратното,
06:44
and that's a falseфалшив senseсмисъл of insecurityнесигурност.
161
389000
2000
което пък е фалшиво чувство за несигурност.
06:46
I writeпиша a lot about "securityсигурност theaterтеатър,"
162
391000
3000
Аз пиша много за "театър на сигурността",
06:49
whichкойто are productsпродукти that make people feel secureзащитено,
163
394000
3000
това са продукти, кото карат хората да се чувстват сигурни,
06:52
but don't actuallyвсъщност do anything.
164
397000
2000
но не променят реално нищо.
06:54
There's no realреален wordдума for stuffматерия that makesправи us secureзащитено,
165
399000
2000
Няма конкретна дума за нещо, което да ни прави сигурни,
06:56
but doesn't make us feel secureзащитено.
166
401000
2000
но всъщност не ни кара да се чувстваме сигурни.
06:58
Maybe it's what the CIA'sНа ЦРУ supposedпредполагаем to do for us.
167
403000
3000
Може би това е едно от нещата, които ЦРУ трябва да прави за нас.
07:03
So back to economicsикономика.
168
408000
2000
Но нека се върнем към икономиката.
07:05
If economicsикономика, if the marketпазар, drivesкара securityсигурност,
169
410000
4000
Ако икономиките и пазарите движат сигурността
07:09
and if people make trade-offsкомпромиси
170
414000
2000
и ако хората правят равносметките си
07:11
basedбазиран on the feelingчувство of securityсигурност,
171
416000
3000
базирани на чувство за сигурност,
07:14
then the smartумен thing for companiesкомпании to do
172
419000
2000
то за компаниите е далновидно
07:16
for the economicикономически incentivesстимули
173
421000
2000
от икономически стимул
07:18
are to make people feel secureзащитено.
174
423000
3000
да накарат хората да се чувстват сигурни.
07:21
And there are two waysначини to do this.
175
426000
3000
Съществуват два начина да направите това.
07:24
One, you can make people actuallyвсъщност secureзащитено
176
429000
2000
Единият е да създадете сигурност за хората
07:26
and hopeнадявам се they noticeизвестие.
177
431000
2000
и да се надявате те да го забележат.
07:28
Or two, you can make people just feel secureзащитено
178
433000
3000
Или вторият е просто да ги накрате да се чувстват сигурни
07:31
and hopeнадявам се they don't noticeизвестие.
179
436000
3000
и да се надявате, че те няма да забележат.
07:35
So what makesправи people noticeизвестие?
180
440000
3000
И така -- какво ще накара хората да забележат?
07:38
Well a coupleдвойка of things:
181
443000
2000
Няколко неща:
07:40
understandingразбиране of the securityсигурност,
182
445000
2000
разбирането на сигурността,
07:42
of the risksрискове, the threatsзаплахи,
183
447000
2000
на рисковете, на заплахите,
07:44
the countermeasuresответни мерки, how they work.
184
449000
3000
на мерките срещу тях и как те работят.
07:47
But if you know stuffматерия,
185
452000
2000
Но ако имате примери,
07:49
you're more likelyвероятно to have your feelingsчувствата matchмач realityреалност.
186
454000
3000
е по-вероятно да съгласувате чувствата си с реалността.
07:52
EnoughДостатъчно realреален worldсвят examplesпримери helpsпомага.
187
457000
3000
Примери от истинския живот помагат.
07:55
Now we all know the crimeпрестъпление rateскорост in our neighborhoodквартал,
188
460000
3000
Например ние всички познаваме криминалното ниво в нашия квартал,
07:58
because we liveживея there, and we get a feelingчувство about it
189
463000
3000
защото живеем там и имаме усещане за нещата,
08:01
that basicallyв основата си matchesмачове realityреалност.
190
466000
3000
което чувство отговаря на реалността.
08:04
SecurityСигурност theater'sтеатър exposedизложен
191
469000
3000
Театърът на сигурността е разобличен,
08:07
when it's obviousочевиден that it's not workingработа properlyправилно.
192
472000
3000
когато е видимо, че не функционира.
08:10
Okay, so what makesправи people not noticeизвестие?
193
475000
4000
Добре, какво кара хората да не забелязват?
08:14
Well, a poorбеден understandingразбиране.
194
479000
2000
Например, неразбирането.
08:16
If you don't understandразбирам the risksрискове, you don't understandразбирам the costsразходи,
195
481000
3000
Ако не разбираш риска, ти не разбираш и разходите,
08:19
you're likelyвероятно to get the trade-offкомпромис wrongпогрешно,
196
484000
2000
така е по-вероятно да направиш погрешна сделка,
08:21
and your feelingчувство doesn't matchмач realityреалност.
197
486000
3000
и чувствата ти не отговарят на реалността.
08:24
Not enoughдостатъчно examplesпримери.
198
489000
2000
Липса на достатъчно примери.
08:26
There's an inherentприсъщ problemпроблем
199
491000
2000
Има един вроден проблем
08:28
with lowниско probabilityвероятност eventsсъбития.
200
493000
2000
със събитията, които се случват с малка вероятност.
08:30
If, for exampleпример,
201
495000
2000
Ако например
08:32
terrorismтероризъм almostпочти never happensслучва се,
202
497000
2000
терористичните атаки се случват рядко,
08:34
it's really hardтвърд to judgeсъдия
203
499000
2000
е наистина трудно да се отсъди
08:36
the efficacyефикасност of counter-terroristборба с тероризма measuresмерки.
204
501000
3000
ефективността на антитерористичните мерки.
08:40
This is why you keep sacrificingжертват virginsдевици,
205
505000
3000
Ето защо продължавате да правите човешки жертвоприношения
08:43
and why your unicornеднорог defensesукрепления are workingработа just great.
206
508000
3000
и защитата ви от еднорози работи перфектно.
08:46
There aren'tне са enoughдостатъчно examplesпримери of failuresнеуспехи.
207
511000
3000
Няма достатъчно примери за провали.
08:50
AlsoСъщо така, feelingsчувствата that are cloudingзамъгляване the issuesвъпроси --
208
515000
3000
Друг фактор са чувствата, които замъгляват нещата --
08:53
the cognitiveпознавателен biasesпристрастия I talkedговорих about earlierпо-рано,
209
518000
2000
това са когнитивните изкривявания на реалността, за които говорих по-рано:
08:55
fearsстрахове, folkфолк beliefsвярвания,
210
520000
3000
страхове, народни вярвания,
08:58
basicallyв основата си an inadequateнеадекватно modelмодел of realityреалност.
211
523000
3000
принципно един неадекватен модел на реалността.
09:02
So let me complicateусложняват things.
212
527000
3000
Позволете ми да усложня малко нещата.
09:05
I have feelingчувство and realityреалност.
213
530000
2000
За момента имам чувство и реалност.
09:07
I want to addдобави a thirdтрета elementелемент. I want to addдобави modelмодел.
214
532000
3000
Искам да добавя един трети елемент -- модел.
09:10
FeelingЧувство and modelмодел in our headглава,
215
535000
2000
Чувството и модела са в нашата глава,
09:12
realityреалност is the outsideизвън worldсвят.
216
537000
2000
реалността е извън нея.
09:14
It doesn't changeпромяна; it's realреален.
217
539000
3000
Тя не се променя, тя е реална.
09:17
So feelingчувство is basedбазиран on our intuitionинтуиция.
218
542000
2000
Чувството е базирано на нашата интуиция.
09:19
ModelМодел is basedбазиран on reasonпричина.
219
544000
2000
Моделът е подчинен на разума.
09:21
That's basicallyв основата си the differenceразлика.
220
546000
3000
Това е основната разлика.
09:24
In a primitiveпримитивен and simpleпрост worldсвят,
221
549000
2000
В един примитивен и опростен свят,
09:26
there's really no reasonпричина for a modelмодел
222
551000
3000
няма реална причина за модел.
09:29
because feelingчувство is closeблизо to realityреалност.
223
554000
3000
Тъй като чувството е близко до реалността,
09:32
You don't need a modelмодел.
224
557000
2000
нямате нужда от модел.
09:34
But in a modernмодерен and complexкомплекс worldсвят,
225
559000
2000
Но в един модерен и комплексен свят,
09:36
you need modelsмодели
226
561000
2000
вие имате нужда от модели,
09:38
to understandразбирам a lot of the risksрискове we faceлице.
227
563000
3000
за да разберете многото рискове, с които се сблъскваме.
09:42
There's no feelingчувство about germsмикроби.
228
567000
2000
Няма чувство за бактериите.
09:44
You need a modelмодел to understandразбирам them.
229
569000
3000
Вие имате нужда от модел, за да ги разберете.
09:47
So this modelмодел
230
572000
2000
Така този модел
09:49
is an intelligentинтелигентен representationпредставителство of realityреалност.
231
574000
3000
е интелигентна репрезентация на реалността.
09:52
It's, of courseкурс, limitedограничен by scienceнаука,
232
577000
3000
Разбира се тя е ограничена от науката
09:55
by technologyтехнология.
233
580000
2000
и от технологиите.
09:57
We couldn'tне можех have a germкълнове theoryтеория of diseaseболест
234
582000
3000
Не сме имали теория за бактериите,
10:00
before we inventedизобретен the microscopeмикроскоп to see them.
235
585000
3000
преди да открием микроскопа, с който можем да ги наблюдаваме.
10:04
It's limitedограничен by our cognitiveпознавателен biasesпристрастия.
236
589000
3000
Моделът е ограничен от нашето когнитивно изкривяване на реалността.
10:07
But it has the abilityспособност
237
592000
2000
Но има свойството
10:09
to overrideзамени our feelingsчувствата.
238
594000
2000
да надскача чувствата ни.
10:11
Where do we get these modelsмодели? We get them from othersдруги.
239
596000
3000
Къде намираме тези модели? Взимаме ги от другаде.
10:14
We get them from religionрелигия, from cultureкултура,
240
599000
3000
Възприемаме ги от религията, културата,
10:17
teachersучители, eldersстарейшини.
241
602000
2000
учителите ни, по-възрастните от нас.
10:19
A coupleдвойка yearsгодини agoпреди,
242
604000
2000
Преди няколко години,
10:21
I was in SouthЮжна AfricaАфрика on safariсафари.
243
606000
2000
бях на сафари в Южна Африка.
10:23
The trackerследа I was with grewизраснал up in KrugerКрюгер NationalНационалните ParkПарк.
244
608000
3000
Водачът ми беше израснал в националния парк "Крюгер".
10:26
He had some very complexкомплекс modelsмодели of how to surviveоцелее.
245
611000
3000
Така той притежаваше няколко много сложни модела как да оцелее.
10:29
And it dependedзависеше on if you were attackedнападнат
246
614000
2000
Зависеше дали си бил атакуван
10:31
by a lionЛъв or a leopardлеопард or a rhinoносорог or an elephantслон --
247
616000
2000
от лъв, леопард, носорог или слон,
10:33
and when you had to runтичам away, and when you couldn'tне можех runтичам away, and when you had to climbизкачвам се a treeдърво --
248
618000
3000
за да решиш дали трябва да бягаш или да се катериш на дърво --
10:36
when you could never climbизкачвам се a treeдърво.
249
621000
2000
когато никога не си се катерил на дърво.
10:38
I would have diedпочинал in a day,
250
623000
3000
Аз щях да загина само за един ден в такава ситуация,
10:41
but he was bornроден there,
251
626000
2000
но той беше роден там,
10:43
and he understoodразбрах how to surviveоцелее.
252
628000
2000
и знаеше как да оцелее.
10:45
I was bornроден in NewНов YorkЙорк CityГрад.
253
630000
2000
Аз съм роден в Ню Йорк.
10:47
I could have takenвзета him to NewНов YorkЙорк, and he would have diedпочинал in a day.
254
632000
3000
Ако аз го бях завел в Ню Йорк, той щеше да умре за един ден.
10:50
(LaughterСмях)
255
635000
2000
(Смях)
10:52
Because we had differentразличен modelsмодели
256
637000
2000
Това се дължи на факта, че имаме различни модели,
10:54
basedбазиран on our differentразличен experiencesпреживявания.
257
639000
3000
базирани на различния опит, който сме събрали.
10:58
ModelsМодели can come from the mediaсредства,
258
643000
2000
Моделите могат да бъдат създадени от медиите,
11:00
from our electedизбран officialsдлъжностни лица.
259
645000
3000
от нашите официално избрани представители във властта.
11:03
Think of modelsмодели of terrorismтероризъм,
260
648000
3000
Помислете само за моделите на тероризма,
11:06
childдете kidnappingотвличане,
261
651000
3000
отвличането на деца,
11:09
airlineавиолиния safetyбезопасност, carкола safetyбезопасност.
262
654000
2000
сигурността на въздушния и автомобилен транспорт.
11:11
ModelsМодели can come from industryпромишленост.
263
656000
3000
Моделите могат да дойдат от индустрията.
11:14
The two I'm followingследното are surveillanceнаблюдение camerasфотоапарати,
264
659000
2000
Двата модела, които следя са видео камерите
11:16
IDИД cardsкарти,
265
661000
2000
и личните карти.
11:18
quiteсъвсем a lot of our computerкомпютър securityсигурност modelsмодели come from there.
266
663000
3000
Голяма част от моделите за сигурност на нашите компютри идват от тази област.
11:21
A lot of modelsмодели come from scienceнаука.
267
666000
3000
Голяма част от моделите идват от науката.
11:24
HealthЗдраве modelsмодели are a great exampleпример.
268
669000
2000
Здравните модели са добър пример за това.
11:26
Think of cancerрак, of birdптица fluгрип, swineсвине fluгрип, SARSТОРС.
269
671000
3000
Помислете за рака, птичия грип, свинския грип, САРС-а.
11:29
All of our feelingsчувствата of securityсигурност
270
674000
3000
Всичките ни страхове
11:32
about those diseasesзаболявания
271
677000
2000
от различни болести
11:34
come from modelsмодели
272
679000
2000
идват от модели,
11:36
givenдаден to us, really, by scienceнаука filteredфилтриран throughпрез the mediaсредства.
273
681000
3000
предоставени ни от науката и филтрирани от медиите.
11:40
So modelsмодели can changeпромяна.
274
685000
3000
Така моделите могата да се променят.
11:43
ModelsМодели are not staticстатични.
275
688000
2000
Те не са статични.
11:45
As we becomeда стане more comfortableкомфортен in our environmentsсреди,
276
690000
3000
Колкото по-сигурни ставаме в заобикалящата ни среда,
11:48
our modelмодел can moveход closerпо близо to our feelingsчувствата.
277
693000
4000
толкова повече моделите се доближават до нашите емоции.
11:53
So an exampleпример mightбиха могли, може be,
278
698000
2000
Добър пример за това е,
11:55
if you go back 100 yearsгодини agoпреди
279
700000
2000
ако се върнете 100 години назад,
11:57
when electricityелектричество was first becomingпревръща commonчесто срещани,
280
702000
3000
страхът от електричеството,
12:00
there were a lot of fearsстрахове about it.
281
705000
2000
когато то едва е прохождало.
12:02
I mean, there were people who were afraidуплашен to pushтласък doorbellsdoorbells,
282
707000
2000
Тогава е имало хора, които са се страхували да натискат звънците,
12:04
because there was electricityелектричество in there, and that was dangerousопасно.
283
709000
3000
защото по тях е течало електричество, което от своя страна е било опасно.
12:07
For us, we're very facileсговорчив around electricityелектричество.
284
712000
3000
Ние сме безгрижни по отношение на електричеството.
12:10
We changeпромяна lightсветлина bulbsкрушки
285
715000
2000
Сменяме електрически крушки,
12:12
withoutбез even thinkingмислене about it.
286
717000
2000
без дори да се замислим.
12:14
Our modelмодел of securityсигурност around electricityелектричество
287
719000
4000
Нашият модел за електричеството
12:18
is something we were bornроден into.
288
723000
3000
е нещо, с което сме се родили.
12:21
It hasn'tне е changedпроменен as we were growingнарастващ up.
289
726000
3000
Не се е променило докато сме израствали.
12:24
And we're good at it.
290
729000
3000
И ние сме добри в него.
12:27
Or think of the risksрискове
291
732000
2000
Замислете се също така за рисковете
12:29
on the InternetИнтернет acrossпрез generationsпоколения --
292
734000
2000
от интернет, разглеждани от различни поколения --
12:31
how your parentsродители approachподход InternetИнтернет securityсигурност,
293
736000
2000
как се отнасят вашите родители към сигурността на интернет,
12:33
versusсрещу how you do,
294
738000
2000
как се отнасяте вие
12:35
versusсрещу how our kidsдеца will.
295
740000
3000
и как ще я възприемат нашите деца.
12:38
ModelsМодели eventuallyв крайна сметка fadeзамирам into the backgroundзаден план.
296
743000
3000
Моделите понякога избледняват на заден план.
12:42
IntuitiveИнтуитивен is just anotherоще wordдума for familiarзапознат.
297
747000
3000
Интуитивно е просто друга дума за познато.
12:45
So as your modelмодел is closeблизо to realityреалност,
298
750000
2000
Така вашият модел е близък до реалността
12:47
and it convergesклони with feelingsчувствата,
299
752000
2000
и така се слива с емоциите,
12:49
you oftenчесто don't know it's there.
300
754000
3000
и така вие често не знаете дали е там.
12:52
So a niceприятен exampleпример of this
301
757000
2000
Подходящ пример за това
12:54
cameдойде from last yearгодина and swineсвине fluгрип.
302
759000
3000
предлага свинския грип от миналата година.
12:57
When swineсвине fluгрип first appearedсе появява,
303
762000
2000
Когато свинският грип се появи за първи път,
12:59
the initialпървоначален newsНовини causedпричинен a lot of overreactionoverreaction.
304
764000
4000
първоначалните новини преувеличиха проблема.
13:03
Now it had a nameиме,
305
768000
2000
Така болестта имаше име,
13:05
whichкойто madeизработен it scarierплашещо than the regularредовен fluгрип,
306
770000
2000
което я правеше по-страшна от нормалния грип,
13:07
even thoughвъпреки че it was more deadlyсмъртоносен.
307
772000
2000
макар и нормалния грип да беше по-смъртоносен.
13:09
And people thought doctorsлекари should be ableспособен to dealсделка with it.
308
774000
4000
Хората си мислеха, че докторите трябва да са в състояние да се справят с него.
13:13
So there was that feelingчувство of lackлипса of controlконтрол.
309
778000
2000
Така се създаде чувството, че се губи контрол.
13:15
And those two things
310
780000
2000
И така тези две неща
13:17
madeизработен the riskриск more than it was.
311
782000
2000
преувеличиха риска.
13:19
As the noveltyновост woreносеше off, the monthsмесеца wentотидох by,
312
784000
3000
С времето новината избледня,
13:22
there was some amountколичество of toleranceтолерантност,
313
787000
2000
можехме да си поемем глътка въздух,
13:24
people got used to it.
314
789000
2000
а и хората свикнаха с новината.
13:26
There was no newнов dataданни, but there was lessпо-малко fearстрах.
315
791000
3000
Нямаше нови факти, но затова пък имаше по-малко страх.
13:29
By autumnЕсен,
316
794000
2000
До есента
13:31
people thought
317
796000
2000
хората си мислеха,
13:33
the doctorsлекари should have solvedрешен this alreadyвече.
318
798000
2000
че лекарите вече са намерили решение на проблема.
13:35
And there's kindмил of a bifurcationбифуркация --
319
800000
2000
И това е някакъв вид разклонение --
13:37
people had to chooseизбирам
320
802000
2000
хората трябваше да избират
13:39
betweenмежду fearстрах and acceptanceприемане --
321
804000
4000
между страх и приемане на фактите --
13:43
actuallyвсъщност fearстрах and indifferenceбезразличие --
322
808000
2000
всъщност страх и безразличие --
13:45
they kindмил of choseизбрах suspicionсъмнението.
323
810000
3000
те сякаш избраха подозрение.
13:48
And when the vaccineваксина appearedсе появява last winterзима,
324
813000
3000
Когато ваксината се появи миналата зима,
13:51
there were a lot of people -- a surprisingизненадващ numberномер --
325
816000
3000
изненадващо голям брой хора
13:54
who refusedотказва to get it --
326
819000
3000
отказа да се ваксинира --
13:58
as a niceприятен exampleпример
327
823000
2000
това е добър пример
14:00
of how people'sнародната feelingsчувствата of securityсигурност changeпромяна, how theirтехен modelмодел changesпромени,
328
825000
3000
как се променя усещането за сигурност на хората, как се променят техните модели --
14:03
sortвид of wildlyдиво
329
828000
2000
по някакъв хаотичен начин,
14:05
with no newнов informationинформация,
330
830000
2000
без постъпване на нова инфомация,
14:07
with no newнов inputвход.
331
832000
2000
без нещо да се е променило.
14:09
This kindмил of thing happensслучва се a lot.
332
834000
3000
Това се случва многократно.
14:12
I'm going to give one more complicationусложнение.
333
837000
3000
И тук искам да усложня още малко картината.
14:15
We have feelingчувство, modelмодел, realityреалност.
334
840000
3000
Вече имаме чувство, модел, реалност.
14:18
I have a very relativisticрелативистична viewизглед of securityсигурност.
335
843000
2000
Аз имам доста релативистичен поглед към сигурността.
14:20
I think it dependsЗависи on the observerнаблюдател.
336
845000
3000
Мисля, че зависи от наблюдателя.
14:23
And mostнай-много securityсигурност decisionsрешения
337
848000
2000
В повечето решения
14:25
have a varietyразнообразие of people involvedучастващи.
338
850000
4000
участват редица хора.
14:29
And stakeholdersзаинтересованите страни
339
854000
2000
Участници,
14:31
with specificспецифичен trade-offsкомпромиси
340
856000
3000
правещи различни сметки,
14:34
will try to influenceвлияние the decisionрешение.
341
859000
2000
ще се опитат да повлияят на решението.
14:36
And I call that theirтехен agendaдневен ред.
342
861000
2000
Аз наричам това тяхната програма.
14:38
And you see agendaдневен ред --
343
863000
2000
И вие виждате такава програма в
14:40
this is marketingмаркетинг, this is politicsполитика --
344
865000
3000
маркетинга, политиката --
14:43
tryingопитвайки to convinceубеждавам you to have one modelмодел versusсрещу anotherоще,
345
868000
3000
в опит да ви убедят да изберете един модел пред друг,
14:46
tryingопитвайки to convinceубеждавам you to ignoreигнорирам a modelмодел
346
871000
2000
или да игнорирате модела
14:48
and trustДоверие your feelingsчувствата,
347
873000
3000
и да се доверите на чувствата си,
14:51
marginalizingмаргинализиране people with modelsмодели you don't like.
348
876000
3000
маргинализирайки хора с модели, които не харесвате.
14:54
This is not uncommonнечести.
349
879000
3000
Това не е необичайно.
14:57
An exampleпример, a great exampleпример, is the riskриск of smokingпушене.
350
882000
3000
Много добър пример за това е рискът от тютюнопушенето.
15:01
In the historyистория of the pastминало 50 yearsгодини, the smokingпушене riskриск
351
886000
3000
През последните 50 години рискът от тютюнопушене
15:04
showsпредавания how a modelмодел changesпромени,
352
889000
2000
показва как един модел се променя
15:06
and it alsoсъщо showsпредавания how an industryпромишленост fightsбоеве againstсрещу
353
891000
3000
и също така показва как индустрията се бори
15:09
a modelмодел it doesn't like.
354
894000
2000
с модел, който не харесва.
15:11
CompareСравни that to the secondhandвтора употреба smokeдим debateдебат --
355
896000
3000
И нека сега да направим сравнението с дебата против пасивното тютюнопушене
15:14
probablyвероятно about 20 yearsгодини behindзад.
356
899000
3000
преди 20 години.
15:17
Think about seatседалка beltsколани.
357
902000
2000
Замислете се също така за предпазните колани в колите.
15:19
When I was a kidхлапе, no one woreносеше a seatседалка beltколан.
358
904000
2000
Когато бях дете никой не носеше предпазни колани.
15:21
NowadaysВ днешно време, no kidхлапе will let you driveпът
359
906000
2000
В момента никое дете няма да ви позволи да карате,
15:23
if you're not wearingносенето a seatседалка beltколан.
360
908000
2000
ако не носите предпазен колан.
15:26
CompareСравни that to the airbagвъздушна възглавница debateдебат --
361
911000
2000
Сравнете това с дискусията с въздушните възглавници в колите
15:28
probablyвероятно about 30 yearsгодини behindзад.
362
913000
3000
преди 30 години.
15:31
All examplesпримери of modelsмодели changingсмяна.
363
916000
3000
Всички примери за модели показват как те са се променили.
15:36
What we learnуча is that changingсмяна modelsмодели is hardтвърд.
364
921000
3000
Това което научаваме е, че да промениш модел е трудно.
15:39
ModelsМодели are hardтвърд to dislodgeизкарвам.
365
924000
2000
Сложно е да отстраниш модел.
15:41
If they equalравен your feelingsчувствата,
366
926000
2000
Ако моделите съвпадат с емоциите ви,
15:43
you don't even know you have a modelмодел.
367
928000
3000
вие дори не забелязвате, че те съществуват.
15:46
And there's anotherоще cognitiveпознавателен biasотклонение
368
931000
2000
Съществува още едно когнитивно изкривяване на реалността.
15:48
I'll call confirmationпотвърждаване biasотклонение,
369
933000
2000
Ще го нарека предразположение към потвърждението.
15:50
where we tendсклонен to acceptприемам dataданни
370
935000
3000
Ние сме склонни да приемаме факти,
15:53
that confirmsпотвърждава our beliefsвярвания
371
938000
2000
които потвърждават нашите вярвания
15:55
and rejectотхвърли dataданни that contradictsпротиворечи на our beliefsвярвания.
372
940000
3000
и отхвърлят факти, които противоречат на нашите вярвания.
15:59
So evidenceдоказателства againstсрещу our modelмодел,
373
944000
2000
Така игнорираме доказателства срещу нашия модел,
16:01
we're likelyвероятно to ignoreигнорирам, even if it's compellingнепреодолими.
374
946000
3000
дори когато те са убедителни.
16:04
It has to get very compellingнепреодолими before we'llдобре payплащам attentionвнимание.
375
949000
3000
Трябва да станат много убедителни преди да им обърнем внимание.
16:08
NewНов modelsмодели that extendразшири long periodsпериоди of time are hardтвърд.
376
953000
2000
Трудно е да си създадем модели, които да са валидни през дълги периоди от време.
16:10
GlobalГлобални warmingзагряване is a great exampleпример.
377
955000
2000
Глобалното затопляне е един добър пример за това.
16:12
We're terribleужасен
378
957000
2000
Ужасно трудно ни е
16:14
at modelsмодели that spanпедя 80 yearsгодини.
379
959000
2000
да създадем модели, които се простират до 80 години.
16:16
We can do to the nextследващия harvestжътва.
380
961000
2000
Можем да направим модел до следващата реколта.
16:18
We can oftenчесто do untilдо our kidsдеца growрастат up.
381
963000
3000
Често можем да проектираме модел, докато децата ни порастнат.
16:21
But 80 yearsгодини, we're just not good at.
382
966000
3000
Но 80 години надминават способностите ни.
16:24
So it's a very hardтвърд modelмодел to acceptприемам.
383
969000
3000
Така това също е труден модел за приемане.
16:27
We can have bothи двете modelsмодели in our headглава simultaneouslyедновременно,
384
972000
4000
Може два модела да съжителстват едновременно в главата ни,
16:31
right, that kindмил of problemпроблем
385
976000
3000
а има и друг проблем,
16:34
where we're holdingдържеше bothи двете beliefsвярвания togetherзаедно,
386
979000
3000
при който вярваме едновременно в две неща
16:37
right, the cognitiveпознавателен dissonanceдисонанс.
387
982000
2000
или имаме когнитивен дисонанс в главата ни.
16:39
EventuallyВ крайна сметка,
388
984000
2000
Накрая,
16:41
the newнов modelмодел will replaceзамени the oldстар modelмодел.
389
986000
3000
новият модел ще замени стария.
16:44
StrongСилна feelingsчувствата can createсъздавам a modelмодел.
390
989000
3000
Силни емоции също могат да създадат модел.
16:47
SeptemberСептември 11thтата createdсъздаден a securityсигурност modelмодел
391
992000
3000
11 септември създаде модел за сигурността
16:50
in a lot of people'sнародната headsглави.
392
995000
2000
в главите на много хора.
16:52
AlsoСъщо така, personalперсонален experiencesпреживявания with crimeпрестъпление can do it,
393
997000
3000
Това важи и за личен опит с престъпността,
16:55
personalперсонален healthздраве scareплаша,
394
1000000
2000
страхове за личното здраве,
16:57
a healthздраве scareплаша in the newsНовини.
395
1002000
2000
страхове от епидемия разпространени в новините,
16:59
You'llВие ще see these calledНаречен flashbulbflashbulb eventsсъбития
396
1004000
2000
Тези събития са дефинирани от психиатрите,
17:01
by psychiatristsПсихиатрите.
397
1006000
2000
като сигнални събития.
17:03
They can createсъздавам a modelмодел instantaneouslyмигновено,
398
1008000
3000
Те могат да създадат модел мигновено,
17:06
because they're very emotiveемоционален.
399
1011000
3000
защото са много емоционални.
17:09
So in the technologicalтехнологически worldсвят,
400
1014000
2000
Така в модерния технологичен свят,
17:11
we don't have experienceопит
401
1016000
2000
ние често не притежаваме необходимия опит,
17:13
to judgeсъдия modelsмодели.
402
1018000
2000
за да отсъдим дали един модел е правилен или не.
17:15
And we relyразчитам on othersдруги. We relyразчитам on proxiesпълномощни.
403
1020000
2000
Така ние се доверяваме на други. Доверяваме се на заместници,
17:17
I mean, this worksвърши работа as long as it's to correctправилен othersдруги.
404
1022000
4000
Това работи до момента, докато служи да коригира останалите.
17:21
We relyразчитам on governmentправителство agenciesагенции
405
1026000
2000
Ние се доверяваме на правителствени агенции
17:23
to tell us what pharmaceuticalsфармацевтични продукти are safeсейф.
406
1028000
5000
да ни кажат дали лекарствата са безопасни.
17:28
I flewотлетя here yesterdayвчера.
407
1033000
2000
Аз долетях вчера,
17:30
I didn't checkпроверка the airplaneсамолет.
408
1035000
2000
без да проверя лично дали самолетът е в изправност.
17:32
I reliedсе позовава on some other groupгрупа
409
1037000
2000
Доверих се на друг
17:34
to determineопредели whetherдали my planeсамолет was safeсейф to flyлетя.
410
1039000
3000
да реши дали самолетът ми е сигурен.
17:37
We're here, noneнито един of us fearстрах the roofпокрив is going to collapseколапс on us,
411
1042000
3000
Ние седим в залата и никой не се страхува, че покривът ще се срути над главите ни,
17:40
not because we checkedПроверих,
412
1045000
3000
не защото някой от нас го е проверил,
17:43
but because we're prettyкрасива sure
413
1048000
2000
а защото вярваме,
17:45
the buildingсграда codesкодове here are good.
414
1050000
3000
че наредбите за строителство тук са достатъчно добри.
17:48
It's a modelмодел we just acceptприемам
415
1053000
2000
Това е модел, който ние приемаме
17:50
prettyкрасива much by faithвяра.
416
1055000
2000
до голяма степен на доверие.
17:52
And that's okay.
417
1057000
3000
И това е добре.
17:57
Now, what we want
418
1062000
2000
Това, което обаче искаме е
17:59
is people to get familiarзапознат enoughдостатъчно
419
1064000
2000
хората да опознаят
18:01
with better modelsмодели --
420
1066000
2000
достатъчно по-добри модели --
18:03
have it reflectedотразени in theirтехен feelingsчувствата --
421
1068000
2000
които да са рефлектирали в чувствата им --
18:05
to allowпозволява them to make securityсигурност trade-offsкомпромиси.
422
1070000
4000
за да им помогнат да взимат правилни решения свързани със сигурността.
18:09
Now when these go out of whackфрасвам,
423
1074000
2000
Когато тези излязат от синхрон,
18:11
you have two optionsнастроики.
424
1076000
2000
вие имате два избора.
18:13
One, you can fixфиксира people'sнародната feelingsчувствата,
425
1078000
2000
Единият е да промените чувствата на хората,
18:15
directlyпряко appealобжалване to feelingsчувствата.
426
1080000
2000
като се отнесете пряко към тях.
18:17
It's manipulationманипулация, but it can work.
427
1082000
3000
Това е манипулация, която обаче може да проработи.
18:20
The secondвтори, more honestчестен way
428
1085000
2000
Вторият, по-честен начин е
18:22
is to actuallyвсъщност fixфиксира the modelмодел.
429
1087000
3000
наистина да подобрите модела.
18:26
ChangeПромяна happensслучва се slowlyбавно.
430
1091000
2000
Промените се случват бавно.
18:28
The smokingпушене debateдебат tookвзеха 40 yearsгодини,
431
1093000
3000
Дискусията с тютюнопушенето отне 40 години
18:31
and that was an easyлесно one.
432
1096000
3000
и това беше сравнително лесен дебат.
18:34
Some of this stuffматерия is hardтвърд.
433
1099000
2000
Някои от тези неща са трудни.
18:36
I mean really thoughвъпреки че,
434
1101000
2000
Подчертавам наистина сложни.
18:38
informationинформация seemsИзглежда like our bestнай-доброто hopeнадявам се.
435
1103000
2000
Информацията изглежда като единствената ни надежда.
18:40
And I liedизлъга.
436
1105000
2000
И аз ви излъгах.
18:42
RememberЗапомни I said feelingчувство, modelмодел, realityреалност;
437
1107000
2000
Спомнете си, когато ви разказах за чувствата, моделите и реалността.
18:44
I said realityреалност doesn't changeпромяна. It actuallyвсъщност does.
438
1109000
3000
Казах ви, че реалността не се променя. Всъщност дори и тя се променя.
18:47
We liveживея in a technologicalтехнологически worldсвят;
439
1112000
2000
Ние живеем в технологичен свят;
18:49
realityреалност changesпромени all the time.
440
1114000
3000
реалността се променя непрекъснато.
18:52
So we mightбиха могли, може have -- for the first time in our speciesвид --
441
1117000
3000
Така може би за първи път в човешката история ще имаме случай,
18:55
feelingчувство chasesпреследвания modelмодел, modelмодел chasesпреследвания realityреалност, reality'sна реалността movingдвижещ --
442
1120000
3000
в който чувствата следват моделите, моделите реалността, а реалността се променя.
18:58
they mightбиха могли, може never catchулов up.
443
1123000
3000
Така те може никога да не се настигнат.
19:02
We don't know.
444
1127000
2000
Ние не знаем какво ще се случи.
19:04
But in the long-termдългосрочен,
445
1129000
2000
Но в дългосрочен план
19:06
bothи двете feelingчувство and realityреалност are importantважно.
446
1131000
3000
чувствата и действителността са важни.
19:09
And I want to closeблизо with two quickбърз storiesистории to illustrateилюстрирам this.
447
1134000
3000
Искам да приключа с две кратки истории, които ще покажат нагледно какво имам предвид.
19:12
1982 -- I don't know if people will rememberпомня this --
448
1137000
2000
Не знам дали някой си спомня, но през 1982
19:14
there was a shortнисък epidemicепидемия
449
1139000
3000
имаше кратка епидемия
19:17
of TylenolTylenol poisoningsотравяния in the UnitedЮнайтед StatesДържавите.
450
1142000
2000
от отравяне с Tylenol в Съединените Щати.
19:19
It's a horrificужасяващ storyистория. SomeoneНякой tookвзеха a bottleбутилка of TylenolTylenol,
451
1144000
3000
Историята е ужасяваща. Някой взима бутилка Tylenol,
19:22
put poisonотрова in it, closedзатворен it up, put it back on the shelfСтелаж.
452
1147000
3000
добавя отрова в нея, затваря я и я поставя обратно на рафта,
19:25
SomeoneНякой elseоще boughtкупих it and diedпочинал.
453
1150000
2000
Някой друг я купува и умира.
19:27
This terrifiedужасен people.
454
1152000
2000
Това ужаси хората.
19:29
There were a coupleдвойка of copycatимитатор attacksнападки.
455
1154000
2000
Случиха се още няколко подобни атаки.
19:31
There wasn'tне е any realреален riskриск, but people were scaredуплашен.
456
1156000
3000
При тях не съществуваше реален риск, но хората бяха уплашени.
19:34
And this is how
457
1159000
2000
И така
19:36
the tamper-proofфалшифициране drugлекарство industryпромишленост was inventedизобретен.
458
1161000
2000
беше създадена цяла индустрия срещу манипулация на лекарства.
19:38
Those tamper-proofфалшифициране capsшапки, that cameдойде from this.
459
1163000
2000
Така се появиха запечатаните капачки на лекарствата.
19:40
It's completeпълен securityсигурност theaterтеатър.
460
1165000
2000
Това е пълен театър на сигурността.
19:42
As a homeworkдомашна работа assignmentназначение, think of 10 waysначини to get around it.
461
1167000
2000
Опитайте се като домашно да измислите 10 начина да заобиколите предпазващите капачки.
19:44
I'll give you one, a syringeспринцовка.
462
1169000
3000
Ще ви подскажа един начин -- със спринцовка.
19:47
But it madeизработен people feel better.
463
1172000
3000
Но тази сигурност кара хората да се чувстват по-добре.
19:50
It madeизработен theirтехен feelingчувство of securityсигурност
464
1175000
2000
Подпомага чувството им за сигурност
19:52
more matchмач the realityреалност.
465
1177000
2000
да съвпадне с реалността.
19:54
Last storyистория, a fewмалцина yearsгодини agoпреди, a friendприятел of mineмоята gaveдадох birthраждане.
466
1179000
3000
Последната история е за моя приятелка, която роди преди няколко години.
19:57
I visitпосещение her in the hospitalболница.
467
1182000
2000
Аз я посетих в болницата.
19:59
It turnsзавои out when a baby'sна бебето bornроден now,
468
1184000
2000
Там стана ясно, че при раждането на бебето и майката
20:01
they put an RFIDRFID braceletгривна on the babyбебе,
469
1186000
2000
се поставят идентификационни гривни,
20:03
put a correspondingсъответен one on the motherмайка,
470
1188000
2000
които са свързани,
20:05
so if anyoneнякой other than the motherмайка takes the babyбебе out of the maternityмайчинство wardопека,
471
1190000
2000
така ако различен човек от майката вземе бебето,
20:07
an alarmаларма goesотива off.
472
1192000
2000
ще се задейства аларма.
20:09
I said, "Well, that's kindмил of neatчист.
473
1194000
2000
Казах, че това е доста хубаво.
20:11
I wonderчудя се how rampantизправен babyбебе snatchingзахващащи is
474
1196000
2000
Но се чудя колко често срещано е да ти откраднат бебето
20:13
out of hospitalsболници."
475
1198000
2000
от болницата.
20:15
I go home, I look it up.
476
1200000
2000
Прибрах се в къщи и проверих.
20:17
It basicallyв основата си never happensслучва се.
477
1202000
2000
Оказа се, че това никога не се е случвало.
20:19
But if you think about it,
478
1204000
2000
Но ако се замислите,
20:21
if you are a hospitalболница,
479
1206000
2000
ако сте на мястото на болницата
20:23
and you need to take a babyбебе away from its motherмайка,
480
1208000
2000
и трябва да вземете бебето за изследвания
20:25
out of the roomстая to runтичам some testsтестове,
481
1210000
2000
от стаята на майката му
20:27
you better have some good securityсигурност theaterтеатър,
482
1212000
2000
е по-добре да разиграете някакъв добър театър,
20:29
or she's going to ripПочивай в мир your armръка off.
483
1214000
2000
иначе тя ще ви извие ръцете.
20:31
(LaughterСмях)
484
1216000
2000
(Смях)
20:33
So it's importantважно for us,
485
1218000
2000
Така че е важно за всички нас,
20:35
those of us who designдизайн securityсигурност,
486
1220000
2000
тези които дефинират сигурността,
20:37
who look at securityсигурност policyполитика,
487
1222000
3000
тези които изработват законодателството за сигурността
20:40
or even look at publicобществен policyполитика
488
1225000
2000
или дори работят с обществени въпроси, които
20:42
in waysначини that affectзасегне securityсигурност.
489
1227000
2000
засягат сигурността:
20:44
It's not just realityреалност; it's feelingчувство and realityреалност.
490
1229000
3000
Не става въпрос само за реалност, става въпрос за сигурност и реалност.
20:47
What's importantважно
491
1232000
2000
Важно е да се разбере,
20:49
is that they be about the sameедин и същ.
492
1234000
2000
че те са почти сходни.
20:51
It's importantважно that, if our feelingsчувствата matchмач realityреалност,
493
1236000
2000
Същественото е това, че ако чувствата ни отговарят на реалността,
20:53
we make better securityсигурност trade-offsкомпромиси.
494
1238000
2000
ние взимаме по-добри решения.
20:55
Thank you.
495
1240000
2000
Благодаря ви!
20:57
(ApplauseАплодисменти)
496
1242000
2000
(Аплодисменти)
Translated by Denitza Toteva
Reviewed by Anton Hikov

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com