ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Bruce Schneier: Přízrak bezpečnosti

Filmed:
958,315 views

Pocit a skutečné bezpečí si ne vždy odpovídají, tvrdí odborník na počítačovou bezpečnost Bruce Schneier. Na přednášce TED při Penn State University vysvětluje, proč utrácíme miliardy na vypořádávání se s bulvárními riziky -- například na bezpečnostní divadlo, které se denně odehrává na všech letištích, zatímco opomíjíme rizika pravděpodobnější -- a jak lze tento návyk zlomit.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securitybezpečnostní is two differentodlišný things:
0
0
2000
Takže bezpečí jsou dvě různé věci:
00:17
it's a feelingpocit, and it's a realityrealita.
1
2000
2000
je to pocit a je to realita.
00:19
And they're differentodlišný.
2
4000
2000
A tyto se liší.
00:21
You could feel securezabezpečení
3
6000
2000
Můžete se cítit bezpečně,
00:23
even if you're not.
4
8000
2000
i když jste v nebezpečí.
00:25
And you can be securezabezpečení
5
10000
2000
A můžete být v bezpečí,
00:27
even if you don't feel it.
6
12000
2000
i když se tak necítíte.
00:29
Really, we have two separatesamostatný conceptskoncepty
7
14000
2000
Jsou to skutečně dva různé pojmy
00:31
mappedmapované ontona the samestejný wordslovo.
8
16000
2000
v jednom slově.
00:33
And what I want to do in this talk
9
18000
2000
A to, co chci touto přednáškou dokázat,
00:35
is to splitrozdělit them apartodděleně --
10
20000
2000
je oddělit je:
00:37
figuringztvárnění out when they divergerozcházejí
11
22000
2000
přijít na to, kde se rozcházejí
00:39
and how they convergese sbíhají.
12
24000
2000
a kde se přibližují.
00:41
And languageJazyk is actuallyvlastně a problemproblém here.
13
26000
2000
A jazyk je zde vlastně překážkou.
00:43
There aren'tnejsou a lot of good wordsslova
14
28000
2000
Není mnoho dobrých slov
00:45
for the conceptskoncepty we're going to talk about.
15
30000
3000
pro pojmy, o kterých budeme hovořit.
00:48
So if you look at securitybezpečnostní
16
33000
2000
Takže, pokud se díváme na bezpečí
00:50
from economichospodářský termspodmínky,
17
35000
2000
z ekonomického hlediska,
00:52
it's a trade-offkompromis.
18
37000
2000
jde o směnný obchod.
00:54
EveryKaždý time you get some securitybezpečnostní,
19
39000
2000
Vždy, když získáte trochu bezpečí,
00:56
you're always tradingobchodování off something.
20
41000
2000
něčím za něj platíte.
00:58
WhetherZda má být this is a personalosobní decisionrozhodnutí --
21
43000
2000
Ať je to již při osobním rozhodnutí --
01:00
whetherzda you're going to installNainstalujte a burglarlupič alarmpoplach in your home --
22
45000
2000
necháte-li si doma nainstalovat alarm --
01:02
or a nationalnárodní decisionrozhodnutí -- where you're going to invadenapadnout some foreignzahraniční, cizí countryzemě --
23
47000
3000
nebo národním -- zda napadnout cizí zemi --
01:05
you're going to tradeobchod off something,
24
50000
2000
něčím za to budete platit.
01:07
eitherbuď moneypeníze or time, conveniencepohodlí, capabilitiesschopností,
25
52000
3000
Penězi či časem, pohodlím, možnostmi,
01:10
maybe fundamentalzákladní libertiessvobod.
26
55000
3000
třeba i základními svobodami.
01:13
And the questionotázka to askdotázat se when you look at a securitybezpečnostní anything
27
58000
3000
A otázka, kterou je třeba si při zabezpečování položit,
01:16
is not whetherzda this makesdělá us saferbezpečnější,
28
61000
3000
není: zda nám to přidá bezpečí,
01:19
but whetherzda it's worthhodnota the trade-offkompromis.
29
64000
3000
ale: zda cena nebude příliš vysoká.
01:22
You've heardslyšel in the pastminulost severalněkolik yearsroky,
30
67000
2000
Poslední roky jste slýchávali,
01:24
the worldsvět is saferbezpečnější because SaddamSaddám HusseinHusajn is not in powerNapájení.
31
69000
2000
že svět je bezpečnější, protože Saddám Husajn byl odstaven.
01:26
That mightmohl be trueskutečný, but it's not terriblystrašně relevantrelevantní.
32
71000
3000
To je snad pravda, ale není to tolik podstatné.
01:29
The questionotázka is, was it worthhodnota it?
33
74000
3000
Otázkou je: stálo to za to?
01:32
And you can make your ownvlastní decisionrozhodnutí,
34
77000
3000
A odpovědět se můžete pokusit sami,
01:35
and then you'llBudete deciderozhodni se whetherzda the invasioninvaze was worthhodnota it.
35
80000
2000
zda cena za invazi nebyla příliš vysoká.
01:37
That's how you think about securitybezpečnostní --
36
82000
2000
Toto je kterak přemýšlet o bezpečí --
01:39
in termspodmínky of the trade-offkompromis.
37
84000
2000
v pojmech nákladů.
01:41
Now there's oftenčasto no right or wrongšpatně here.
38
86000
3000
Často zde chybí měřítko správnosti.
01:44
Some of us have a burglarlupič alarmpoplach systemSystém at home,
39
89000
2000
Někteří máme doma alarm
01:46
and some of us don't.
40
91000
2000
a jiní ne.
01:48
And it'llto bude dependzáviset on where we livežít,
41
93000
2000
Závisí to na tom, kde žijeme.
01:50
whetherzda we livežít alonesama or have a familyrodina,
42
95000
2000
Je-li to s rodinou nebo osamoceně,
01:52
how much coolchladný stuffvěci we have,
43
97000
2000
či kolik skvělých věcí doma máme
01:54
how much we're willingochotný to acceptakceptovat
44
99000
2000
a jak moc jsme ochotni riziko
01:56
the riskriziko of theftkrádež.
45
101000
2000
krádeže přijmout.
01:58
In politicspolitika alsotaké,
46
103000
2000
Na úrovni politiky
02:00
there are differentodlišný opinionsnázory.
47
105000
2000
jsou taky různé pohledy.
02:02
A lot of timesčasy, these trade-offskompromisy
48
107000
2000
Často se tyto směny
02:04
are about more than just securitybezpečnostní,
49
109000
2000
netýkají jen bezpečí,
02:06
and I think that's really importantdůležité.
50
111000
2000
což si myslím je dosti podstatné.
02:08
Now people have a naturalpřírodní intuitionintuice
51
113000
2000
Lidé mají o nákladech těchto směn
02:10
about these trade-offskompromisy.
52
115000
2000
vrozenou intuici.
02:12
We make them everykaždý day --
53
117000
2000
Děláme je každý den --
02:14
last night in my hotelhotel roompokoj, místnost,
54
119000
2000
včera večer v hotelovém pokoji,
02:16
when I decidedrozhodl to double-lockDouble zámek the doordveře,
55
121000
2000
když jsem se rozhodl zamknout na dva západy,
02:18
or you in your carauto when you droveřídil here,
56
123000
2000
nebo vy na cestě sem v autě,
02:20
when we go eatjíst lunchoběd
57
125000
2000
když jdeme na oběd,
02:22
and deciderozhodni se the food'sjídlo je not poisonjed and we'lldobře eatjíst it.
58
127000
3000
tak přitakáme, že jídlo není jed a že ho sníme.
02:25
We make these trade-offskompromisy again and again,
59
130000
2000
Děláme tato rozhodnutí stále znova,
02:27
multiplenásobek timesčasy a day.
60
132000
2000
mnohokrát denně.
02:29
We oftenčasto won'tzvyklý even noticeoznámení them.
61
134000
2000
Často si jich ani nevšimneme.
02:31
They're just partčást of beingbytost alivenaživu; we all do it.
62
136000
2000
Jsou prostě součástí žití, všichni to děláme.
02:33
EveryKaždý speciesdruh does it.
63
138000
3000
Všechny druhy to dělají.
02:36
ImaginePředstavte si a rabbitkrálík in a fieldpole, eatingjíst grasstráva,
64
141000
2000
Představte si na poli zajíce, jak se pase,
02:38
and the rabbit'skrálík going to see a foxliška.
65
143000
3000
a ten zajíc uvidí lišku.
02:41
That rabbitkrálík will make a securitybezpečnostní trade-offkompromis:
66
146000
2000
Zváží nebezpečí situace:
02:43
"Should I staypobyt, or should I fleeutéci?"
67
148000
2000
"Mám zůstat nebo utéct?"
02:45
And if you think about it,
68
150000
2000
A když se nad tím zamyslíte,
02:47
the rabbitskrálíci that are good at makingtvorba that trade-offkompromis
69
152000
3000
tak ti zajíci, kteří rozvažují dobře,
02:50
will tendtendenci to livežít and reproducereprodukovat,
70
155000
2000
inklinují k přežití a rozmnožení,
02:52
and the rabbitskrálíci that are badšpatný at it
71
157000
2000
a ti, kteří se rozhodují špatně,
02:54
will get eatenjedl or starvehlady.
72
159000
2000
k sežrání nebo vyhladovění.
02:56
So you'dže ano think
73
161000
2000
Domnívali byste se,
02:58
that us, as a successfulúspěšný speciesdruh on the planetplaneta --
74
163000
3000
že my, jako úspěšný druh této planety,
03:01
you, me, everybodyvšichni --
75
166000
2000
vy, já, každý --
03:03
would be really good at makingtvorba these trade-offskompromisy.
76
168000
3000
jsme velmi dobří v takovýchto rozhodnutích.
03:06
YetPřesto it seemszdá se, again and again,
77
171000
2000
Ale zdá se, znova a znova,
03:08
that we're hopelesslybeznadějně badšpatný at it.
78
173000
3000
že jsme v tom beznadějně špatní.
03:11
And I think that's a fundamentallyzásadně interestingzajímavý questionotázka.
79
176000
3000
A já si myslím, že toto je zásadně zajímavá otázka.
03:14
I'll give you the shortkrátký answerOdpovědět.
80
179000
2000
Dám vám tu stručnou odpověď.
03:16
The answerOdpovědět is, we respondreagovat to the feelingpocit of securitybezpečnostní
81
181000
2000
Je to tím, že reagujeme na pocit bezpečí
03:18
and not the realityrealita.
82
183000
3000
a ne na skutečnost.
03:21
Now mostvětšina of the time, that workspráce.
83
186000
3000
Většinou to funguje.
03:25
MostVětšina of the time,
84
190000
2000
Většinou si
03:27
feelingpocit and realityrealita are the samestejný.
85
192000
3000
pocit a skutečnost odpovídají.
03:30
CertainlyUrčitě that's trueskutečný
86
195000
2000
Bezpochyby tohle platilo
03:32
for mostvětšina of humančlověk prehistoryPravěk.
87
197000
3000
po většinu lidského pravěku.
03:35
We'veMáme developedrozvinutý this abilityschopnost
88
200000
3000
Vyvinuli jsme si tuto schopnost,
03:38
because it makesdělá evolutionaryevoluční sensesmysl.
89
203000
2000
protože je evolučně funkční.
03:40
One way to think of it
90
205000
2000
Jeden způsob, jak o tom uvažovat,
03:42
is that we're highlyvysoce optimizedoptimalizováno
91
207000
2000
je, že jsme velmi způsobilí
03:44
for riskriziko decisionsrozhodnutí
92
209000
2000
k zvažování rizik,
03:46
that are endemicendemické to livingživobytí in smallmalý familyrodina groupsskupiny
93
211000
3000
která jsou běžná u životů v malých klanech
03:49
in the EastVýchod AfricanAfrická highlandsVysočina in 100,000 B.C.
94
214000
3000
ve východoafrických vysočinách 100 000 let př.n.l. --
03:52
2010 NewNové YorkYork, not so much.
95
217000
3000
ne zrovna v New Yorku 2010.
03:56
Now there are severalněkolik biasespředpojatosti in riskriziko perceptionvnímání.
96
221000
3000
Ve vnímání rizika je několik iluzí.
03:59
A lot of good experimentsexperimenty in this.
97
224000
2000
Zabývá se tím dost dobrých pokusů.
04:01
And you can see certainurčitý biasespředpojatosti that come up again and again.
98
226000
3000
Jisté iluze se objevují znova a znova.
04:04
So I'll give you fourčtyři.
99
229000
2000
Ukážu vám čtyři.
04:06
We tendtendenci to exaggeratepřehánět spectacularokázalý and rarevzácný risksrizika
100
231000
3000
1) Jsme náchylní k přecenění úžasných a vzácných rizik
04:09
and downplaybagatelizovat commonběžný risksrizika --
101
234000
2000
a k podcenění běžných --
04:11
so flyingletící versusproti drivingřízení.
102
236000
3000
čili létání versus řízení.
04:14
The unknownNeznámý is perceivedvnímán
103
239000
2000
2) Neznámé je vnímáno
04:16
to be riskierrizikovější than the familiarznát.
104
241000
3000
jako rizikovější než to běžné.
04:20
One examplepříklad would be,
105
245000
2000
Jeden příklad by byl
04:22
people fearstrach kidnappingúnos by strangerscizinci
106
247000
3000
strach z únosu cizím člověkem.
04:25
when the datadata supportspodporuje kidnappingúnos by relativespříbuzní is much more commonběžný.
107
250000
3000
Data ukazují, že únos příbuznými je mnohem častější.
04:28
This is for childrenděti.
108
253000
2000
Toto se týká dětí.
04:30
ThirdTřetí, personifiedztělesněná risksrizika
109
255000
3000
3) Zosobněná rizika
04:33
are perceivedvnímán to be greatervětší than anonymousanonymní risksrizika --
110
258000
3000
jsou vnímána jako silnější než anonymní --
04:36
so BinKoš LadenNaložený is scarierděsivější because he has a namenázev.
111
261000
3000
takže Bin Ládin je děsivější, protože má jméno.
04:39
And the fourthČtvrtý
112
264000
2000
A čtvrtou iluzí je,
04:41
is people underestimatepodcenění risksrizika
113
266000
2000
že lidé podceňují rizika
04:43
in situationssituacích they do controlřízení
114
268000
2000
v situacích, které řídí,
04:45
and overestimatepřeceňovat them in situationssituacích they don't controlřízení.
115
270000
4000
a přeceňují je v situacích, které nemají pod kontrolou.
04:49
So oncejednou you take up skydivingseskoky padákem or smokingkouření,
116
274000
3000
Takže až začnete skákat s padákem nebo kouřit,
04:52
you downplaybagatelizovat the risksrizika.
117
277000
2000
rizika si zlehčíte.
04:54
If a riskriziko is thrusttah uponna you -- terrorismterorismus was a good examplepříklad --
118
279000
3000
Když do rizika spadnete -- terorismus byl dobrým příkladem --
04:57
you'llBudete overplaypřehánět it because you don't feel like it's in your controlřízení.
119
282000
3000
tak to přeženete, protože cítíte, že to nemáte pod kontrolou.
05:02
There are a bunchchomáč of other of these biasespředpojatosti, these cognitivepoznávací biasespředpojatosti,
120
287000
3000
Je hodně dalších takovýchto deziluzí-kognitivních předsudků,
05:05
that affectpostihnout our riskriziko decisionsrozhodnutí.
121
290000
3000
které ovlivňují naše riziková zvažování.
05:08
There's the availabilitydostupnost heuristicHeuristika,
122
293000
2000
Je tu heuristika dostupnosti,
05:10
whichkterý basicallyv podstatě meansprostředek
123
295000
2000
která v podstatě znamená,
05:12
we estimateodhad the probabilitypravděpodobnost of something
124
297000
3000
že pravděpodobnost výskytu něčeho odhadneme
05:15
by how easysnadný it is to bringpřinést instancesinstance of it to mindmysl.
125
300000
4000
podle toho, jak snadno to vytane na mysli.
05:19
So you can imaginepředstav si how that workspráce.
126
304000
2000
Umíte si představit, jak to funguje.
05:21
If you hearslyšet a lot about tigerTygr attacksútoky, there mustmusí be a lot of tigersTygři around.
127
306000
3000
Když slýcháváte o napadeních tygry, tak se to kolem musí tygry hemžit.
05:24
You don't hearslyšet about lionLev attacksútoky, there aren'tnejsou a lot of lionslvi around.
128
309000
3000
O útocích lvů neslýcháváte, takže je kolem málo lvů.
05:27
This workspráce untilaž do you inventvymyslet newspapersnoviny.
129
312000
3000
Toto funguje, dokud nevynaleznete noviny.
05:30
Because what newspapersnoviny do
130
315000
2000
Protože to, co noviny dělají,
05:32
is they repeatopakovat again and again
131
317000
2000
je, že stále opakují
05:34
rarevzácný risksrizika.
132
319000
2000
ojedinělá rizika.
05:36
I tell people, if it's in the newszprávy, don't worrytrápit se about it.
133
321000
2000
Říkám lidem, že pokud je to ve zprávách, nebojte se toho.
05:38
Because by definitiondefinice,
134
323000
2000
Protože z definice plyne,
05:40
newszprávy is something that almosttéměř never happensse děje.
135
325000
3000
že zpráva je něco, co se děje vzácně.
05:43
(LaughterSmích)
136
328000
2000
(Smích)
05:45
When something is so commonběžný, it's no longerdelší newszprávy --
137
330000
3000
Když je něco obvyklé, tak to přestane být ve zprávách --
05:48
carauto crasheshavaruje, domesticdomácí violencenásilí --
138
333000
2000
autohavárie, domácí násilí --
05:50
those are the risksrizika you worrytrápit se about.
139
335000
3000
to jsou rizika, která byste měli zvažovat.
05:53
We're alsotaké a speciesdruh of storytellersvypravěči.
140
338000
2000
Jsme také druhem vypravěčů.
05:55
We respondreagovat to storiespříběhy more than datadata.
141
340000
3000
Reagujeme více na příběhy než na data.
05:58
And there's some basiczákladní innumeracyinnumeracy going on.
142
343000
2000
Prosvítá tu jistá vrozená početní negramotnost.
06:00
I mean, the jokežert "One, Two, ThreeTři, ManyMnoho" is kinddruh of right.
143
345000
3000
Ten vtip "1, 2, 3, mnoho.." se vlastně dotýká pravdy.
06:03
We're really good at smallmalý numbersčísla.
144
348000
3000
Malá čísla nám opravdu jdou.
06:06
One mangoMango, two mangoesmango, threetři mangoesmango,
145
351000
2000
Jedno mango, dvě manga, tři manga,
06:08
10,000 mangoesmango, 100,000 mangoesmango --
146
353000
2000
10 000 mang, 100 000 mang --
06:10
it's still more mangoesmango you can eatjíst before they rotROT.
147
355000
3000
to je pořád víc mang, než dokážete sníst dřív než shnijí.
06:13
So one halfpolovina, one quarterčtvrťák, one fifthpátý -- we're good at that.
148
358000
3000
Takže jedna polovina, jedna čtvrtina, pětina -- v tom jsme dobří.
06:16
One in a millionmilión, one in a billionmiliarda --
149
361000
2000
Jedna milióntina, miliardtina --
06:18
they're bothoba almosttéměř never.
150
363000
3000
oboje jsou téměř nikdy.
06:21
So we have troubleproblémy with the risksrizika
151
366000
2000
Takže s riziky, co nejsou moc častá,
06:23
that aren'tnejsou very commonběžný.
152
368000
2000
máme problém.
06:25
And what these cognitivepoznávací biasespředpojatosti do
153
370000
2000
Tyto kognitivní předsudky nám
06:27
is they actakt as filtersfiltry betweenmezi us and realityrealita.
154
372000
3000
cloní realitu.
06:30
And the resultvýsledek
155
375000
2000
A důsledkem je,
06:32
is that feelingpocit and realityrealita get out of whackrána,
156
377000
2000
že pocity a skutečnost se míjí,
06:34
they get differentodlišný.
157
379000
3000
stanou se odlišnými.
06:37
Now you eitherbuď have a feelingpocit -- you feel more securezabezpečení than you are.
158
382000
3000
Takže se buď cítíte bezpečněji, než byste měli.
06:40
There's a falseNepravdivé sensesmysl of securitybezpečnostní.
159
385000
2000
To je falešný pocit bezpečí.
06:42
Or the other way,
160
387000
2000
Nebo naopak,
06:44
and that's a falseNepravdivé sensesmysl of insecuritynejistota.
161
389000
2000
a to je falešný pocit ohrožení.
06:46
I writenapsat a lot about "securitybezpečnostní theaterdivadlo,"
162
391000
3000
Píšu hodně o "bezpečnostním divadle",
06:49
whichkterý are productsprodukty that make people feel securezabezpečení,
163
394000
3000
což je služba, výrobek, které přidají pocitu bezpečí,
06:52
but don't actuallyvlastně do anything.
164
397000
2000
ale vlastně nic nedělají.
06:54
There's no realnemovitý wordslovo for stuffvěci that makesdělá us securezabezpečení,
165
399000
2000
Věci, které nás činí bezpečnějšími, aniž bychom to cítili,
06:56
but doesn't make us feel securezabezpečení.
166
401000
2000
nemají slovní pojmenování.
06:58
Maybe it's what the CIA'sCIA supposedpředpokládané to do for us.
167
403000
3000
Možná je to to, co má pro nás dělat CIA.
07:03
So back to economicsekonomika.
168
408000
2000
Takže nazpět k ekonomii.
07:05
If economicsekonomika, if the markettrh, drivespohony securitybezpečnostní,
169
410000
4000
Pokud ekonomika, trh vládnou bezpečím
07:09
and if people make trade-offskompromisy
170
414000
2000
a pokud lidé zvažují
07:11
basedna základě on the feelingpocit of securitybezpečnostní,
171
416000
3000
podle svých pocitů bezpečí,
07:14
then the smartchytrý thing for companiesspolečnosti to do
172
419000
2000
tak je pro firmy z hlediska
07:16
for the economichospodářský incentivespobídky
173
421000
2000
ziskovosti rozumné
07:18
are to make people feel securezabezpečení.
174
423000
3000
prodávat lidem pocit bezpečí.
07:21
And there are two wayszpůsoby to do this.
175
426000
3000
Na to jsou dva způsoby.
07:24
One, you can make people actuallyvlastně securezabezpečení
176
429000
2000
První: skutečně lidi ochráníte
07:26
and hopenaděje they noticeoznámení.
177
431000
2000
a doufáte, že si toho všimnou.
07:28
Or two, you can make people just feel securezabezpečení
178
433000
3000
Anebo druhý: jen jim dodáte pocit ochrany
07:31
and hopenaděje they don't noticeoznámení.
179
436000
3000
a doufáte, že si toho nevšimnou.
07:35
So what makesdělá people noticeoznámení?
180
440000
3000
Takže, čím zvýšit povědomí o bezpečí?
07:38
Well a couplepár of things:
181
443000
2000
Inu, pár věcmi:
07:40
understandingporozumění of the securitybezpečnostní,
182
445000
2000
pochopením bezpečí,
07:42
of the risksrizika, the threatshrozby,
183
447000
2000
pochopením rizik, hrozeb
07:44
the countermeasuresprotiopatření, how they work.
184
449000
3000
a toho, jak fungují protiopatření.
07:47
But if you know stuffvěci,
185
452000
2000
Když věci znáte,
07:49
you're more likelypravděpodobně to have your feelingspocity matchzápas realityrealita.
186
454000
3000
tak je pravděpodobnější, že vaše pocity odrážejí realitu.
07:52
EnoughDostatečně realnemovitý worldsvět examplespříklady helpspomáhá.
187
457000
3000
Četnost reálných příkladů pomáhá.
07:55
Now we all know the crimezločin ratehodnotit in our neighborhoodokolí,
188
460000
3000
Všichni známe míru kriminality v naší čtvrti,
07:58
because we livežít there, and we get a feelingpocit about it
189
463000
3000
protože tam bydlíme a máme o tom pocit,
08:01
that basicallyv podstatě matchesodpovídá realityrealita.
190
466000
3000
který prostě odráží realitu.
08:04
SecurityBezpečnost theater'sdivadla exposedvystaveno
191
469000
3000
Bezpečnostní divadlo je odhalené,
08:07
when it's obviouszřejmé that it's not workingpracovní properlysprávně.
192
472000
3000
když je zjevné, že nefunguje správně.
08:10
Okay, so what makesdělá people not noticeoznámení?
193
475000
4000
Dobrá, co způsobí, že si lidé nevšimnou?
08:14
Well, a poorchudý understandingporozumění.
194
479000
2000
Inu špatné porozumění.
08:16
If you don't understandrozumět the risksrizika, you don't understandrozumět the costsnáklady,
195
481000
3000
Pokud nechápete rizika, nerozumíte nákladům,
08:19
you're likelypravděpodobně to get the trade-offkompromis wrongšpatně,
196
484000
2000
nejspíše to zvážíte špatně
08:21
and your feelingpocit doesn't matchzápas realityrealita.
197
486000
3000
a váš pocit bude iluzorní.
08:24
Not enoughdost examplespříklady.
198
489000
2000
Dále: málo příkladů,
08:26
There's an inherentvlastní problemproblém
199
491000
2000
máme tu vždypřítomný problém
08:28
with lownízký probabilitypravděpodobnost eventsUdálosti.
200
493000
2000
s málo pravděpodobnými událostmi.
08:30
If, for examplepříklad,
201
495000
2000
Když se například
08:32
terrorismterorismus almosttéměř never happensse děje,
202
497000
2000
teroristické útoky stávají zřídka,
08:34
it's really hardtvrdý to judgesoudce
203
499000
2000
je opravdu těžké posoudit
08:36
the efficacyúčinnost of counter-terroristCounter-terorismu measuresopatření.
204
501000
3000
účinnost protiteroristických opatření.
08:40
This is why you keep sacrificingobětování virginspanen,
205
505000
3000
A proto pokračujete v neefektivních rituálech,
08:43
and why your unicornJednorožec defensesobrany are workingpracovní just great.
206
508000
3000
a proto vaše obviňování všeho kromě sebe funguje na výbornou.
08:46
There aren'tnejsou enoughdost examplespříklady of failuresselhání.
207
511000
3000
Není dost příkladů neúspěchu.
08:50
AlsoRovněž, feelingspocity that are cloudingzákal the issuesproblémy --
208
515000
3000
Dále jsou zde pocity, které zamlžují problémy --
08:53
the cognitivepoznávací biasespředpojatosti I talkedmluvil about earlierdříve,
209
518000
2000
ony kognitivní předsudky, o kterých jsem předtím hovořil,
08:55
fearsobavy, folkfolk beliefsvíry,
210
520000
3000
strachy, pověry,
08:58
basicallyv podstatě an inadequatenedostatečné modelmodel of realityrealita.
211
523000
3000
prostě neadekvátní model skutečnosti.
09:02
So let me complicatezkomplikovat things.
212
527000
3000
Dovolte mi to zkomplikovat.
09:05
I have feelingpocit and realityrealita.
213
530000
2000
Mám pocit a skutečnost.
09:07
I want to addpřidat a thirdTřetí elementživel. I want to addpřidat modelmodel.
214
532000
3000
Chci přidat třetí prvek, a to model.
09:10
FeelingPocit and modelmodel in our headhlava,
215
535000
2000
Pocit a model jsou v naší hlavě,
09:12
realityrealita is the outsidemimo worldsvět.
216
537000
2000
skutečnost je vnější svět.
09:14
It doesn't changezměna; it's realnemovitý.
217
539000
3000
Nemění se, je reálná.
09:17
So feelingpocit is basedna základě on our intuitionintuice.
218
542000
2000
Takže pocit je založen na naší intuici.
09:19
ModelModel is basedna základě on reasondůvod.
219
544000
2000
Model je založen na rozumu.
09:21
That's basicallyv podstatě the differencerozdíl.
220
546000
3000
To je v kostce jejich rozdíl.
09:24
In a primitiveprimitivní and simplejednoduchý worldsvět,
221
549000
2000
V jednoduchém, primitivním světě
09:26
there's really no reasondůvod for a modelmodel
222
551000
3000
není v podstatě důvod pro model.
09:29
because feelingpocit is closezavřít to realityrealita.
223
554000
3000
Protože pocit se blíží skutečnosti.
09:32
You don't need a modelmodel.
224
557000
2000
Nepotřebujete model.
09:34
But in a modernmoderní and complexkomplex worldsvět,
225
559000
2000
Ale v moderním a složitém světě
09:36
you need modelsmodely
226
561000
2000
modely potřebujete,
09:38
to understandrozumět a lot of the risksrizika we facetvář.
227
563000
3000
abyste porozuměli rizikům, kterým čelíte.
09:42
There's no feelingpocit about germszárodky.
228
567000
2000
O bacilech nemáte pocit.
09:44
You need a modelmodel to understandrozumět them.
229
569000
3000
Potřebujete model, abyste jim porozuměli.
09:47
So this modelmodel
230
572000
2000
Takže tento model
09:49
is an intelligentinteligentní representationreprezentace of realityrealita.
231
574000
3000
je inteligentní reprezentací skutečnosti.
09:52
It's, of coursechod, limitedomezený by scienceVěda,
232
577000
3000
Je samozřejmě limitován vědou,
09:55
by technologytechnika.
233
580000
2000
technologií.
09:57
We couldn'tnemohl have a germklíčků theoryteorie of diseasechoroba
234
582000
3000
Nemohli jsme mít teorii nakažlivosti bacily,
10:00
before we inventedvymyslel the microscopemikroskop to see them.
235
585000
3000
než jsme vynalezli mikroskop.
10:04
It's limitedomezený by our cognitivepoznávací biasespředpojatosti.
236
589000
3000
Je to okleštěno našimi kognitivními předsudky,
10:07
But it has the abilityschopnost
237
592000
2000
ale má to schopnost
10:09
to overridepřepsat our feelingspocity.
238
594000
2000
přemoci naše pocity.
10:11
Where do we get these modelsmodely? We get them from othersostatní.
239
596000
3000
Kde získáváme tyto modely? Dostáváme je od druhých.
10:14
We get them from religionnáboženství, from culturekultura,
240
599000
3000
Od náboženství, z kultury,
10:17
teachersučitelů, eldersstarší.
241
602000
2000
od učitelů, starších.
10:19
A couplepár yearsroky agopřed,
242
604000
2000
Před pár lety jsem
10:21
I was in SouthJih AfricaAfrika on safariSafari.
243
606000
2000
byl v Jižní Africe na safari.
10:23
The trackerTracker I was with grewrostl up in KrugerKruger NationalNárodní ParkPark.
244
608000
3000
Stopař, se kterým jsem byl, vyrostl v Krugerově národním parku.
10:26
He had some very complexkomplex modelsmodely of how to survivepřežít.
245
611000
3000
Měl několik velmi složitých modelů přežití.
10:29
And it dependedzávisela on if you were attackednapaden
246
614000
2000
A záleželo na tom, jestli jste byli napadeni
10:31
by a lionLev or a leopardlevhart or a rhinoRhino or an elephantslon --
247
616000
2000
lvem nebo leopardem, nosorožcem či slonem --
10:33
and when you had to runběh away, and when you couldn'tnemohl runběh away, and when you had to climbstoupání a treestrom --
248
618000
3000
a kdy jste museli utéct a kdy vylézt na strom --
10:36
when you could never climbstoupání a treestrom.
249
621000
2000
kdy jste na strom lozit nemohli.
10:38
I would have diedzemřel in a day,
250
623000
3000
Já bych nepřežil ani den,
10:41
but he was bornnarozený there,
251
626000
2000
ale on se tam narodil
10:43
and he understoodrozuměli how to survivepřežít.
252
628000
2000
a věděl, jak přežít.
10:45
I was bornnarozený in NewNové YorkYork CityMěsto.
253
630000
2000
Já se narodil v New York City.
10:47
I could have takenpřijat him to NewNové YorkYork, and he would have diedzemřel in a day.
254
632000
3000
Mohl jsem ho vzít do New Yorku a on by za den umřel.
10:50
(LaughterSmích)
255
635000
2000
(Smích)
10:52
Because we had differentodlišný modelsmodely
256
637000
2000
Protože jsme měli odlišné modely
10:54
basedna základě on our differentodlišný experienceszkušenosti.
257
639000
3000
založené na různých zkušenostech.
10:58
ModelsModely can come from the mediamédia,
258
643000
2000
Modely mohou pocházet z médií,
11:00
from our electedzvolený officialspředstavitelé.
259
645000
3000
od našich volených představitelů.
11:03
Think of modelsmodely of terrorismterorismus,
260
648000
3000
Zamyslete se nad modely terorismu,
11:06
childdítě kidnappingúnos,
261
651000
3000
únosů dětí,
11:09
airlineletecká linka safetybezpečnost, carauto safetybezpečnost.
262
654000
2000
letecké a automobilové bezpečnosti.
11:11
ModelsModely can come from industryprůmysl.
263
656000
3000
Modely mohou pocházet z průmyslu.
11:14
The two I'm followingNásledující are surveillancedohled cameraskamery,
264
659000
2000
Dva, které sleduji, jsou monitorovací kamery a
11:16
IDID cardskarty,
265
661000
2000
identifikační karty.
11:18
quitedocela a lot of our computerpočítač securitybezpečnostní modelsmodely come from there.
266
663000
3000
Celkem dost našich počítačových modelů tam má kořeny.
11:21
A lot of modelsmodely come from scienceVěda.
267
666000
3000
Spousty modelů pocházejí z vědy.
11:24
HealthZdraví modelsmodely are a great examplepříklad.
268
669000
2000
Modely zdraví jsou dobrým příkladem.
11:26
Think of cancerrakovina, of birdpták fluchřipka, swineprasata fluchřipka, SARSSARS.
269
671000
3000
Pomyslete na rakovinu, ptačí a prasečí chřipky, SARS.
11:29
All of our feelingspocity of securitybezpečnostní
270
674000
3000
Všechny naše obavy
11:32
about those diseasesnemoci
271
677000
2000
z těchto chorob
11:34
come from modelsmodely
272
679000
2000
jsou důsledky modelů,
11:36
givendané to us, really, by scienceVěda filteredFiltrováno throughpřes the mediamédia.
273
681000
3000
které nám skutečně dala věda, filtrovaná přes média.
11:40
So modelsmodely can changezměna.
274
685000
3000
Čili modely se mohou měnit.
11:43
ModelsModely are not staticstatické.
275
688000
2000
Nejsou statické.
11:45
As we becomestát more comfortablekomfortní in our environmentsprostředí,
276
690000
3000
Čím se stáváme napojenější na naše prostředí,
11:48
our modelmodel can movehýbat se closerblíže to our feelingspocity.
277
693000
4000
náš model se může přiblížit našim pocitům.
11:53
So an examplepříklad mightmohl be,
278
698000
2000
Příkladem může být,
11:55
if you go back 100 yearsroky agopřed
279
700000
2000
půjdete-li 100 let nazpět,
11:57
when electricityelektřina was first becomingstát se commonběžný,
280
702000
3000
kdy se elektřina teprve stávala běžnou,
12:00
there were a lot of fearsobavy about it.
281
705000
2000
tehdy bylo kolem ní hodně obav.
12:02
I mean, there were people who were afraidstrach to pushTAM doorbellsVstupní zvonky,
282
707000
2000
Byli tací, co se báli zmáčknout dveřní zvonky,
12:04
because there was electricityelektřina in there, and that was dangerousnebezpečný.
283
709000
3000
protože v nich byla elektřina, a ta byla nebezpečná.
12:07
For us, we're very facilejednoduchá around electricityelektřina.
284
712000
3000
Pro nás -- my jsme s elektřinou jedna ruka.
12:10
We changezměna lightsvětlo bulbsžárovky
285
715000
2000
Vyměňujeme žárovky
12:12
withoutbez even thinkingmyslící about it.
286
717000
2000
jako nic.
12:14
Our modelmodel of securitybezpečnostní around electricityelektřina
287
719000
4000
Náš model bezpečí kolem elektřiny
12:18
is something we were bornnarozený into.
288
723000
3000
je něco, do čeho jsme se narodili.
12:21
It hasn'tnení changedzměněna as we were growingrostoucí up.
289
726000
3000
I když jsme vyrůstali, model se neměnil.
12:24
And we're good at it.
290
729000
3000
Byli jsme v tom zběhlí.
12:27
Or think of the risksrizika
291
732000
2000
Nebo pomyslete na rizika
12:29
on the InternetInternetu acrosspřes generationsgenerací --
292
734000
2000
na Internetu napříč generacemi.
12:31
how your parentsrodiče approachpřístup InternetInternetu securitybezpečnostní,
293
736000
2000
Jak k internetové bezpečnosti přistupují vaši rodiče
12:33
versusproti how you do,
294
738000
2000
oproti vám,
12:35
versusproti how our kidsděti will.
295
740000
3000
v porovnání s našimi dětmi v budoucnu.
12:38
ModelsModely eventuallynakonec fadeslábnout into the backgroundPozadí.
296
743000
3000
Modely se časem dostávají na pozadí vědomí.
12:42
IntuitiveIntuitivní is just anotherdalší wordslovo for familiarznát.
297
747000
3000
Intuitivní je jen jiné slovo pro povědomý.
12:45
So as your modelmodel is closezavřít to realityrealita,
298
750000
2000
Takže, když je váš model blízko skutečnosti
12:47
and it convergeskonverguje with feelingspocity,
299
752000
2000
a propojuje se s pocity,
12:49
you oftenčasto don't know it's there.
300
754000
3000
tak často ani nevíte, že tam je.
12:52
So a nicepěkný examplepříklad of this
301
757000
2000
Pěkným příkladem tohoto
12:54
camepřišel from last yearrok and swineprasata fluchřipka.
302
759000
3000
je loňská prasečí chřipka.
12:57
When swineprasata fluchřipka first appearedobjevil se,
303
762000
2000
Když se prasečí chřipka poprvé objevila,
12:59
the initialpočáteční newszprávy causedzpůsobené a lot of overreactionpřehnaná reakce.
304
764000
4000
první zprávy způsobily mnoho přehnaných reakcí.
13:03
Now it had a namenázev,
305
768000
2000
Měla název,
13:05
whichkterý madevyrobeno it scarierděsivější than the regularpravidelný fluchřipka,
306
770000
2000
a to ji činilo děsivější než běžnou chřipku,
13:07
even thoughačkoli it was more deadlysmrtící.
307
772000
2000
ač ta zabíjela více.
13:09
And people thought doctorslékaři should be ableschopný to dealobchod with it.
308
774000
4000
A lidé si mysleli, že by si s tím doktoři měli umět poradit.
13:13
So there was that feelingpocit of lacknedostatek of controlřízení.
309
778000
2000
Objevil se pocit bezmoci.
13:15
And those two things
310
780000
2000
A tyto dvě věci
13:17
madevyrobeno the riskriziko more than it was.
311
782000
2000
udělaly riziko větší, než bylo.
13:19
As the noveltynovinka worenosil off, the monthsměsíců wentšel by,
312
784000
3000
Jakmile se novota okoukala, přešly měsíce,
13:22
there was some amountmnožství of tolerancetolerance,
313
787000
2000
objevila se tolerance a
13:24
people got used to it.
314
789000
2000
lidé si na to zvykli.
13:26
There was no newNový datadata, but there was lessméně fearstrach.
315
791000
3000
Neobjevila se nová fakta, ale bylo méně strachu.
13:29
By autumnpodzim,
316
794000
2000
Koncem léta
13:31
people thought
317
796000
2000
si už lidé mysleli,
13:33
the doctorslékaři should have solvedvyřešeno this alreadyjiž.
318
798000
2000
že už to doktoři měli vyřešit.
13:35
And there's kinddruh of a bifurcationbifurkace --
319
800000
2000
Tím došlo k jakési schizofrenii --
13:37
people had to chooseVybrat
320
802000
2000
lidé si museli vybrat
13:39
betweenmezi fearstrach and acceptancepřijetí --
321
804000
4000
mezi strachem a přijetím --
13:43
actuallyvlastně fearstrach and indifferencelhostejnost --
322
808000
2000
vlastně strachem a lhostejností --
13:45
they kinddruh of chosevybral suspicionpodezření.
323
810000
3000
a tak nějak si vybrali podezřívavost.
13:48
And when the vaccinevakcína appearedobjevil se last winterzima,
324
813000
3000
A když se minulou zimu objevila vakcína,
13:51
there were a lot of people -- a surprisingpřekvapující numberčíslo --
325
816000
3000
bylo mnoho lidí, překvapivý počet,
13:54
who refusedodmítnuto to get it --
326
819000
3000
kteří ji odmítli --
13:58
as a nicepěkný examplepříklad
327
823000
2000
to je pěkným příkladem toho,
14:00
of how people'slidí feelingspocity of securitybezpečnostní changezměna, how theirjejich modelmodel changesZměny,
328
825000
3000
jak se lidem mění pocity bezpečí, jak se jejich model mění,
14:03
sorttřídění of wildlydivoce
329
828000
2000
trochu divoce,
14:05
with no newNový informationinformace,
330
830000
2000
bez nových faktů,
14:07
with no newNový inputvstup.
331
832000
2000
bez nových vstupů.
14:09
This kinddruh of thing happensse děje a lot.
332
834000
3000
Takto podobně se to děje často.
14:12
I'm going to give one more complicationkomplikace.
333
837000
3000
Přidám ještě jednu komplikaci.
14:15
We have feelingpocit, modelmodel, realityrealita.
334
840000
3000
Máme pocit, model, skutečnost.
14:18
I have a very relativisticrelativistické viewPohled of securitybezpečnostní.
335
843000
2000
Na bezpečí mám velmi relativistický náhled.
14:20
I think it dependszávisí on the observerpozorovatel.
336
845000
3000
Myslím si, že to závisí na pozorovateli.
14:23
And mostvětšina securitybezpečnostní decisionsrozhodnutí
337
848000
2000
A většina bezpečnostních rozhodnutí
14:25
have a varietyodrůda of people involvedzapojeno.
338
850000
4000
se týká různých lidí.
14:29
And stakeholderszúčastněných stran
339
854000
2000
Ti, kterým o něco jde
14:31
with specificcharakteristický trade-offskompromisy
340
856000
3000
se specifickými střety zájmů,
14:34
will try to influencevliv the decisionrozhodnutí.
341
859000
2000
se budou snažit rozhodnutí ovlivnit.
14:36
And I call that theirjejich agendadenní program.
342
861000
2000
Nazývám to jejich agendou.
14:38
And you see agendadenní program --
343
863000
2000
A vidíte, že agenda --
14:40
this is marketingmarketing, this is politicspolitika --
344
865000
3000
to je marketing, politika --
14:43
tryingzkoušet to convincepřesvědčit you to have one modelmodel versusproti anotherdalší,
345
868000
3000
se vás snaží přesvědčit pro jeden model proti jinému,
14:46
tryingzkoušet to convincepřesvědčit you to ignoreignorovat a modelmodel
346
871000
2000
snaží se vás přesvědčit ignorovat nějaký model
14:48
and trustdůvěra your feelingspocity,
347
873000
3000
a věřit svým pocitům,
14:51
marginalizingmarginalizace people with modelsmodely you don't like.
348
876000
3000
blokujíce lidi s modely, které nemáte rádi.
14:54
This is not uncommonméně časté.
349
879000
3000
To není neobvyklé.
14:57
An examplepříklad, a great examplepříklad, is the riskriziko of smokingkouření.
350
882000
3000
Příkladem, výborným příkladem je riziko kouření.
15:01
In the historydějiny of the pastminulost 50 yearsroky, the smokingkouření riskriziko
351
886000
3000
V historii posledních 50 let je riziko kouření,
15:04
showsukazuje how a modelmodel changesZměny,
352
889000
2000
ukázkou toho, jak se mění model
15:06
and it alsotaké showsukazuje how an industryprůmysl fightsbojuje againstproti
353
891000
3000
a také, jak se průmysl brání
15:09
a modelmodel it doesn't like.
354
894000
2000
modelu, který nemá rád.
15:11
ComparePorovnat that to the secondhandAntikvariát smokekouř debaterozprava --
355
896000
3000
Srovnejte to s debatou o pasivním kouření --
15:14
probablypravděpodobně about 20 yearsroky behindza.
356
899000
3000
asi před 20 lety.
15:17
Think about seatsedadlo beltspásy.
357
902000
2000
Pomyslete na pásy na sedadlech aut.
15:19
When I was a kiddítě, no one worenosil a seatsedadlo beltpás.
358
904000
2000
Když jsem byl děcko, nikdo si pás nedával.
15:21
NowadaysV dnešní době, no kiddítě will let you driveřídit
359
906000
2000
Dnes vás žádné dítě nenechá řídit,
15:23
if you're not wearingnošení a seatsedadlo beltpás.
360
908000
2000
pokus se nepřipásáte.
15:26
ComparePorovnat that to the airbagairbag debaterozprava --
361
911000
2000
Porovnejte si to s debatou o airbazích
15:28
probablypravděpodobně about 30 yearsroky behindza.
362
913000
3000
asi před 30 lety.
15:31
All examplespříklady of modelsmodely changingměnící se.
363
916000
3000
Všechno to jsou příklady měnících se modelů.
15:36
What we learnUčit se is that changingměnící se modelsmodely is hardtvrdý.
364
921000
3000
Co jsme se přiučili je, že měnit modely je obtížné.
15:39
ModelsModely are hardtvrdý to dislodgevypudit.
365
924000
2000
Modely se ztěžka rozhýbou.
15:41
If they equalrovnat se your feelingspocity,
366
926000
2000
Pokud se shodují s vašimi pocity,
15:43
you don't even know you have a modelmodel.
367
928000
3000
tak ani nevíte, že nějaký model máte.
15:46
And there's anotherdalší cognitivepoznávací biaspředpojatost
368
931000
2000
A je tu další kognitivní předsudek.
15:48
I'll call confirmationpotvrzení biaspředpojatost,
369
933000
2000
Nazvu ho předsudek potvrzování,
15:50
where we tendtendenci to acceptakceptovat datadata
370
935000
3000
kdy máme tendenci přijmout informace,
15:53
that confirmspotvrzuje our beliefsvíry
371
938000
2000
které potvrzují naše názory,
15:55
and rejectodmítnout datadata that contradictsv rozporu s our beliefsvíry.
372
940000
3000
a odmítat informace, které názorům protiřečí.
15:59
So evidencedůkaz againstproti our modelmodel,
373
944000
2000
Takže důkaz proti našemu modelu
16:01
we're likelypravděpodobně to ignoreignorovat, even if it's compellingpřesvědčivé.
374
946000
3000
budeme asi ignorovat, i když je přesvědčivý.
16:04
It has to get very compellingpřesvědčivé before we'lldobře payplatit attentionPozor.
375
949000
3000
Musí to být velmi přesvědčivé, než tomu začneme věnovat pozornost.
16:08
NewNové modelsmodely that extendrozšířit long periodsobdobí of time are hardtvrdý.
376
953000
2000
Nové modely, které zahrnují dlouhá období, jsou nesnadné.
16:10
GlobalGlobální warmingoteplování is a great examplepříklad.
377
955000
2000
Globální oteplování je skvělým příkladem.
16:12
We're terriblehrozný
378
957000
2000
Jsme špatní
16:14
at modelsmodely that spanrozpětí 80 yearsroky.
379
959000
2000
u modelů, které jdou nad 80 let.
16:16
We can do to the nextdalší harvestsklizeň.
380
961000
2000
Umíme si poradit do příští sklizně.
16:18
We can oftenčasto do untilaž do our kidsděti growrůst up.
381
963000
3000
Často to jde i dokud nevyrostou naše děti.
16:21
But 80 yearsroky, we're just not good at.
382
966000
3000
Ale 80 let… to nám moc nejde.
16:24
So it's a very hardtvrdý modelmodel to acceptakceptovat.
383
969000
3000
Takže to je dost těžký model na přijmutí.
16:27
We can have bothoba modelsmodely in our headhlava simultaneouslyzároveň,
384
972000
4000
Můžeme v hlavě držet oba modely naráz,
16:31
right, that kinddruh of problemproblém
385
976000
3000
nebo takový problém,
16:34
where we're holdingpodíl bothoba beliefsvíry togetherspolu,
386
979000
3000
kdy zastáváme oba názory společně,
16:37
right, the cognitivepoznávací dissonancedisonance.
387
982000
2000
nebo kognitivní disonanci.
16:39
EventuallyNakonec,
388
984000
2000
Nakonec
16:41
the newNový modelmodel will replacenahradit the oldstarý modelmodel.
389
986000
3000
nový model nahradí starý.
16:44
StrongSpolečnost STRONG feelingspocity can createvytvořit a modelmodel.
390
989000
3000
Silné pocity mohou model tvořit.
16:47
SeptemberZáří 11thth createdvytvořeno a securitybezpečnostní modelmodel
391
992000
3000
11. září vytvořilo model o bezpečí
16:50
in a lot of people'slidí headshlavy.
392
995000
2000
v hlavách mnoha lidí.
16:52
AlsoRovněž, personalosobní experienceszkušenosti with crimezločin can do it,
393
997000
3000
Také osobní zkušenosti se zločinem to umí,
16:55
personalosobní healthzdraví scarevyděsit,
394
1000000
2000
vyděšení z rizik vlastní nemoci či
16:57
a healthzdraví scarevyděsit in the newszprávy.
395
1002000
2000
zdravotní rizika ze zpráv.
16:59
You'llYou'll see these calledvolal flashbulbbleskem eventsUdálosti
396
1004000
2000
Tyto momenty jsou nazývány psychology
17:01
by psychiatristspsychiatři.
397
1006000
2000
emoční vlny.
17:03
They can createvytvořit a modelmodel instantaneouslyokamžitě,
398
1008000
3000
Mají schopnost vytvořit okamžitý model,
17:06
because they're very emotiveemotivní.
399
1011000
3000
protože jsou velmi pocitové.
17:09
So in the technologicaltechnologický worldsvět,
400
1014000
2000
Takže v technologickém světě
17:11
we don't have experienceZkusenosti
401
1016000
2000
nemáme zkušenost
17:13
to judgesoudce modelsmodely.
402
1018000
2000
co by soudila modely.
17:15
And we relyspolehnout se on othersostatní. We relyspolehnout se on proxiesservery proxy.
403
1020000
2000
Spoléháme se na druhé, na převyprávění.
17:17
I mean, this workspráce as long as it's to correctopravit othersostatní.
404
1022000
4000
Toto funguje pokud to má ostatní napravovat.
17:21
We relyspolehnout se on governmentvláda agenciesagentur
405
1026000
2000
Spoléháme na vládní agentury,
17:23
to tell us what pharmaceuticalsléčiva are safebezpečný.
406
1028000
5000
aby nám řekly, které léky jsou bezpečné.
17:28
I flewletěl here yesterdayvčera.
407
1033000
2000
Včera jsem přiletěl.
17:30
I didn't checkkontrola the airplaneletoun.
408
1035000
2000
Nekontroloval jsem letadlo.
17:32
I reliedspoléhal on some other groupskupina
409
1037000
2000
Spolehl jsem se na jiné,
17:34
to determineurčit whetherzda my planeletadlo was safebezpečný to flylétat.
410
1039000
3000
aby určili, zda je moje letadlo bezpečné pro let.
17:37
We're here, nonežádný of us fearstrach the roofstřecha is going to collapsekolaps on us,
411
1042000
3000
Jak tu sedíme, nikdo z nás se nebojí, že na nás spadne střecha -
17:40
not because we checkedkontrolovány,
412
1045000
3000
ne protože jsme si ji zkontrolovali,
17:43
but because we're prettydosti sure
413
1048000
2000
ale protože jsme si hodně jisti,
17:45
the buildingbudova codeskódy here are good.
414
1050000
3000
že stavební předpisy jsou tu v pořádku.
17:48
It's a modelmodel we just acceptakceptovat
415
1053000
2000
Je to model, který prostě přijmeme
17:50
prettydosti much by faithvíra.
416
1055000
2000
jednoduše vírou.
17:52
And that's okay.
417
1057000
3000
A to je v pořádku.
17:57
Now, what we want
418
1062000
2000
To co chceme
17:59
is people to get familiarznát enoughdost
419
1064000
2000
je obeznámit lidi dostatečně
18:01
with better modelsmodely --
420
1066000
2000
s lepšími modely --
18:03
have it reflectedodráží in theirjejich feelingspocity --
421
1068000
2000
aby se to odrazilo v jejich pocitech --
18:05
to allowdovolit them to make securitybezpečnostní trade-offskompromisy.
422
1070000
4000
aby to umožnilo zvažovat bezpečnostní opatření.
18:09
Now when these go out of whackrána,
423
1074000
2000
Jelikož pokud se tyto vymknou z ruky,
18:11
you have two optionsmožnosti.
424
1076000
2000
tak máte dvě možnosti.
18:13
One, you can fixopravit people'slidí feelingspocity,
425
1078000
2000
První -- můžete napravit pocity lidí
18:15
directlypřímo appealodvolání to feelingspocity.
426
1080000
2000
přímým působením na city.
18:17
It's manipulationmanipulace, but it can work.
427
1082000
3000
Je to manipulace, ale může fungovat.
18:20
The seconddruhý, more honestupřímný way
428
1085000
2000
Druhá -- čestnější možnost
18:22
is to actuallyvlastně fixopravit the modelmodel.
429
1087000
3000
je skutečně napravit ten model.
18:26
ChangeZměna happensse děje slowlypomalu.
430
1091000
2000
Změna se děje pomalu.
18:28
The smokingkouření debaterozprava tookvzal 40 yearsroky,
431
1093000
3000
Debata o kouření trvala 40 let
18:31
and that was an easysnadný one.
432
1096000
3000
a to byla z těch snazších.
18:34
Some of this stuffvěci is hardtvrdý.
433
1099000
2000
Tato usilování jsou někdy obtížná.
18:36
I mean really thoughačkoli,
434
1101000
2000
Říkám, nicméně,
18:38
informationinformace seemszdá se like our bestnejlepší hopenaděje.
435
1103000
2000
že fakta jsou naším nejlepším nástrojem.
18:40
And I liedlhal.
436
1105000
2000
A lhal jsem.
18:42
RememberPamatujte si I said feelingpocit, modelmodel, realityrealita;
437
1107000
2000
Pamatujete, jak jsem říkal: pocit, model, skutečnost.
18:44
I said realityrealita doesn't changezměna. It actuallyvlastně does.
438
1109000
3000
Řekl jsem, že skutečnost se nemění. Ona se ale mění.
18:47
We livežít in a technologicaltechnologický worldsvět;
439
1112000
2000
Žijeme ve světě technologie,
18:49
realityrealita changesZměny all the time.
440
1114000
3000
realita se pořád proměňuje.
18:52
So we mightmohl have -- for the first time in our speciesdruh --
441
1117000
3000
Možná máme -- poprvé v historii našeho druhu --
18:55
feelingpocit chaseshoničky modelmodel, modelmodel chaseshoničky realityrealita, reality'sreality movingpohybující se --
442
1120000
3000
situaci, kdy pocit honí model, model honí skutečnost a skutečnost se posunuje --
18:58
they mightmohl never catchchytit up.
443
1123000
3000
možná se nikdy nedohoní.
19:02
We don't know.
444
1127000
2000
To nevíme.
19:04
But in the long-termdlouhodobý,
445
1129000
2000
Ale v dlouhém období
19:06
bothoba feelingpocit and realityrealita are importantdůležité.
446
1131000
3000
hrají oboje, jak pocit, tak skutečnost, důležitou roli.
19:09
And I want to closezavřít with two quickrychlý storiespříběhy to illustrateilustrovat this.
447
1134000
3000
Rád bych zakončil dvěma krátkými, vyjasňujícími příběhy.
19:12
1982 -- I don't know if people will rememberpamatovat this --
448
1137000
2000
Roku 1982 -- nevím, zda si na to lidé vzpomenou --
19:14
there was a shortkrátký epidemicepidemie
449
1139000
3000
byla krátká epidemie:
19:17
of TylenolTylenol poisoningsotravy in the UnitedVelká StatesStáty.
450
1142000
2000
otrava Tylenolu v USA.
19:19
It's a horrifichrůzný storypříběh. SomeoneNěkdo tookvzal a bottleláhev of TylenolTylenol,
451
1144000
3000
Je to strašný příběh: někdo vzal láhev Tylenolu,
19:22
put poisonjed in it, closedZavřeno it up, put it back on the shelfpolice.
452
1147000
3000
dal do ní jed, zavřel ji a položil nazpět do regálu.
19:25
SomeoneNěkdo elsejiný boughtkoupil it and diedzemřel.
453
1150000
2000
Další člověk to koupil a umřel.
19:27
This terrifiedvyděšený people.
454
1152000
2000
To vyděsilo lidi.
19:29
There were a couplepár of copycatimitátor attacksútoky.
455
1154000
2000
Následovalo pár napodobňujících útoků.
19:31
There wasn'tnebyl any realnemovitý riskriziko, but people were scaredstrach.
456
1156000
3000
Nebylo to žádné skutečné riziko, ale lidé byli vyděšeni.
19:34
And this is how
457
1159000
2000
A to je příčinou toho,
19:36
the tamper-proofmanipulací druglék industryprůmysl was inventedvymyslel.
458
1161000
2000
že vznikl průmysl nemanipulovatelných léků.
19:38
Those tamper-proofmanipulací capsčepice, that camepřišel from this.
459
1163000
2000
Ty nemanipulovatelné uzávěry, které z toho vzešly.
19:40
It's completekompletní securitybezpečnostní theaterdivadlo.
460
1165000
2000
Je to úplné bezpečnostní divadlo.
19:42
As a homeworkdomácí práce assignmentúkol, think of 10 wayszpůsoby to get around it.
461
1167000
2000
Za domácí úkol vymyslíte 10 způsobů jak to obejít.
19:44
I'll give you one, a syringeinjekční stříkačka.
462
1169000
3000
Dám vám jeden: injekční stříkačkou.
19:47
But it madevyrobeno people feel better.
463
1172000
3000
Ale lidem to zlepšilo pocit.
19:50
It madevyrobeno theirjejich feelingpocit of securitybezpečnostní
464
1175000
2000
Přiblížilo to jejich pocit bezpečí
19:52
more matchzápas the realityrealita.
465
1177000
2000
skutečnosti.
19:54
Last storypříběh, a fewpár yearsroky agopřed, a friendpřítel of minetěžit gavedal birthnarození.
466
1179000
3000
Poslední příběh: před pár lety jedna moje známá rodila.
19:57
I visitnávštěva her in the hospitalNEMOCNICE.
467
1182000
2000
Navštívil jsem ji v porodnici.
19:59
It turnsotočí out when a baby'sDětská bornnarozený now,
468
1184000
2000
Ukázalo se, že když se teď dítě narodí,
20:01
they put an RFIDRFID braceletnáramek on the babydítě,
469
1186000
2000
dají mu RFID náramek
20:03
put a correspondingodpovídající one on the mothermatka,
470
1188000
2000
a další odpovídající dají matce.
20:05
so if anyonekdokoliv other than the mothermatka takes the babydítě out of the maternitymateřství wardoddělení,
471
1190000
2000
Takže když někdo jiný než matka vezme dítě z oddělení,
20:07
an alarmpoplach goesjde off.
472
1192000
2000
spustí se alarm.
20:09
I said, "Well, that's kinddruh of neatelegantní.
473
1194000
2000
Řekl jsem: "Hm, to je celkem milé,
20:11
I wonderdivit se how rampantna denním pořádku babydítě snatchingchytnout is
474
1196000
2000
zajímalo by mne, jak rozšířené jsou únosy novorozeňat
20:13
out of hospitalsnemocnicích."
475
1198000
2000
v našich porodnicích?"
20:15
I go home, I look it up.
476
1200000
2000
Jdu domů a najdu si to.
20:17
It basicallyv podstatě never happensse děje.
477
1202000
2000
V podstatě se to neděje.
20:19
But if you think about it,
478
1204000
2000
Ale když se nad tím zamyslíte,
20:21
if you are a hospitalNEMOCNICE,
479
1206000
2000
pokud jste lékařem a
20:23
and you need to take a babydítě away from its mothermatka,
480
1208000
2000
potřebujete matce dítě vzít
20:25
out of the roompokoj, místnost to runběh some teststesty,
481
1210000
2000
z pokoje na nějaké testy,
20:27
you better have some good securitybezpečnostní theaterdivadlo,
482
1212000
2000
tak byste měli raději mít nějaké bezpečnostní divadlo,
20:29
or she's going to riprip your armpaže off.
483
1214000
2000
nebo vám matka utrhne ruku.
20:31
(LaughterSmích)
484
1216000
2000
(Smích)
20:33
So it's importantdůležité for us,
485
1218000
2000
Takže je to pro nás důležité,
20:35
those of us who designdesign securitybezpečnostní,
486
1220000
2000
pro nás, kdo vymýšlíme bezpečnost,
20:37
who look at securitybezpečnostní policypolitika,
487
1222000
3000
kdo sledujeme bezpečnostní politiku
20:40
or even look at publicveřejnost policypolitika
488
1225000
2000
nebo dokonce sledujeme veřejnou správu
20:42
in wayszpůsoby that affectpostihnout securitybezpečnostní.
489
1227000
2000
z hledisek dotýkajících se bezpečnosti.
20:44
It's not just realityrealita; it's feelingpocit and realityrealita.
490
1229000
3000
Není to jen realita, je to pocit a realita.
20:47
What's importantdůležité
491
1232000
2000
Podstatné je,
20:49
is that they be about the samestejný.
492
1234000
2000
aby se moc nelišily.
20:51
It's importantdůležité that, if our feelingspocity matchzápas realityrealita,
493
1236000
2000
Je důležité, že když se naše pocity shodují se skutečností,
20:53
we make better securitybezpečnostní trade-offskompromisy.
494
1238000
2000
děláme lepší investice do bezpečí.
20:55
Thank you.
495
1240000
2000
Děkuji.
20:57
(ApplausePotlesk)
496
1242000
2000
(Potlesk)
Translated by Libor Supcik
Reviewed by Jan Kadlec

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com