ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Bruce Schneier: Bezpečnostný prízrak

Filmed:
958,315 views

Pocit bezpečia a realita bezpečia sa nie vždy zhodujú, vraví expert na počítačovú bezpečnosť Bruce Schneier. Na TEDxPSU, vysvetľuje prečo míňame miliardy na riešenie rizík zo správ, ako "bezpečnostné divadlo," ktoré sa odohráva na vašom letisku, keď ignorujeme iné, bežnejšie riziká -- a ako môžeme prelomiť tento vzorec.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securityzabezpečenia is two differentrozdielny things:
0
0
2000
Bezpečnosť to sú dve rôzne veci:
00:17
it's a feelingpocit, and it's a realityrealita.
1
2000
2000
je to pocit a je to skutočnosť.
00:19
And they're differentrozdielny.
2
4000
2000
A sú rozdielne.
00:21
You could feel securezabezpečenie
3
6000
2000
Môžete sa cítiť bezpečne,
00:23
even if you're not.
4
8000
2000
aj keď nie ste.
00:25
And you can be securezabezpečenie
5
10000
2000
Môžete byť v bezpečí,
00:27
even if you don't feel it.
6
12000
2000
aj keď sa tak necítite.
00:29
Really, we have two separateoddelený conceptskoncepty
7
14000
2000
Máme dva odlišné koncepty
00:31
mappedpriradené ontona the samerovnaký wordslovo.
8
16000
2000
priradené k jednému slovu.
00:33
And what I want to do in this talk
9
18000
2000
A čo by som chcel touto prednáškou
00:35
is to splitrozdeliť them apartoddelene --
10
20000
2000
je rozdeliť ich od seba --
00:37
figuringprísť out when they divergerozbiehať
11
22000
2000
zistiť kde sa rozchádzajú
00:39
and how they convergezbiehajú.
12
24000
2000
a ako sa spájajú.
00:41
And languageJazyk is actuallyvlastne a problemproblém here.
13
26000
2000
Jazyk je vlastne problémom.
00:43
There aren'tnie sú a lot of good wordsslová
14
28000
2000
Nie je veľa dobrých slov
00:45
for the conceptskoncepty we're going to talk about.
15
30000
3000
na koncepty, o ktorých budeme hovoriť.
00:48
So if you look at securityzabezpečenia
16
33000
2000
Ak sa pozriete na bezpečnosť
00:50
from economicekonomický termspodmienky,
17
35000
2000
cez ekonomické termíny,
00:52
it's a trade-offkompromis.
18
37000
2000
je to výmena.
00:54
EveryKaždý time you get some securityzabezpečenia,
19
39000
2000
Vždy, keď dostávate bezpečnosť,
00:56
you're always tradingobchodovanie off something.
20
41000
2000
niečoho sa vzdávate.
00:58
WhetherČi this is a personalosobné decisionrozhodnutie --
21
43000
2000
Či už je to osobné rozhodnutie --
01:00
whetherči you're going to installinštalovať a burglarzlodej alarmpoplach in your home --
22
45000
2000
nainštalovanie alarmu proti vlámaniu vo vašom dome --
01:02
or a nationalnárodná decisionrozhodnutie -- where you're going to invadeprepadnúť some foreignzahraničné countrykrajina --
23
47000
3000
alebo národné rozhodnutie -- či napadnete nejakú cudziu krajinu --
01:05
you're going to tradeobchod off something,
24
50000
2000
niečo za niečo vymieňate,
01:07
eitherbuď moneypeniaze or time, conveniencepohodlie, capabilitiesschopnosti,
25
52000
3000
či už peniaze za čas, pohodlie, možnosti,
01:10
maybe fundamentalzákladné libertiesslobody.
26
55000
3000
možno základné slobody.
01:13
And the questionotázka to askopýtať sa when you look at a securityzabezpečenia anything
27
58000
3000
A otázka, ktorú by ste sa mali pýtať, keď sa pozeráte bezpečnosť čohokoľvek,
01:16
is not whetherči this makesznačky us saferbezpečnejšie,
28
61000
3000
nie je, či nás to robí bezpečnejšími,
01:19
but whetherči it's worthhodnota the trade-offkompromis.
29
64000
3000
ale či sa to oplatí.
01:22
You've heardpočul in the pastminulosť severalniekoľko yearsleta,
30
67000
2000
Počas minulých rokov
01:24
the worldsvet is saferbezpečnejšie because SaddamSaddám HusseinHusajn is not in powermoc.
31
69000
2000
ste počuli, že svet je bezpečnejší bez Saddama Husseina pri moci.
01:26
That mightsila be truepravdivý, but it's not terriblypríšerne relevantpríslušný.
32
71000
3000
To môže byť pravda, ale nie je to tak veľmi dôležité.
01:29
The questionotázka is, was it worthhodnota it?
33
74000
3000
Otázkou je, oplatilo sa to?
01:32
And you can make your ownvlastný decisionrozhodnutie,
34
77000
3000
Môžete si spraviť vlastné rozhodnutie,
01:35
and then you'llbudete deciderozhodnúť whetherči the invasioninvázie was worthhodnota it.
35
80000
2000
a potom sa rozhodnete, či sa ta invázia oplatila.
01:37
That's how you think about securityzabezpečenia --
36
82000
2000
To je, ako sa rozmýšľa o bezpečnosti --
01:39
in termspodmienky of the trade-offkompromis.
37
84000
2000
v pojmoch nákladov.
01:41
Now there's oftenčasto no right or wrongzle here.
38
86000
3000
Často tu nie je "správne" a "nesprávne."
01:44
Some of us have a burglarzlodej alarmpoplach systemsystém at home,
39
89000
2000
Niektorí máte doma systém proti vlámaniu,
01:46
and some of us don't.
40
91000
2000
niektorí nie.
01:48
And it'llbude to dependzávisieť on where we livežiť,
41
93000
2000
Záleží na tom, kde žijete,
01:50
whetherči we livežiť alonesám or have a familyrodina,
42
95000
2000
či žijete sami alebo s rodinou,
01:52
how much coolchladný stuffvec we have,
43
97000
2000
koľko super vecí máte,
01:54
how much we're willingochotný to acceptsúhlasiť
44
99000
2000
nakoľko ste ochotní akceptovať
01:56
the riskriskovať of theftkrádež.
45
101000
2000
riziko krádeže.
01:58
In politicspolitika alsotaktiež,
46
103000
2000
Aj v politike
02:00
there are differentrozdielny opinionsnázory.
47
105000
2000
sú iné názory.
02:02
A lot of timesdoba, these trade-offskompromisy
48
107000
2000
Často sú tieto náklady
02:04
are about more than just securityzabezpečenia,
49
109000
2000
o niečom viac ako o bezpečnosti
02:06
and I think that's really importantdôležitý.
50
111000
2000
a myslím, že to je veľmi dôležité.
02:08
Now people have a naturalprírodné intuitionintuícia
51
113000
2000
Ľudia majú prirodzenú intuíciu
02:10
about these trade-offskompromisy.
52
115000
2000
o týchto nákladoch.
02:12
We make them everykaždý day --
53
117000
2000
Robíme ich každý deň --
02:14
last night in my hotelhotel roomizba,
54
119000
2000
poslednú noc v hotelovej izbe,
02:16
when I decidedrozhodol to double-lockDouble-zámok the doordvere,
55
121000
2000
keď som sa rozhodol zamknúť na dvakrát,
02:18
or you in your carauto when you droveišli here,
56
123000
2000
alebo vy vo vašom aute, keď ste išli sem,
02:20
when we go eatjesť lunchobed
57
125000
2000
keď ideme na obed
02:22
and deciderozhodnúť the food'sjedlo je not poisonjed and we'llmy budeme eatjesť it.
58
127000
3000
a rozhodujeme, že jedlo nie je jed a že ho zjeme.
02:25
We make these trade-offskompromisy again and again,
59
130000
2000
Robíme tieto kompromisy stále znova
02:27
multiplenásobok timesdoba a day.
60
132000
2000
niekoľkokrát za deň.
02:29
We oftenčasto won'tnebude even noticeoznámenia them.
61
134000
2000
Často si ich ani nevšimneme.
02:31
They're just partčasť of beingbytia alivenažive; we all do it.
62
136000
2000
Sú časťou prežívania; všetci to robíme.
02:33
EveryKaždý speciesdruh does it.
63
138000
3000
Každý druh ich robí.
02:36
ImaginePredstavte si a rabbitkrálik in a fieldlúka, eatingjesť grasstráva,
64
141000
2000
Predstavte si zajaca na poli ako je trávu;
02:38
and the rabbit'skrálik going to see a foxlíška.
65
143000
3000
a tento zajac uvidí líšku.
02:41
That rabbitkrálik will make a securityzabezpečenia trade-offkompromis:
66
146000
2000
Zajac spraví bezpečnostné porovnanie:
02:43
"Should I staypobyt, or should I fleeutiecť?"
67
148000
2000
"Mám zostať alebo utiecť?"
02:45
And if you think about it,
68
150000
2000
A keď sa nad tým zamyslíte,
02:47
the rabbitskráliky that are good at makingmaking that trade-offkompromis
69
152000
3000
tie zajace, ktoré dobre robia tieto porovnania,
02:50
will tendsklon to livežiť and reproducereprodukovať,
70
155000
2000
zvyknú byť nažive a rozmnožovať sa,
02:52
and the rabbitskráliky that are badzlý at it
71
157000
2000
a zajace, ktorú sú v tom zlé
02:54
will get eatenjesť or starvehladovať.
72
159000
2000
budú zožrané alebo vyhladujú.
02:56
So you'dby si think
73
161000
2000
Mysleli by ste,
02:58
that us, as a successfulúspešný speciesdruh on the planetplanéta --
74
163000
3000
že my, ako úspešný druh na tejto planéte --
03:01
you, me, everybodyvšetci --
75
166000
2000
vy, ja, každý --
03:03
would be really good at makingmaking these trade-offskompromisy.
76
168000
3000
by mali byť naozaj dobrí v týchto porovnaniach.
03:06
YetZatiaľ it seemszdá, again and again,
77
171000
2000
Ale zdá sa, stále znova,
03:08
that we're hopelesslybeznádejne badzlý at it.
78
173000
3000
že sme v tom beznádejne zlí.
03:11
And I think that's a fundamentallyv podstate interestingzaujímavý questionotázka.
79
176000
3000
Myslím, že je to fundamentálne zaujímavá otázka.
03:14
I'll give you the shortkrátky answerodpoveď.
80
179000
2000
Dám vám tú krátku odpoveď.
03:16
The answerodpoveď is, we respondreagovať to the feelingpocit of securityzabezpečenia
81
181000
2000
Odpoveď je, že reagujeme na pocit bezpečia
03:18
and not the realityrealita.
82
183000
3000
a nie na realitu.
03:21
Now mostväčšina of the time, that workspráce.
83
186000
3000
Väčšinu času to funguje.
03:25
MostVäčšina of the time,
84
190000
2000
Väčšinu času
03:27
feelingpocit and realityrealita are the samerovnaký.
85
192000
3000
pocit a realita sú to isté.
03:30
CertainlyUrčite that's truepravdivý
86
195000
2000
Určite je to pravda
03:32
for mostväčšina of humančlovek prehistoryPravek.
87
197000
3000
pre väčšinu ľudskej prehistórie.
03:35
We'veSme developedrozvinutý this abilityschopnosť
88
200000
3000
Vyvinuli sme schopnosť,
03:38
because it makesznačky evolutionaryvývojový sensezmysel.
89
203000
2000
lebo to má evolučný zmysel.
03:40
One way to think of it
90
205000
2000
Jeden spôsob ako o tom uvažovať
03:42
is that we're highlyvysoko optimizedoptimalizované
91
207000
2000
je, že sme vysoko optimalizovaní
03:44
for riskriskovať decisionsrozhodnutie
92
209000
2000
na rizikové rozhodnutia,
03:46
that are endemicendemické to livingžijúci in smallmalý familyrodina groupsskupiny
93
211000
3000
ktoré sú vlastné pre život v malých rodinných skupinách
03:49
in the EastEast AfricanAfrický highlandsHighlands in 100,000 B.C.
94
214000
3000
vo východo-afrických planinách 100 000 rokov prnl. --
03:52
2010 NewNové YorkYork, not so much.
95
217000
3000
v New Yorku 2010 nie tak úplne.
03:56
Now there are severalniekoľko biasespredsudky in riskriskovať perceptionvnímanie.
96
221000
3000
Je niekoľko klamov vo vnímaní rizika.
03:59
A lot of good experimentspokusy in this.
97
224000
2000
Je na to veľa dobrých experimentov.
04:01
And you can see certainistý biasespredsudky that come up again and again.
98
226000
3000
A isté klamy sa objavujú stále znova a znova.
04:04
So I'll give you fourštyri.
99
229000
2000
Dám vám štyri.
04:06
We tendsklon to exaggeratepreháňať spectacularokázalý and rarevzácny risksriziká
100
231000
3000
Máme tendenciu preháňať senzačné a ojedinelé riziká
04:09
and downplaybagatelizovať commonobyčajný risksriziká --
101
234000
2000
a zmenšovať bežné rizika --
04:11
so flyinglietanie versusproti drivingvodičský.
102
236000
3000
lietanie versus šoférovanie.
04:14
The unknownNeznámy is perceivedvnímané
103
239000
2000
Neznáme je vnímané
04:16
to be riskierrizikovejšie than the familiaroboznameny.
104
241000
3000
ako rizikovejšie ako to bežné.
04:20
One examplepríklad would be,
105
245000
2000
Jeden príklad by bol
04:22
people fearstrach kidnappingúnos by strangersneznámi
106
247000
3000
strach ľudí z únosu neznámymi,
04:25
when the datadáta supportspodporuje kidnappingúnos by relativespríbuzní is much more commonobyčajný.
107
250000
3000
aj keď údaje potvrdzujú, že únosy príbuznými sú oveľa častejšie.
04:28
This is for childrendeti.
108
253000
2000
To je pre deti.
04:30
ThirdTretím, personifiedstelesnená risksriziká
109
255000
3000
Po tretie, personifikované riziká
04:33
are perceivedvnímané to be greaterväčšia than anonymousanonymný risksriziká --
110
258000
3000
sú vnímané ako väčšie ako anonymné riziká --
04:36
so BinBin LadenNaložené is scarierdesivejšie because he has a namenázov.
111
261000
3000
takže Bin Laden je hroznejší, lebo má meno.
04:39
And the fourthštvrtý
112
264000
2000
A po štvrté,
04:41
is people underestimatepodceniť risksriziká
113
266000
2000
ľudia podceňujú riziká
04:43
in situationssituácií they do controlovládanie
114
268000
2000
situácií, ktoré kontrolujú,
04:45
and overestimatepreceňovať them in situationssituácií they don't controlovládanie.
115
270000
4000
a preceňujú ich v situáciách, kde kontrolu nemajú.
04:49
So onceakonáhle you take up skydivingParašutizmus or smokingfajčenie,
116
274000
3000
Takže keď začnete skákať s padákom a fajčiť,
04:52
you downplaybagatelizovať the risksriziká.
117
277000
2000
zľahčujete riziká.
04:54
If a riskriskovať is thrustťah uponna you -- terrorismterorizmus was a good examplepríklad --
118
279000
3000
Ak sa risk na vás prirúti -- terorizmus bol dobrým príkladom --
04:57
you'llbudete overplayje prehrávať it because you don't feel like it's in your controlovládanie.
119
282000
3000
preceňujete ho, lebo sa necítite, že ho máte pod kontrolou.
05:02
There are a bunchchumáč of other of these biasespredsudky, these cognitivepoznávacie biasespredsudky,
120
287000
3000
Je mnoho ďalších takých klamov, kognitívnych predsudkov,
05:05
that affectovplyvniť our riskriskovať decisionsrozhodnutie.
121
290000
3000
ktoré ovplyvňujú naše rizikové rozhodnutia.
05:08
There's the availabilitydostupnosť heuristicheuristika,
122
293000
2000
Je istá heurestika dostupnosti,
05:10
whichktorý basicallyv podstate meansprostriedky
123
295000
2000
čo znamená, že
05:12
we estimateodhad the probabilitypravdepodobnosť of something
124
297000
3000
odhadujeme pravdepodobnosť niečoho
05:15
by how easyjednoduchý it is to bringpriniesť instancesinštancie of it to mindmyseľ.
125
300000
4000
podľa toho, ako ľahko si vieme predstaviť príklady.
05:19
So you can imaginepredstaviť si how that workspráce.
126
304000
2000
Viete si predstaviť, ako to funguje.
05:21
If you hearpočuť a lot about tigerTiger attacksútoky, there mustmusieť be a lot of tigersTigre around.
127
306000
3000
Ak počujete veľa o útoku tigrov, musí byť na okolí veľa tigrov.
05:24
You don't hearpočuť about lionLev attacksútoky, there aren'tnie sú a lot of lionslevy around.
128
309000
3000
Nepočujete o útokoch levov, nie sú tu žiadne levy.
05:27
This workspráce untilkým you inventvynájsť newspapersnoviny.
129
312000
3000
To funguje, kým nevynájdete noviny.
05:30
Because what newspapersnoviny do
130
315000
2000
Lebo čo robia noviny,
05:32
is they repeatopakovať again and again
131
317000
2000
opakujú stále znova
05:34
rarevzácny risksriziká.
132
319000
2000
ojedinelé riziká.
05:36
I tell people, if it's in the newsnoviny, don't worryznepokojovať about it.
133
321000
2000
Hovorím ľuďom, že kým je to v správach, neobávajte sa.
05:38
Because by definitiondefinícia,
134
323000
2000
Lebo z definície:
05:40
newsnoviny is something that almosttakmer never happensdeje.
135
325000
3000
správy sú niečo, čo sa takmer nikdy nedeje.
05:43
(LaughterSmiech)
136
328000
2000
(Smiech)
05:45
When something is so commonobyčajný, it's no longerdlhšie newsnoviny --
137
330000
3000
Keď je niečo tak bežné, už to nie sú správy --
05:48
carauto crasheszrútenie, domesticdomáci violencenásilia --
138
333000
2000
havárie áut, domáce násilie --
05:50
those are the risksriziká you worryznepokojovať about.
139
335000
3000
to sú riziká, o ktoré sa strachujete.
05:53
We're alsotaktiež a speciesdruh of storytellersrozprávačov.
140
338000
2000
Sme aj druhom rozprávačov.
05:55
We respondreagovať to storiespríbehy more than datadáta.
141
340000
3000
Reagujeme viac na príbehy ako na dáta.
05:58
And there's some basicbasic innumeracyinnumeracy going on.
142
343000
2000
A je v tom aj istá anti-matematika.
06:00
I mean, the jokevtip "One, Two, ThreeTri, ManyMnoho" is kinddruh of right.
143
345000
3000
Ten vtip "jeden, dva, tri, veľa" je vlastne pravdivý.
06:03
We're really good at smallmalý numbersčísla.
144
348000
3000
Sme veľmi dobrí s malými číslami.
06:06
One mangoMango, two mangoesmanga, threetri mangoesmanga,
145
351000
2000
Jedno mango, dve mangá, tri mangá,
06:08
10,000 mangoesmanga, 100,000 mangoesmanga --
146
353000
2000
10 000 máng, 100 000 máng --
06:10
it's still more mangoesmanga you can eatjesť before they rotrot.
147
355000
3000
to je stále viac máng ako dokážete zjesť kým zhnijú.
06:13
So one halfpolovičná, one quarterštvrťrok, one fifthpiaty -- we're good at that.
148
358000
3000
Takže jedna polovica, štvrtina, pätina -- v tom sme dobrí.
06:16
One in a millionmilión, one in a billionmiliardy --
149
361000
2000
Jedno v milióne, jedno v miliarde,
06:18
they're bothoboje almosttakmer never.
150
363000
3000
oboje sú takmer nikdy.
06:21
So we have troubleťažkosti with the risksriziká
151
366000
2000
Máme teda problém s rizikami,
06:23
that aren'tnie sú very commonobyčajný.
152
368000
2000
ktoré nie sú bežné.
06:25
And what these cognitivepoznávacie biasespredsudky do
153
370000
2000
Tieto kognitívne predsudky
06:27
is they actakt as filtersfiltre betweenmedzi us and realityrealita.
154
372000
3000
sú filtrom medzi nami a realitou.
06:30
And the resultvýsledok
155
375000
2000
A ako výsledok
06:32
is that feelingpocit and realityrealita get out of whackrana,
156
377000
2000
sa pocity a realita rozchádzajú,
06:34
they get differentrozdielny.
157
379000
3000
stávajú sa odlišnými.
06:37
Now you eitherbuď have a feelingpocit -- you feel more securezabezpečenie than you are.
158
382000
3000
Buď máte pocit -- cítite sa viac v bezpečí ako ste.
06:40
There's a falsenepravdivý sensezmysel of securityzabezpečenia.
159
385000
2000
Je to falošný pocit bezpečia.
06:42
Or the other way,
160
387000
2000
Alebo naopak,
06:44
and that's a falsenepravdivý sensezmysel of insecurityneistota.
161
389000
2000
a to je falošný pocit nebezpečia.
06:46
I writezapísať a lot about "securityzabezpečenia theaterdivadlo,"
162
391000
3000
Píšem veľa o "bezpečnostnom divadle,"
06:49
whichktorý are productsProdukty that make people feel securezabezpečenie,
163
394000
3000
čo sú produkty, ktoré ľuďom dodávajú pocit bezpečia,
06:52
but don't actuallyvlastne do anything.
164
397000
2000
ale vlastne nič nerobia.
06:54
There's no realskutočný wordslovo for stuffvec that makesznačky us securezabezpečenie,
165
399000
2000
Nie je žiadne skutočné slovo pre veci, ktoré nás robia bezpečnejšími,
06:56
but doesn't make us feel securezabezpečenie.
166
401000
2000
ale nepridávajú nám ten pocit.
06:58
Maybe it's what the CIA'sCIA supposedpredpokladaný to do for us.
167
403000
3000
Možno je to to, čo má robiť pre nás CIA.
07:03
So back to economicsekonómie.
168
408000
2000
Späť k ekonomike.
07:05
If economicsekonómie, if the markettrhové, drivespohony securityzabezpečenia,
169
410000
4000
Ak ekonomika, ak trh, poháňa bezpečnosť,
07:09
and if people make trade-offskompromisy
170
414000
2000
a ak ľudia robia kompromisy
07:11
basedzaložené on the feelingpocit of securityzabezpečenia,
171
416000
3000
založené na ich pocitoch bezpečia,
07:14
then the smartšikovný thing for companiesspoločnosti to do
172
419000
2000
potom rozumná vec pre spoločnosti,
07:16
for the economicekonomický incentivesstimuly
173
421000
2000
z ekonomických pohnútok,
07:18
are to make people feel securezabezpečenie.
174
423000
3000
je dávať ľuďom pocit bezpečia.
07:21
And there are two waysspôsoby to do this.
175
426000
3000
A sú dva spôsoby ako na to.
07:24
One, you can make people actuallyvlastne securezabezpečenie
176
429000
2000
Prvý, môžete ľudí spraviť bezpečnejšími
07:26
and hopenádej they noticeoznámenia.
177
431000
2000
a dúfať, že si to všimnú.
07:28
Or two, you can make people just feel securezabezpečenie
178
433000
3000
Alebo druhý, môžete im dodať pocit bezpečia
07:31
and hopenádej they don't noticeoznámenia.
179
436000
3000
a dúfať, že si to nevšimnú.
07:35
So what makesznačky people noticeoznámenia?
180
440000
3000
Takže, čo spôsobuje, či si ľudia všimnú?
07:38
Well a couplepár of things:
181
443000
2000
Nuž, zopár vecí:
07:40
understandingporozumenie of the securityzabezpečenia,
182
445000
2000
porozumenie bezpečnosti,
07:42
of the risksriziká, the threatshrozby,
183
447000
2000
rizikám, hrozbám,
07:44
the countermeasuresprotiopatrenia, how they work.
184
449000
3000
a protiopatreniam, ako fungujú.
07:47
But if you know stuffvec,
185
452000
2000
Ale keď veci poznáte,
07:49
you're more likelypravdepodobný to have your feelingscity matchzápas realityrealita.
186
454000
3000
je pravdepodobnejšie, že vaše pocity odrážajú realitu.
07:52
EnoughDosť realskutočný worldsvet examplespríklady helpspomáha.
187
457000
3000
Dostatok príkladov zo života pomáha.
07:55
Now we all know the crimezločin raterýchlosť in our neighborhoodsusedstvo,
188
460000
3000
Všetci poznáme mieru kriminality v našom susedstve,
07:58
because we livežiť there, and we get a feelingpocit about it
189
463000
3000
lebo tam žijeme a máme o tom pocit,
08:01
that basicallyv podstate matcheszápasy realityrealita.
190
466000
3000
ktorý v podstate odráža realitu.
08:04
SecurityZabezpečenia theater'sdivadlo je exposedvystavený
191
469000
3000
Bezpečnostné divadlo je odhalené,
08:07
when it's obviouszrejmý that it's not workingpracovný properlysprávne.
192
472000
3000
keď je zjavné, že nefunguje poriadne.
08:10
Okay, so what makesznačky people not noticeoznámenia?
193
475000
4000
Ok, takže, čo spôsobí, že si to ľudia všimnú?
08:14
Well, a poorchudobný understandingporozumenie.
194
479000
2000
Nuž, zlé porozumenie.
08:16
If you don't understandrozumieť the risksriziká, you don't understandrozumieť the costsnáklady,
195
481000
3000
Ak nerozumiete rizikám, ak nerozumiete nákladom,
08:19
you're likelypravdepodobný to get the trade-offkompromis wrongzle,
196
484000
2000
ste náchylní spraviť zlé kompromisy
08:21
and your feelingpocit doesn't matchzápas realityrealita.
197
486000
3000
a vaše pocity neodrážajú realitu.
08:24
Not enoughdosť examplespríklady.
198
489000
2000
Nedostatok príkladov.
08:26
There's an inherentinherentnej problemproblém
199
491000
2000
Je tu hlboký problém
08:28
with lownízky probabilitypravdepodobnosť eventsdiania.
200
493000
2000
s málo pravdepodobnými udalosťami.
08:30
If, for examplepríklad,
201
495000
2000
Ak, napríklad,
08:32
terrorismterorizmus almosttakmer never happensdeje,
202
497000
2000
sa terorizmus prakticky nikdy nedeje,
08:34
it's really hardusilovne to judgesudca
203
499000
2000
je naozaj ťažké posúdiť
08:36
the efficacyúčinnosť of counter-terroristCounter-terorizmu measuresOpatrenia.
204
501000
3000
efektívnosť protiteroristických opatrení.
08:40
This is why you keep sacrificingobetovania virginsPanny,
205
505000
3000
To je prečo pokračujete v obetovaní pannien
08:43
and why your unicornUnicorn defensesopevnenia are workingpracovný just great.
206
508000
3000
a prečo vaša obrana s jednorožcom funguje.
08:46
There aren'tnie sú enoughdosť examplespríklady of failureszlyhanie.
207
511000
3000
Nie je dostatok príkladov zlyhania.
08:50
AlsoTiež, feelingscity that are cloudingzákal the issuesproblémy --
208
515000
3000
Plus, pocity, ktoré zahmlievajú problémy --
08:53
the cognitivepoznávacie biasespredsudky I talkedhovorili about earlierskôr,
209
518000
2000
kognitívne predsudky o ktorých som už hovoril,
08:55
fearsobavy, folkFolk beliefspresvedčenie,
210
520000
3000
obavy, povery,
08:58
basicallyv podstate an inadequatenedostatočné modelModel of realityrealita.
211
523000
3000
v princípe neadekvátny model reality.
09:02
So let me complicatekomplikovať things.
212
527000
3000
Nechajte ma, nech to skomplikujem.
09:05
I have feelingpocit and realityrealita.
213
530000
2000
Mám pocity a realitu.
09:07
I want to addpridať a thirdtretina elementelement. I want to addpridať modelModel.
214
532000
3000
Chcem pridať tretí element. Chcem pridať model.
09:10
FeelingPocit and modelModel in our headhlava,
215
535000
2000
Pocit a model v našich hlavách,
09:12
realityrealita is the outsidezvonka worldsvet.
216
537000
2000
realita je vonkajší svet.
09:14
It doesn't changezmena; it's realskutočný.
217
539000
3000
Nemení sa, je skutočná.
09:17
So feelingpocit is basedzaložené on our intuitionintuícia.
218
542000
2000
Takže, pocity sú založené na intuícii.
09:19
ModelModel is basedzaložené on reasondôvod.
219
544000
2000
Model je založený na rozume.
09:21
That's basicallyv podstate the differencerozdiel.
220
546000
3000
To je v základe ten rozdiel.
09:24
In a primitiveprimitívne and simpleprostý worldsvet,
221
549000
2000
V primitívnom a prostom svete
09:26
there's really no reasondôvod for a modelModel
222
551000
3000
nie je, v podstate, dôvod na model,
09:29
because feelingpocit is closeZavrieť to realityrealita.
223
554000
3000
lebo pocit je blízko k realite.
09:32
You don't need a modelModel.
224
557000
2000
Nepotrebujete model.
09:34
But in a modernmoderný and complexkomplexné worldsvet,
225
559000
2000
Ale v modernom a komplexnom svete
09:36
you need modelsmodely
226
561000
2000
potrebujete modely
09:38
to understandrozumieť a lot of the risksriziká we facetvár.
227
563000
3000
na pochopenie veľa rizík, ktorým čelíme.
09:42
There's no feelingpocit about germsbaktérie.
228
567000
2000
Nie je pocit o baktériách.
09:44
You need a modelModel to understandrozumieť them.
229
569000
3000
Potrebujete model, aby ste tomu rozumeli.
09:47
So this modelModel
230
572000
2000
Tento model
09:49
is an intelligentinteligentný representationznázornenie of realityrealita.
231
574000
3000
je inteligentná reprezentácia reality.
09:52
It's, of coursekurz, limitedobmedzený by scienceveda,
232
577000
3000
Je, samozrejme, limitovaná vedou,
09:55
by technologytechnológie.
233
580000
2000
technológiou.
09:57
We couldn'tnemohol have a germklíčky theoryteória of diseasechoroba
234
582000
3000
Nemohli by sme mať bakteriálne teórie nákaz
10:00
before we inventedvynašiel the microscopeMikroskop to see them.
235
585000
3000
predtým, ako sme vynašli mikroskop, ktorým ich vidíme.
10:04
It's limitedobmedzený by our cognitivepoznávacie biasespredsudky.
236
589000
3000
Je to obmedzené našimi kognitívnymi predsudkami.
10:07
But it has the abilityschopnosť
237
592000
2000
Ale má schopnosť
10:09
to overrideprepísať our feelingscity.
238
594000
2000
potlačiť naše pocity.
10:11
Where do we get these modelsmodely? We get them from othersostatné.
239
596000
3000
Kde získavame tieto modely? Dostávame ich od iných.
10:14
We get them from religionnáboženstvo, from culturekultúra,
240
599000
3000
Dostávame ich z náboženstva, kultúry,
10:17
teachersučitelia, eldersstaršie.
241
602000
2000
učiteľov, starších.
10:19
A couplepár yearsleta agopred,
242
604000
2000
Pred pár rokmi
10:21
I was in SouthSouth AfricaAfrika on safariSafari.
243
606000
2000
som bol v Južnej Afrike na safari.
10:23
The trackerTracker I was with grewrástol up in KrugerKruger NationalNárodné ParkPark.
244
608000
3000
Stopár, s ktorým som bol, vyrastal v Krugerovom národnom parku.
10:26
He had some very complexkomplexné modelsmodely of how to surviveprežiť.
245
611000
3000
Mal niekoľko veľmi komplexných modelov prežitia.
10:29
And it dependedzávisela on if you were attackednapadnutý
246
614000
2000
A záležalo na tom, či ste boli napadnutí
10:31
by a lionLev or a leopardLeopard or a rhinoRhino or an elephantslon --
247
616000
2000
levom, leopardom, hrochom alebo slonom --
10:33
and when you had to runbeh away, and when you couldn'tnemohol runbeh away, and when you had to climbšplhať a treestrom --
248
618000
3000
a kedy ste museli ujsť a kedy ste mali vyliezť na strom --
10:36
when you could never climbšplhať a treestrom.
249
621000
2000
kedy ste na strom vyliezť nemohli.
10:38
I would have diedzomrel in a day,
250
623000
3000
Ja by som zomrel za jeden deň,
10:41
but he was bornnarodený there,
251
626000
2000
ale on sa tam narodil
10:43
and he understoodchápať how to surviveprežiť.
252
628000
2000
a rozumel tomu, ako prežiť.
10:45
I was bornnarodený in NewNové YorkYork CityMesto.
253
630000
2000
Ja som sa narodil v New Yorku.
10:47
I could have takenzaujatý him to NewNové YorkYork, and he would have diedzomrel in a day.
254
632000
3000
Mohol som ho zobrať do New Yorku a on by za deň zomrel.
10:50
(LaughterSmiech)
255
635000
2000
(Smiech)
10:52
Because we had differentrozdielny modelsmodely
256
637000
2000
Lebo sme mali rôzne modely
10:54
basedzaložené on our differentrozdielny experiencesskúsenosti.
257
639000
3000
založené na rôznych skúsenostiach.
10:58
ModelsModely can come from the mediamédiá,
258
643000
2000
Modely môžu pochádzať z médií,
11:00
from our electedzvolený officialsúradníci.
259
645000
3000
od našich zvolených predstaviteľov.
11:03
Think of modelsmodely of terrorismterorizmus,
260
648000
3000
Pomyslite na modely terorizmu,
11:06
childdieťa kidnappingúnos,
261
651000
3000
detských únosov,
11:09
airlineletecká linka safetybezpečnosť, carauto safetybezpečnosť.
262
654000
2000
leteckej bezpečnosti, bezpečnosti áut.
11:11
ModelsModely can come from industrypriemysel.
263
656000
3000
Modely môžu pochádzať z priemyslu.
11:14
The two I'm followingnasledujúce are surveillancedohľad cameraskamery,
264
659000
2000
Dva, ktoré sledujem, sú monitorovacie kamery,
11:16
IDID cardskarty,
265
661000
2000
preukazy,
11:18
quitecelkom a lot of our computerpočítačový securityzabezpečenia modelsmodely come from there.
266
663000
3000
dosť našich počítačových bezpečnostných modelov odtiaľ pochádza.
11:21
A lot of modelsmodely come from scienceveda.
267
666000
3000
Veľa modelov pochádza z vedy.
11:24
HealthZdravie modelsmodely are a great examplepríklad.
268
669000
2000
Modely zdravia sú dobrým príkladom.
11:26
Think of cancerrakovina, of birdvták fluchrípka, swinemor fluchrípka, SARSSARS.
269
671000
3000
Pomyslite na rakovinu, vtáčiu chrípku, prasaciu chrípku, SARS.
11:29
All of our feelingscity of securityzabezpečenia
270
674000
3000
Všetky naše pocity bezpečia
11:32
about those diseaseschoroby
271
677000
2000
o týchto nákazách
11:34
come from modelsmodely
272
679000
2000
pochádzajú z modelov,
11:36
givendaný to us, really, by scienceveda filteredfiltrovať throughskrz the mediamédiá.
273
681000
3000
ktoré nám dala, naozaj, veda filtrovaná cez médiá.
11:40
So modelsmodely can changezmena.
274
685000
3000
Takže modely sa môžu zmeniť.
11:43
ModelsModely are not staticstatické.
275
688000
2000
Modely nie sú statické.
11:45
As we becomestať sa more comfortablekomfortné in our environmentsprostredie,
276
690000
3000
Ako si zvykáme v našom prostredí,
11:48
our modelModel can movesťahovať closerbližšie to our feelingscity.
277
693000
4000
náš model sa môže dostať bližšie k pocitom.
11:53
So an examplepríklad mightsila be,
278
698000
2000
Príkladom môže byť,
11:55
if you go back 100 yearsleta agopred
279
700000
2000
ak pôjdete späť 100 rokov,
11:57
when electricityelektrina was first becomingslušivý commonobyčajný,
280
702000
3000
keď sa elektrina len stávala bežnou,
12:00
there were a lot of fearsobavy about it.
281
705000
2000
bolo okolo nej veľa obáv.
12:02
I mean, there were people who were afraidbáť to pushTAM doorbellszvončeky,
282
707000
2000
Boli ľudia, ktorí sa báli stlačiť zvonček na dverách,
12:04
because there was electricityelektrina in there, and that was dangerousnebezpečný.
283
709000
3000
lebo v ňom bola elektrina a tá bola nebezpečná.
12:07
For us, we're very facilefacile around electricityelektrina.
284
712000
3000
Pre nás -- my sme veľmi zbehlí s elektrinou.
12:10
We changezmena lightsvetlo bulbsžiarovky
285
715000
2000
Vymieňame žiarovky
12:12
withoutbez even thinkingpremýšľanie about it.
286
717000
2000
bez toho, aby sme na ne mysleli.
12:14
Our modelModel of securityzabezpečenia around electricityelektrina
287
719000
4000
Náš model bezpečnosti okolo elektriny
12:18
is something we were bornnarodený into.
288
723000
3000
je niečo, do čoho sa rodíme.
12:21
It hasn'tnemá changedzmenený as we were growingrastúce up.
289
726000
3000
Nezmenilo sa to, ako sme vyrastali.
12:24
And we're good at it.
290
729000
3000
A sme v tom dobrí.
12:27
Or think of the risksriziká
291
732000
2000
Alebo pomyslite na riziká
12:29
on the InternetInternet acrossnaprieč generationsgenerácie --
292
734000
2000
na Internete skrz generácie --
12:31
how your parentsrodičia approachprístup InternetInternet securityzabezpečenia,
293
736000
2000
ako k Internetovej bezpečnosti pristupujú vaši rodičia
12:33
versusproti how you do,
294
738000
2000
v porovnaní s vami,
12:35
versusproti how our kidsdeti will.
295
740000
3000
v porovnaní s našimi deťmi.
12:38
ModelsModely eventuallynakoniec fadezvädnúť into the backgroundpozadie.
296
743000
3000
Modely postupne upadajú do pozadia.
12:42
IntuitiveIntuitívne is just anotherďalší wordslovo for familiaroboznameny.
297
747000
3000
Intuitívne je len iné slovo pre bežné.
12:45
So as your modelModel is closeZavrieť to realityrealita,
298
750000
2000
Keď je váš model blízko realite
12:47
and it convergeskonverguje with feelingscity,
299
752000
2000
a konverguje s pocitmi,
12:49
you oftenčasto don't know it's there.
300
754000
3000
často ani neviete, že je tam.
12:52
So a nicepekný examplepríklad of this
301
757000
2000
Pekným príkladom
12:54
cameprišiel from last yearrok and swinemor fluchrípka.
302
759000
3000
bola minuloročná prasacia chrípka.
12:57
When swinemor fluchrípka first appearedobjavil,
303
762000
2000
Keď sa prvýkrát objavila prasacia chrípka,
12:59
the initialpočiatočné newsnoviny causedspôsobený a lot of overreactionprehnaná reakcia.
304
764000
4000
prvé správy spôsobili veľa prehnaných reakcií.
13:03
Now it had a namenázov,
305
768000
2000
Malo to meno,
13:05
whichktorý madevyrobený it scarierdesivejšie than the regularpravidelný fluchrípka,
306
770000
2000
čo ju robilo desivejšie ako bežnú chrípku,
13:07
even thoughhoci it was more deadlysmrteľný.
307
772000
2000
aj keď bola viac smrteľná.
13:09
And people thought doctorslekári should be ableschopný to dealobchod with it.
308
774000
4000
Ľudia si mysleli, že doktori by si s tým mali poradiť.
13:13
So there was that feelingpocit of lacknedostatok of controlovládanie.
309
778000
2000
To bol ten pocit straty kontroly.
13:15
And those two things
310
780000
2000
A tieto dve veci
13:17
madevyrobený the riskriskovať more than it was.
311
782000
2000
spravili riziko väčšie ako bolo.
13:19
As the noveltynovinka worenosil off, the monthsmesiaca wentšiel by,
312
784000
3000
Ako sa novota ošúchala, prešli mesiace,
13:22
there was some amountčiastka of tolerancetolerancia,
313
787000
2000
bola miera tolerancie,
13:24
people got used to it.
314
789000
2000
ľudia si na to zvykli.
13:26
There was no newNový datadáta, but there was lessmenej fearstrach.
315
791000
3000
Neboli žiadne nové dáta, ale bolo menej strachu.
13:29
By autumnjeseň,
316
794000
2000
Na jeseň
13:31
people thought
317
796000
2000
si ľudia mysleli,
13:33
the doctorslekári should have solvedvyriešené this already.
318
798000
2000
že to doktori už mali vyriešiť.
13:35
And there's kinddruh of a bifurcationrozdvojenie --
319
800000
2000
A vznikol rozkol --
13:37
people had to choosezvoliť
320
802000
2000
ľudia si mali vybrať
13:39
betweenmedzi fearstrach and acceptanceprijatie --
321
804000
4000
medzi strachom a prijatím --
13:43
actuallyvlastne fearstrach and indifferenceľahostajnosť --
322
808000
2000
vlastne strachom a ľahostajnosťou --
13:45
they kinddruh of chosevybral suspicionpodozrenie.
323
810000
3000
tak nejak si vybrali podozrevanie.
13:48
And when the vaccinevakcína appearedobjavil last winterzimné,
324
813000
3000
A keď sa poslednú zimu objavila vakcína,
13:51
there were a lot of people -- a surprisingprekvapujúce numberčíslo --
325
816000
3000
bolo veľa ľudí -- prekvapujúce číslo --
13:54
who refusedodmietol to get it --
326
819000
3000
ktorí ju odmietli --
13:58
as a nicepekný examplepríklad
327
823000
2000
pekný príklad
14:00
of how people'sľudia sa feelingscity of securityzabezpečenia changezmena, how theirich modelModel changeszmeny,
328
825000
3000
ako sa menia pocity bezpečnosti ľudí, ako sa menia ich modely,
14:03
sortdruh of wildlydivoko
329
828000
2000
tak nadivoko,
14:05
with no newNový informationinformácie,
330
830000
2000
bez nových informácií,
14:07
with no newNový inputvstup.
331
832000
2000
bez nových vstupov.
14:09
This kinddruh of thing happensdeje a lot.
332
834000
3000
To sa teraz deje dosť často.
14:12
I'm going to give one more complicationkomplikácie.
333
837000
3000
Pridám ešte jednu komplikáciu.
14:15
We have feelingpocit, modelModel, realityrealita.
334
840000
3000
Máme pocit, model, realitu.
14:18
I have a very relativisticrelativistická viewvyhliadka of securityzabezpečenia.
335
843000
2000
Mám veľmi relativistický pohľad na bezpečnosť.
14:20
I think it dependszávisí on the observerpozorovateľ.
336
845000
3000
Myslím, že závisí na pozorovateľovi.
14:23
And mostväčšina securityzabezpečenia decisionsrozhodnutie
337
848000
2000
A väčšina bezpečnostných rozhodnutí
14:25
have a varietyodroda of people involvedzapojení.
338
850000
4000
zahŕňa rôznych ľudí.
14:29
And stakeholderszúčastnené strany
339
854000
2000
Tým, ktorým o niečo ide,
14:31
with specificšpecifický trade-offskompromisy
340
856000
3000
so špecifickými kompromismi,
14:34
will try to influencevplyv the decisionrozhodnutie.
341
859000
2000
sa budú snažiť rozhodnutie ovplyvniť.
14:36
And I call that theirich agendaprogram.
342
861000
2000
Volám to ich agenda.
14:38
And you see agendaprogram --
343
863000
2000
Vidíte agendu --
14:40
this is marketingmarketing, this is politicspolitika --
344
865000
3000
toto je marketing, toto je politika --
14:43
tryingsnažia to convincepresvedčiť you to have one modelModel versusproti anotherďalší,
345
868000
3000
snažiace sa vás presvedčiť preferovať jeden model pred druhým,
14:46
tryingsnažia to convincepresvedčiť you to ignoreignorovať a modelModel
346
871000
2000
snažiace sa vás presvedčiť ignorovať model
14:48
and trustdôvera your feelingscity,
347
873000
3000
a veriť vašim pocitom,
14:51
marginalizingmarginalizácie people with modelsmodely you don't like.
348
876000
3000
marginalizujúc ľudí s modelmi, ktoré sa vám nepáčia.
14:54
This is not uncommonmenej časté.
349
879000
3000
To nie je neobvyklé.
14:57
An examplepríklad, a great examplepríklad, is the riskriskovať of smokingfajčenie.
350
882000
3000
Príklad, skvelý príklad, je riziko fajčenia.
15:01
In the historyhistórie of the pastminulosť 50 yearsleta, the smokingfajčenie riskriskovať
351
886000
3000
V histórii posledných 50 rokov riziká fajčenia
15:04
showsrelácie how a modelModel changeszmeny,
352
889000
2000
ukazujú, ako sa model mení,
15:06
and it alsotaktiež showsrelácie how an industrypriemysel fightsbojuje againstproti
353
891000
3000
a tiež ukazujú, ako sa priemysel bráni
15:09
a modelModel it doesn't like.
354
894000
2000
modelu, ktorý sa mu nepáči.
15:11
ComparePorovnať that to the secondhandSecondhand smokedym debaterozprava --
355
896000
3000
Porovnajte to s debatou o pasívnom fajčení
15:14
probablypravdepodobne about 20 yearsleta behindza.
356
899000
3000
asi 20 rokov pozadu.
15:17
Think about seatsedlo beltspásy.
357
902000
2000
Pomyslite na pásy v aute.
15:19
When I was a kiddieťa, no one worenosil a seatsedlo beltremeň.
358
904000
2000
Keď som bol dieťa, nikto si nedával pásy.
15:21
NowadaysV dnešnej dobe, no kiddieťa will let you drivepohon
359
906000
2000
Dnes váš žiadne dieťa nenechá jazdiť,
15:23
if you're not wearingnosenie a seatsedlo beltremeň.
360
908000
2000
kým nemáte zapnutý pás.
15:26
ComparePorovnať that to the airbagairbag debaterozprava --
361
911000
2000
Porovnajte to s diskusiou o airbagoch --
15:28
probablypravdepodobne about 30 yearsleta behindza.
362
913000
3000
asi 30 rokov pozadu.
15:31
All examplespríklady of modelsmodely changingmeniace sa.
363
916000
3000
Všetko príklady meniacich sa modelov.
15:36
What we learnučiť sa is that changingmeniace sa modelsmodely is hardusilovne.
364
921000
3000
Čo si zoberieme, je, že meniť modely je ťažké.
15:39
ModelsModely are hardusilovne to dislodgevytlačiť.
365
924000
2000
Modely sa ťažko rozhýbu.
15:41
If they equalrovný your feelingscity,
366
926000
2000
Ak sa zhodujú s vašimi pocitmi,
15:43
you don't even know you have a modelModel.
367
928000
3000
tak ani neviete, že máte model.
15:46
And there's anotherďalší cognitivepoznávacie biaspredsudok
368
931000
2000
A je aj ďalší kognitívny predsudok,
15:48
I'll call confirmationpotvrdenie biaspredsudok,
369
933000
2000
nazvem ho predsudok potvrdenia,
15:50
where we tendsklon to acceptsúhlasiť datadáta
370
935000
3000
kde zvykneme prijímať dáta,
15:53
that confirmspotvrdzuje our beliefspresvedčenie
371
938000
2000
ktoré potvrdzujú naše názory,
15:55
and rejectodmietnuť datadáta that contradictsv rozpore s our beliefspresvedčenie.
372
940000
3000
a odmietať dáta, ktoré naším názorom odporujú.
15:59
So evidencedôkaz againstproti our modelModel,
373
944000
2000
Takže, dôkazy proti nášmu modelu
16:01
we're likelypravdepodobný to ignoreignorovať, even if it's compellingpresvedčivé.
374
946000
3000
asi budeme ignorovať, aj keď sú presvedčivé.
16:04
It has to get very compellingpresvedčivé before we'llmy budeme payplatiť attentionpozornosť.
375
949000
3000
Musí to byť veľmi presvedčivé, než začneme venovať pozornosť i im.
16:08
NewNové modelsmodely that extendpredĺžiť long periodsmenštruácia of time are hardusilovne.
376
953000
2000
Nové modely, ktoré zahŕňajú dlhé časové obdobia, sú ťažké.
16:10
GlobalGlobálne warmingzahrievanie is a great examplepríklad.
377
955000
2000
Globálne otepľovanie je dobrý príklad.
16:12
We're terriblepríšerný
378
957000
2000
Sme zlí
16:14
at modelsmodely that spanrozpätie 80 yearsleta.
379
959000
2000
s modelmi, ktoré preklenujú 80 rokov.
16:16
We can do to the nextĎalšie harvestžatvy.
380
961000
2000
Vieme si poradiť do ďalšej žatvy.
16:18
We can oftenčasto do untilkým our kidsdeti growrásť, pestovať up.
381
963000
3000
Vieme si často poradiť, kým vyrastú naše deti.
16:21
But 80 yearsleta, we're just not good at.
382
966000
3000
Ale 80 rokov, s tým takí dobrí nie sme.
16:24
So it's a very hardusilovne modelModel to acceptsúhlasiť.
383
969000
3000
Je to veľmi ťažký model na prijatie.
16:27
We can have bothoboje modelsmodely in our headhlava simultaneouslyzároveň,
384
972000
4000
Môžeme mať oba modely v našej hlave naraz,
16:31
right, that kinddruh of problemproblém
385
976000
3000
alebo ten typ problému,
16:34
where we're holdingdržanie bothoboje beliefspresvedčenie togetherspolu,
386
979000
3000
kde zastávame oba názory spoločne,
16:37
right, the cognitivepoznávacie dissonancedisonancia.
387
982000
2000
alebo kognitívnu disonanciu.
16:39
EventuallyNakoniec,
388
984000
2000
Nakoniec,
16:41
the newNový modelModel will replacevymeniť the oldstarý modelModel.
389
986000
3000
nový model nahradí starý model.
16:44
StrongStrong feelingscity can createvytvoriť a modelModel.
390
989000
3000
Silné pocity môžu vytvoriť model.
16:47
SeptemberSeptembra 11thth createdvytvoril a securityzabezpečenia modelModel
391
992000
3000
11. september vytvoril bezpečnostný model
16:50
in a lot of people'sľudia sa headshlava.
392
995000
2000
v hlavách mnohých ľudí.
16:52
AlsoTiež, personalosobné experiencesskúsenosti with crimezločin can do it,
393
997000
3000
Taktiež, osobné skúsenosti so zločinom to vedia,
16:55
personalosobné healthzdravie scarevydesiť,
394
1000000
2000
osobné zdravotné vydesenie,
16:57
a healthzdravie scarevydesiť in the newsnoviny.
395
1002000
2000
zdesenie o zdraví v správach.
16:59
You'llBudete see these calledvolal flashbulbbliknutie eventsdiania
396
1004000
2000
Stretnete sa s takzvanými žiarovkovými udalosťami
17:01
by psychiatristsPsychiatri.
397
1006000
2000
u psychiatrov.
17:03
They can createvytvoriť a modelModel instantaneouslyokamžite,
398
1008000
3000
Môžu vytvoriť model instantne,
17:06
because they're very emotiveemotívne.
399
1011000
3000
lebo sú veľmi emotívne.
17:09
So in the technologicaltechnologický worldsvet,
400
1014000
2000
Takže, v technologickom svete
17:11
we don't have experienceskúsenosť
401
1016000
2000
nemáme skúsenosti
17:13
to judgesudca modelsmodely.
402
1018000
2000
na posúdenie modelov.
17:15
And we relyspoliehať on othersostatné. We relyspoliehať on proxiesproxy.
403
1020000
2000
Spoliehame sa na iných. Spoliehame na sprostredkovanie.
17:17
I mean, this workspráce as long as it's to correctkorektné othersostatné.
404
1022000
4000
Funguje to, kým to má naprávať iných.
17:21
We relyspoliehať on governmentvláda agenciesagentúry
405
1026000
2000
Spoliehame na štátne agentúry,
17:23
to tell us what pharmaceuticalsfarmaceutické výrobky are safetrezor.
406
1028000
5000
aby nám povedali, ktoré lieky sú bezpečné.
17:28
I flewlietal here yesterdayvčera.
407
1033000
2000
Priletel som sem včera.
17:30
I didn't checkskontrolovať the airplanelietadlo.
408
1035000
2000
Nekontroloval som lietadlo.
17:32
I reliedspoliehali on some other groupskupina
409
1037000
2000
Spoľahol som sa na dáku inú skupinu,
17:34
to determineurčiť whetherči my planelietadlo was safetrezor to flylietať.
410
1039000
3000
aby určila, či je moje lietadlo bezpečné pre let.
17:37
We're here, nonenikto of us fearstrach the roofstrecha is going to collapsekolaps on us,
411
1042000
3000
Sme tu, nikto z nás sa nebojí, že na nás spadne tá strecha,
17:40
not because we checkedkontrolované,
412
1045000
3000
nie preto, že by sme ju kontrolovali,
17:43
but because we're prettypekný sure
413
1048000
2000
ale preto, že sme si dosť istí,
17:45
the buildingbudova codeskódy here are good.
414
1050000
3000
že stavebné predpisy sú tu v poriadku.
17:48
It's a modelModel we just acceptsúhlasiť
415
1053000
2000
Je to model, ktorý jednoducho akceptujeme
17:50
prettypekný much by faithviera.
416
1055000
2000
vlastne vo viere.
17:52
And that's okay.
417
1057000
3000
A to je ok.
17:57
Now, what we want
418
1062000
2000
No, čo chceme,
17:59
is people to get familiaroboznameny enoughdosť
419
1064000
2000
je, aby sa ľudia dostatočne zoznámili
18:01
with better modelsmodely --
420
1066000
2000
s lepšími modelmi --
18:03
have it reflectedodráža in theirich feelingscity --
421
1068000
2000
aby sa to odrazilo v ich pocitoch --
18:05
to allowdovoliť them to make securityzabezpečenia trade-offskompromisy.
422
1070000
4000
umožnilo im to robiť bezpečnostné kompromisy.
18:09
Now when these go out of whackrana,
423
1074000
2000
Lebo až sa tie vymknú z ruky,
18:11
you have two optionsmožnosti.
424
1076000
2000
máte dve možnosti.
18:13
One, you can fixopraviť people'sľudia sa feelingscity,
425
1078000
2000
Prvá, môžete opraviť pocity ľudí,
18:15
directlypriamo appealodvolanie to feelingscity.
426
1080000
2000
priamo pôsobiť na city.
18:17
It's manipulationmanipulácia, but it can work.
427
1082000
3000
To je manipulácia, ale môže fungovať.
18:20
The seconddruhý, more honestúprimný way
428
1085000
2000
Druhá, viac čestná možnosť,
18:22
is to actuallyvlastne fixopraviť the modelModel.
429
1087000
3000
je opraviť ten model.
18:26
ChangeZmena happensdeje slowlypomaly.
430
1091000
2000
Zmena sa deje pomaly.
18:28
The smokingfajčenie debaterozprava tookzobral 40 yearsleta,
431
1093000
3000
Debata o fajčení trvala 40 rokov,
18:31
and that was an easyjednoduchý one.
432
1096000
3000
a to bola z tých jednoduchých.
18:34
Some of this stuffvec is hardusilovne.
433
1099000
2000
Niektoré z týchto vecí sú ťažké.
18:36
I mean really thoughhoci,
434
1101000
2000
Veľmi ťažké,
18:38
informationinformácie seemszdá like our bestnajlepší hopenádej.
435
1103000
2000
informácie vyzerajú ako naša najlepšia nádej.
18:40
And I liedklamal.
436
1105000
2000
A klamal som.
18:42
RememberPamätajte si I said feelingpocit, modelModel, realityrealita;
437
1107000
2000
Pamätáte, keď som vravel pocit, model a realita.
18:44
I said realityrealita doesn't changezmena. It actuallyvlastne does.
438
1109000
3000
Vravel som, že realita sa nemení. Ale mení sa.
18:47
We livežiť in a technologicaltechnologický worldsvet;
439
1112000
2000
Žijeme v technologickom svete;
18:49
realityrealita changeszmeny all the time.
440
1114000
3000
realita sa mení stále.
18:52
So we mightsila have -- for the first time in our speciesdruh --
441
1117000
3000
Možno máme, že -- po prvýkrát v našom druhu --
18:55
feelingpocit chasesnaháňačky modelModel, modelModel chasesnaháňačky realityrealita, reality'srealita je movingpohyblivý --
442
1120000
3000
pocit naháňa model, model naháňa realitu, realita sa hýbe --
18:58
they mightsila never catchúlovok up.
443
1123000
3000
a možno sa nikdy nestretnú.
19:02
We don't know.
444
1127000
2000
Nevieme to.
19:04
But in the long-termdlhý termín,
445
1129000
2000
Ale v dlhšom čase,
19:06
bothoboje feelingpocit and realityrealita are importantdôležitý.
446
1131000
3000
aj pocity aj realita sú dôležité.
19:09
And I want to closeZavrieť with two quickrýchly storiespríbehy to illustrateilustrovať this.
447
1134000
3000
A chcel by som skončiť s dvoma krátkymi príkladmi na ilustráciu.
19:12
1982 -- I don't know if people will rememberpamätať this --
448
1137000
2000
1982 -- neviem, či si toto ľudia pamätajú --
19:14
there was a shortkrátky epidemicepidémie
449
1139000
3000
bola krátka epidémia
19:17
of TylenolTylenol poisoningsotravy in the UnitedVeľká StatesŠtáty.
450
1142000
2000
otravami Tylenolom v Spojených štátoch.
19:19
It's a horrifichrozný storypríbeh. SomeoneNiekto tookzobral a bottlefľaša of TylenolTylenol,
451
1144000
3000
Je to strašný príbeh. Niekto vzal fľašku Tylenolu,
19:22
put poisonjed in it, closedZATVORENÉ it up, put it back on the shelfPolica.
452
1147000
3000
dal do nej jed, zavrel ju a položil naspäť do regálu.
19:25
SomeoneNiekto elseinak boughtkúpil it and diedzomrel.
453
1150000
2000
Niekto iný ju kúpil a zomrel.
19:27
This terrifiedvydesený people.
454
1152000
2000
To vydesilo ľudí.
19:29
There were a couplepár of copycatimitátor attacksútoky.
455
1154000
2000
Bolo pár napodobňujúcich útokov.
19:31
There wasn'tnebol any realskutočný riskriskovať, but people were scaredvydesený.
456
1156000
3000
Nebolo to žiadne reálne riziko, ale ľudia boli vydesení.
19:34
And this is how
457
1159000
2000
A to je,
19:36
the tamper-proofodolný voči drugliek industrypriemysel was inventedvynašiel.
458
1161000
2000
ako vznikol priemysel nemanipulovateľných liekov.
19:38
Those tamper-proofodolný voči capsvrchnáky, that cameprišiel from this.
459
1163000
2000
Tie bezpečné vrchnáky, ktoré z toho vzišli.
19:40
It's completekompletné securityzabezpečenia theaterdivadlo.
460
1165000
2000
Je to úplné bezpečnostné divadlo.
19:42
As a homeworkdomáca úloha assignmentprideľovanie, think of 10 waysspôsoby to get around it.
461
1167000
2000
Na domácu úlohu vymyslite 10 spôsobov, ako to obísť.
19:44
I'll give you one, a syringeinjekčná striekačka.
462
1169000
3000
Dám vám jeden, injekcia.
19:47
But it madevyrobený people feel better.
463
1172000
3000
Ale ľuďom to zlepšilo pocit.
19:50
It madevyrobený theirich feelingpocit of securityzabezpečenia
464
1175000
2000
Spravilo to ich pocit bezpečia
19:52
more matchzápas the realityrealita.
465
1177000
2000
bližší k realite.
19:54
Last storypríbeh, a fewmálo yearsleta agopred, a friendpriateľ of minebaňa gavedal birthpôrod.
466
1179000
3000
Posledný príbeh, pred pár rokmi jedna známa porodila.
19:57
I visitnávšteva her in the hospitalnemocnica.
467
1182000
2000
Navštívil som ju v nemocnici.
19:59
It turnszákruty out when a baby'sdieťaťa bornnarodený now,
468
1184000
2000
Vysvitlo, že keď sa teraz dieťa narodí,
20:01
they put an RFIDRFID braceletnáramok on the babydieťa,
469
1186000
2000
dajú mu náramok s RFID
20:03
put a correspondingzodpovedajúce one on the mothermatka,
470
1188000
2000
a korešpondujúci dajú matke,
20:05
so if anyoneniekto other than the mothermatka takes the babydieťa out of the maternitymaterstvo wardstrážiť,
471
1190000
2000
takže keď niekto iný ako matka zoberie dieťa z oddelenia
20:07
an alarmpoplach goeside off.
472
1192000
2000
spustí sa alarm.
20:09
I said, "Well, that's kinddruh of neatúhľadný.
473
1194000
2000
Povedal som, "To je celkom milé.
20:11
I wonderdiviť how rampantna dennom poriadku babydieťa snatchingchytiť is
474
1196000
2000
Rozmýšľam, aké rozšírené je kradnutie bábätiek
20:13
out of hospitalsnemocnice."
475
1198000
2000
v našich nemocniciach."
20:15
I go home, I look it up.
476
1200000
2000
Prišiel som domov, vyhľadal som to.
20:17
It basicallyv podstate never happensdeje.
477
1202000
2000
Prakticky sa to nikdy nestalo.
20:19
But if you think about it,
478
1204000
2000
Ale keď o tom rozmýšľate,
20:21
if you are a hospitalnemocnica,
479
1206000
2000
keď ste v nemocnici
20:23
and you need to take a babydieťa away from its mothermatka,
480
1208000
2000
a musíte matke odobrať dieťa,
20:25
out of the roomizba to runbeh some testsskúšky,
481
1210000
2000
preč s miestnosti aby ste spravili nejaké testy,
20:27
you better have some good securityzabezpečenia theaterdivadlo,
482
1212000
2000
tak by ste mali mať nejaké dobré bezpečnostné divadlo,
20:29
or she's going to riproztrhnutiu your armpaže off.
483
1214000
2000
lebo vám odtrhne ruku.
20:31
(LaughterSmiech)
484
1216000
2000
(Smiech)
20:33
So it's importantdôležitý for us,
485
1218000
2000
Takže je to pre nás dôležité,
20:35
those of us who designdizajn securityzabezpečenia,
486
1220000
2000
pre nás, ktorí dizajnujeme bezpečnosť,
20:37
who look at securityzabezpečenia policypolitika,
487
1222000
3000
ktorí riešime bezpečnostnú politiku,
20:40
or even look at publicverejnosť policypolitika
488
1225000
2000
alebo riešime verejnú politiku
20:42
in waysspôsoby that affectovplyvniť securityzabezpečenia.
489
1227000
2000
spôsobmi, ktoré ovplyvňujú bezpečnosť.
20:44
It's not just realityrealita; it's feelingpocit and realityrealita.
490
1229000
3000
Nie je to len realita, je to pocit a realita.
20:47
What's importantdôležitý
491
1232000
2000
A čo je dôležité,
20:49
is that they be about the samerovnaký.
492
1234000
2000
je, aby boli v podstate rovnaké.
20:51
It's importantdôležitý that, if our feelingscity matchzápas realityrealita,
493
1236000
2000
Je dôležité, že keď naše pocity odrážajú realitu,
20:53
we make better securityzabezpečenia trade-offskompromisy.
494
1238000
2000
robíme lepšie bezpečnostné kompromisy.
20:55
Thank you.
495
1240000
2000
Ďakujem.
20:57
(ApplausePotlesk)
496
1242000
2000
(Potlesk)

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee