ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Bruce Schneier: Miraż bezpieczeństwa

Filmed:
958,315 views

Poczucie bezpieczeństwa i rzeczywiste bezpieczeństwo nie zawsze idą w parze, mówi ekspert bezpieczeństwa komputerowego Bruce Schneier. Na TEDxPSU wyjaśnia on, dlaczego wydajemy miliardy na przeciwdziałanie zagrożeniom przedstawianym w newsach, jak "teatr bezpieczeństwa", który rozgrywa się w tej chwili na najbliższym lotnisku, podczas gdy ignoruje się bardziej prawdopodobne zagrożenia. Dowiemy się również jak przełamać ten schemat.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securitybezpieczeństwo is two differentróżne things:
0
0
2000
Bezpieczeństwo oznacza dwie różne rzeczy:
00:17
it's a feelinguczucie, and it's a realityrzeczywistość.
1
2000
2000
jest to uczucie i rzeczywistość.
00:19
And they're differentróżne.
2
4000
2000
I są one różne.
00:21
You could feel securebezpieczne
3
6000
2000
Możecie czuć się bezpiecznie
00:23
even if you're not.
4
8000
2000
nawet, gdy nie jesteście.
00:25
And you can be securebezpieczne
5
10000
2000
I możecie być bezpieczni
00:27
even if you don't feel it.
6
12000
2000
nawet, jeśli tego nie czujecie.
00:29
Really, we have two separateoddzielny conceptskoncepcje
7
14000
2000
W rzeczywistości mamy więc dwie oddzielne koncepcje
00:31
mappedmapowane ontona the samepodobnie wordsłowo.
8
16000
2000
podpięte pod to samo słowo.
00:33
And what I want to do in this talk
9
18000
2000
I to, co chce osiągnąć w tym wystąpieniu
00:35
is to splitrozdzielać them apartniezależnie --
10
20000
2000
to rozdzielić je -
00:37
figuringzastanawianie się out when they divergeodchodzić
11
22000
2000
rozgryzając przy tym kiedy się rozbiegają
00:39
and how they convergezbiegają się.
12
24000
2000
i jak się łączą.
00:41
And languagejęzyk is actuallytak właściwie a problemproblem here.
13
26000
2000
Język jest tu w zasadzie przeszkodą.
00:43
There aren'tnie są a lot of good wordssłowa
14
28000
2000
Nie ma zbyt dużo dobrych słów
00:45
for the conceptskoncepcje we're going to talk about.
15
30000
3000
opisujących koncepcje, o których będziemy rozmawiać.
00:48
So if you look at securitybezpieczeństwo
16
33000
2000
Jeśli więc spojrzycie na bezpieczeństwo
00:50
from economicgospodarczy termswarunki,
17
35000
2000
z punktu widzenia ekonomii,
00:52
it's a trade-offkompromis.
18
37000
2000
to jest to kompromis.
00:54
EveryKażdy time you get some securitybezpieczeństwo,
19
39000
2000
Za każdym razem, gdy dostajecie trochę bezpieczeństwa,
00:56
you're always tradinghandlowy off something.
20
41000
2000
musicie również z czegoś zrezygnować.
00:58
WhetherCzy this is a personalosobisty decisiondecyzja --
21
43000
2000
Czy jest to osobista decyzja -
01:00
whetherczy you're going to installzainstalować a burglarWłamywacz alarmalarm in your home --
22
45000
2000
czy zainstalować alarm antywłamaniowy w waszym domu -
01:02
or a nationalkrajowy decisiondecyzja -- where you're going to invadenajechać some foreignobcy countrykraj --
23
47000
3000
albo decyzja narodowa - czy najedziemy na obcy kraj -
01:05
you're going to tradehandel off something,
24
50000
2000
będziecie musieli coś poświęcić.
01:07
eitherzarówno moneypieniądze or time, convenienceWygoda, capabilitiesmożliwości,
25
52000
3000
Albo pieniądze, bądź czas, wygody, możliwości,
01:10
maybe fundamentalfundamentalny libertieswolności.
26
55000
3000
może podstawowe prawa.
01:13
And the questionpytanie to askzapytać when you look at a securitybezpieczeństwo anything
27
58000
3000
I pytanie, które powinno się pojawić przy zabezpieczaniu czegokolwiek
01:16
is not whetherczy this makesczyni us saferbezpieczniejsze,
28
61000
3000
to nie, czy to uczyni nas bezpieczniejszymi,
01:19
but whetherczy it's worthwartość the trade-offkompromis.
29
64000
3000
ale czy warte jest swojej ceny.
01:22
You've heardsłyszał in the pastprzeszłość severalkilka yearslat,
30
67000
2000
Słyszeliście w ciągu paru ostatnich lat,
01:24
the worldświat is saferbezpieczniejsze because SaddamSaddam HusseinHussein is not in powermoc.
31
69000
2000
że świat jest bezpieczniejszy, gdyż Saddam Hussein nie jest u władzy.
01:26
That mightmoc be trueprawdziwe, but it's not terriblyniemożliwie relevantistotnych.
32
71000
3000
To może być prawda, ale nie jest zbyt ważne.
01:29
The questionpytanie is, was it worthwartość it?
33
74000
3000
Pytanie brzmi, czy było warto?
01:32
And you can make your ownwłasny decisiondecyzja,
34
77000
3000
I możecie podjąć decyzję sami,
01:35
and then you'llTy będziesz decidedecydować się whetherczy the invasioninwazja was worthwartość it.
35
80000
2000
i wtedy wy zdecydujecie czy inwazja była tego warta.
01:37
That's how you think about securitybezpieczeństwo --
36
82000
2000
Tak właśnie powinno się myśleć o bezpieczeństwie,
01:39
in termswarunki of the trade-offkompromis.
37
84000
2000
jako o kompromisach.
01:41
Now there's oftenczęsto no right or wrongźle here.
38
86000
3000
Często nie ma tu jednoznacznej odpowiedzi.
01:44
Some of us have a burglarWłamywacz alarmalarm systemsystem at home,
39
89000
2000
Niektórzy z nas mają alarm w domu,
01:46
and some of us don't.
40
91000
2000
niektórzy nie.
01:48
And it'llbędzie dependzależeć on where we liverelacja na żywo,
41
93000
2000
I będzie to zależało od tego gdzie żyjemy,
01:50
whetherczy we liverelacja na żywo alonesam or have a familyrodzina,
42
95000
2000
czy mieszkamy sami czy z rodziną,
01:52
how much coolchłodny stuffrzeczy we have,
43
97000
2000
ile fajnych rzeczy posiadamy,
01:54
how much we're willingskłonny to acceptzaakceptować
44
99000
2000
jak bardzo jesteśmy w stanie zaakceptować
01:56
the riskryzyko of theftkradzież.
45
101000
2000
ryzyko kradzieży.
01:58
In politicsPolityka alsorównież,
46
103000
2000
Także w polityce
02:00
there are differentróżne opinionsopinie.
47
105000
2000
są różne opinie.
02:02
A lot of timesczasy, these trade-offskompromisy
48
107000
2000
W wielu wypadkach w tych ustępstwach
02:04
are about more than just securitybezpieczeństwo,
49
109000
2000
chodzi o coś więcej niż o bezpieczeństwo
02:06
and I think that's really importantważny.
50
111000
2000
i myślę, że jest to bardzo ważne.
02:08
Now people have a naturalnaturalny intuitionintuicja
51
113000
2000
Ludzie mają naturalną intuicję
02:10
about these trade-offskompromisy.
52
115000
2000
jeśli chodzi o te ustępstwa.
02:12
We make them everykażdy day --
53
117000
2000
Dokonujemy ich każdego dnia.
02:14
last night in my hotelhotel roompokój,
54
119000
2000
Ostatniej nocy w moim pokoju hotelowym,
02:16
when I decidedzdecydowany to double-lockDouble-lock the doordrzwi,
55
121000
2000
gdy zdecydowałem się zamknąć oba zamki,
02:18
or you in your carsamochód when you drovestado here,
56
123000
2000
albo wy jadąc tu samochodem,
02:20
when we go eatjeść lunchlunch
57
125000
2000
kiedy idziemy na lunch
02:22
and decidedecydować się the food'sżywności not poisonzatruć and we'lldobrze eatjeść it.
58
127000
3000
i decydujemy, że jedzenie nie jest zatrute, więc je jemy.
02:25
We make these trade-offskompromisy again and again,
59
130000
2000
Dokonujemy tych ustępstw na okrągło,
02:27
multiplewielokrotność timesczasy a day.
60
132000
2000
wiele razy dziennie.
02:29
We oftenczęsto won'tprzyzwyczajenie even noticeogłoszenie them.
61
134000
2000
Często nawet tego nie zauważamy.
02:31
They're just partczęść of beingistota aliveżywy; we all do it.
62
136000
2000
Jest to po prostu część bycia żywym, wszyscy to robimy.
02:33
EveryKażdy speciesgatunki does it.
63
138000
3000
Każdy gatunek to robi.
02:36
ImagineWyobraź sobie a rabbitKrólik in a fieldpole, eatingjedzenie grasstrawa,
64
141000
2000
Wyobraźcie sobie zająca na polu, jedzącego trawę.
02:38
and the rabbit'sKrólik going to see a foxlis.
65
143000
3000
I ten zając zauważa lisa.
02:41
That rabbitKrólik will make a securitybezpieczeństwo trade-offkompromis:
66
146000
2000
Ten zając dokona ustępstwa na rzecz bezpieczeństwa:
02:43
"Should I stayzostać, or should I fleeucieczki?"
67
148000
2000
"Czy powinienem zostać, czy może uciec?"
02:45
And if you think about it,
68
150000
2000
I jeśli o tym pomyślicie,
02:47
the rabbitskróliki that are good at makingzrobienie that trade-offkompromis
69
152000
3000
zające, które są dobre w podejmowaniu takich decyzji,
02:50
will tendzmierzać to liverelacja na żywo and reproducerozmnażać się,
70
155000
2000
będą żyć i rozmnażać się,
02:52
and the rabbitskróliki that are badzły at it
71
157000
2000
podczas gdy zające, które tego nie potrafią,
02:54
will get eatenjeść or starvegłodować.
72
159000
2000
zostaną zjedzone lub umrą z głodu.
02:56
So you'dty byś think
73
161000
2000
Można więc pomyśleć,
02:58
that us, as a successfuludany speciesgatunki on the planetplaneta --
74
163000
3000
że my, jako nadrzędny gatunek na tej planecie -
03:01
you, me, everybodywszyscy --
75
166000
2000
wy, ja, wszyscy -
03:03
would be really good at makingzrobienie these trade-offskompromisy.
76
168000
3000
będziemy naprawdę dobrzy w decydowaniu o tych kompromisach.
03:06
YetJeszcze it seemswydaje się, again and again,
77
171000
2000
Jednak wydaje się, że wciąż
03:08
that we're hopelesslybeznadziejnie badzły at it.
78
173000
3000
jesteśmy w tym beznadziejnie źli.
03:11
And I think that's a fundamentallyzasadniczo interestingciekawy questionpytanie.
79
176000
3000
Myślę, że jest to fundamentalnie interesujące pytanie.
03:14
I'll give you the shortkrótki answerodpowiedź.
80
179000
2000
Dam wam krótką odpowiedź.
03:16
The answerodpowiedź is, we respondodpowiadać to the feelinguczucie of securitybezpieczeństwo
81
181000
2000
Odpowiedź brzmi, reagujemy na uczucie bezpieczeństwa,
03:18
and not the realityrzeczywistość.
82
183000
3000
a nie rzeczywistość.
03:21
Now mostwiększość of the time, that worksPrace.
83
186000
3000
W większości wypadków to działa.
03:25
MostWiększość of the time,
84
190000
2000
W większości,
03:27
feelinguczucie and realityrzeczywistość are the samepodobnie.
85
192000
3000
uczucie i rzeczywistość to to samo.
03:30
CertainlyZ pewnością that's trueprawdziwe
86
195000
2000
Z pewnością jest to prawdą
03:32
for mostwiększość of humanczłowiek prehistoryprehistoria.
87
197000
3000
dla większej części ludzkiej prehistorii.
03:35
We'veMamy developedrozwinięty this abilityzdolność
88
200000
3000
Wykształciliśmy tą umiejętność,
03:38
because it makesczyni evolutionaryewolucyjny sensesens.
89
203000
2000
ponieważ ma ona ewolucyjny sens.
03:40
One way to think of it
90
205000
2000
Jeden punkt widzenia,
03:42
is that we're highlywysoko optimizedzoptymalizowany
91
207000
2000
to że jesteśmy wysoce zoptymalizowani
03:44
for riskryzyko decisionsdecyzje
92
209000
2000
do podejmowania decyzji dotyczących ryzyka,
03:46
that are endemicendemiczne to livingżycie in smallmały familyrodzina groupsgrupy
93
211000
3000
które są powszechne przy życiu w małych rodzinnych grupach
03:49
in the EastWschód AfricanAfrykańska highlandsHighlands in 100,000 B.C.
94
214000
3000
na wyżynach wschodniej Afryki 100 000 lat P.N.E. -
03:52
2010 NewNowy YorkYork, not so much.
95
217000
3000
w Nowym Jorku, w 2010 roku, nie za bardzo.
03:56
Now there are severalkilka biasesuprzedzenia in riskryzyko perceptionpostrzeganie.
96
221000
3000
Istnieje szereg uprzedzeń w postrzeganiu ryzyka.
03:59
A lot of good experimentseksperymenty in this.
97
224000
2000
Wiele dobrych eksperymentów w tej dziedzinie.
04:01
And you can see certainpewny biasesuprzedzenia that come up again and again.
98
226000
3000
I możecie zaobserwować pewne uprzedzenia, które występują na okrągło.
04:04
So I'll give you fourcztery.
99
229000
2000
Podam cztery przykłady.
04:06
We tendzmierzać to exaggeratewyolbrzymiać spectacularspektakularny and rarerzadko spotykany risksryzyko
100
231000
3000
Mamy tendencję do wyolbrzymiania spektakularnego i rzadkiego ryzyka,
04:09
and downplaybagatelizować commonpospolity risksryzyko --
101
234000
2000
a umniejszania zwyczajnych zagrożeń,
04:11
so flyinglatający versusprzeciw drivingnapędowy.
102
236000
3000
jak latanie kontra prowadzenie samochodu.
04:14
The unknownnieznany is perceivedpostrzegane
103
239000
2000
Niewiadome jest postrzegane
04:16
to be riskierbardziej ryzykowne than the familiarznajomy.
104
241000
3000
jako bardziej ryzykowne niż wiadome.
04:20
One exampleprzykład would be,
105
245000
2000
Przykładem tego będzie
04:22
people fearstrach kidnappingporwanie by strangersobcy
106
247000
3000
strach ludzi przed byciem porwanymi przez nieznajomych,
04:25
when the datadane supportsobsługuje kidnappingporwanie by relativeskrewni is much more commonpospolity.
107
250000
3000
podczas gdy dane wskazują, że częstsze są porwania przez krewnych.
04:28
This is for childrendzieci.
108
253000
2000
To w stosunku do dzieci.
04:30
ThirdTrzecie, personifieduosobieniem risksryzyko
109
255000
3000
Po trzecie, ryzyko spersonifikowane
04:33
are perceivedpostrzegane to be greaterwiększy than anonymousanonimowy risksryzyko --
110
258000
3000
jest postrzegane jako większe niż anonimowe.
04:36
so BinBin LadenŁadunkiem is scarierstraszniejsze because he has a nameNazwa.
111
261000
3000
Tak więc Bin Laden jest bardziej przerażający, bo ma imię.
04:39
And the fourthczwarty
112
264000
2000
I po czwarte,
04:41
is people underestimatenie doceniać risksryzyko
113
266000
2000
ludzie nie doceniają ryzyka
04:43
in situationssytuacje they do controlkontrola
114
268000
2000
w sytuacjach, które kontrolują,
04:45
and overestimatePrzeszacowanie them in situationssytuacje they don't controlkontrola.
115
270000
4000
oraz wyolbrzymiają ryzyko w sytuacjach poza ich kontrolą.
04:49
So oncepewnego razu you take up skydivingskoki spadochronowe or smokingpalenie,
116
274000
3000
Jeśli więc myślimy o skokach ze spadochronem czy paleniu,
04:52
you downplaybagatelizować the risksryzyko.
117
277000
2000
umniejszamy ryzyko.
04:54
If a riskryzyko is thrustnacisk uponna you -- terrorismterroryzm was a good exampleprzykład --
118
279000
3000
Kiedy ryzyko prze na ciebie - terroryzm jest dobrym przykładem -
04:57
you'llTy będziesz overplayoverplay it because you don't feel like it's in your controlkontrola.
119
282000
3000
wyolbrzymiasz je, bo nie czujesz, że masz nad nim kontrolę.
05:02
There are a bunchwiązka of other of these biasesuprzedzenia, these cognitivepoznawczy biasesuprzedzenia,
120
287000
3000
Jest dużo podobnych uprzedzeń, tych poznawczych uprzedzeń,
05:05
that affectoddziaływać our riskryzyko decisionsdecyzje.
121
290000
3000
które wpływają na nasze decyzje odnośnie ryzyka.
05:08
There's the availabilitydostępność heuristicheurystyka,
122
293000
2000
Istnieje heurystyka dostępności,
05:10
whichktóry basicallygruntownie meansznaczy
123
295000
2000
co zasadniczo oznacza,
05:12
we estimateoszacowanie the probabilityprawdopodobieństwo of something
124
297000
3000
że oceniamy prawdopodobieństwo czegoś
05:15
by how easyłatwo it is to bringprzynieść instancesinstancje of it to mindumysł.
125
300000
4000
poprzez łatwość z jaką przychodzi nam pomyśleć o jego przykładach.
05:19
So you can imaginewyobrażać sobie how that worksPrace.
126
304000
2000
Możecie więc sobie wyobrazić jak to działa.
05:21
If you hearsłyszeć a lot about tigerTygrys attacksataki, there mustmusi be a lot of tigersTygrysy around.
127
306000
3000
Jeśli słyszycie dużo o atakach tygrysów, to musi być dużo tygrysów w okolicy.
05:24
You don't hearsłyszeć about lionLew attacksataki, there aren'tnie są a lot of lionsosobliwości miasta around.
128
309000
3000
Nie słyszycie o atakach lwów, więc w okolicy nie ma lwów.
05:27
This worksPrace untilaż do you inventwymyślać newspapersgazety.
129
312000
3000
To działa dopóki nie odkryjesz gazet.
05:30
Because what newspapersgazety do
130
315000
2000
Ponieważ to, co robią gazety,
05:32
is they repeatpowtarzać again and again
131
317000
2000
to powtarzanie w kółko
05:34
rarerzadko spotykany risksryzyko.
132
319000
2000
rzadkich przypadków.
05:36
I tell people, if it's in the newsAktualności, don't worrymartwić się about it.
133
321000
2000
Mówię ludziom, jeśli to jest w wiadomościach, to się nie przejmujcie.
05:38
Because by definitiondefinicja,
134
323000
2000
Ponieważ z definicji,
05:40
newsAktualności is something that almostprawie never happensdzieje się.
135
325000
3000
news to jest coś, co praktycznie nigdy się nie zdarza.
05:43
(LaughterŚmiech)
136
328000
2000
(Śmiech)
05:45
When something is so commonpospolity, it's no longerdłużej newsAktualności --
137
330000
3000
Jeśli coś jest zwyczajne, to nie jest już newsem -
05:48
carsamochód crashesawarie, domestickrajowy violenceprzemoc --
138
333000
2000
wypadki samochodowe, przemoc domowa -
05:50
those are the risksryzyko you worrymartwić się about.
139
335000
3000
to są ryzyka, które was martwią.
05:53
We're alsorównież a speciesgatunki of storytellersgawędziarzy.
140
338000
2000
Jesteśmy również gatunkiem opowiadaczy.
05:55
We respondodpowiadać to storieshistorie more than datadane.
141
340000
3000
Bardziej trafiają do nas opowieści niż dane.
05:58
And there's some basicpodstawowy innumeracyliczenia going on.
142
343000
2000
I mamy tu do czynienia z podstawową dyskalkulią.
06:00
I mean, the jokeżart "One, Two, ThreeTrzy, ManyWiele" is kinduprzejmy of right.
143
345000
3000
Znaczy, dowcip "Jeden, dwa, trzy, wiele" jest tu na miejscu.
06:03
We're really good at smallmały numbersliczby.
144
348000
3000
Jesteśmy naprawdę dobrzy przy małych liczbach.
06:06
One mangoMango, two mangoesMango, threetrzy mangoesMango,
145
351000
2000
Jedno mango, dwa mango, trzy mango,
06:08
10,000 mangoesMango, 100,000 mangoesMango --
146
353000
2000
10 000 mango, 100 000 mango
06:10
it's still more mangoesMango you can eatjeść before they rotRot.
147
355000
3000
to wciąż więcej mango niż możesz zjeść nim zgniją.
06:13
So one halfpół, one quarterjedna czwarta, one fifthpiąty -- we're good at that.
148
358000
3000
Tak samo połowa, ćwierć, jedna piąta - jesteśmy w tym dobrzy.
06:16
One in a millionmilion, one in a billionmiliard --
149
361000
2000
Jeden na milion, jeden na miliard,
06:18
they're bothobie almostprawie never.
150
363000
3000
oznaczają prawie nigdy.
06:21
So we have troublekłopot with the risksryzyko
151
366000
2000
Tak więc mamy problem z ryzykiem,
06:23
that aren'tnie są very commonpospolity.
152
368000
2000
które nie występuje zbyt często.
06:25
And what these cognitivepoznawczy biasesuprzedzenia do
153
370000
2000
I co robią te poznawcze uprzedzenia,
06:27
is they actdziałać as filtersfiltry betweenpomiędzy us and realityrzeczywistość.
154
372000
3000
to bycie filtrami pomiędzy nami, a rzeczywistością.
06:30
And the resultwynik
155
375000
2000
W rezultacie
06:32
is that feelinguczucie and realityrzeczywistość get out of whackwalnięcie,
156
377000
2000
uczucia i rzeczywistość nie równoważą się,
06:34
they get differentróżne.
157
379000
3000
stają się różne.
06:37
Now you eitherzarówno have a feelinguczucie -- you feel more securebezpieczne than you are.
158
382000
3000
Albo macie uczucie - czujecie się bezpieczniejsi niż jesteście.
06:40
There's a falsefałszywy sensesens of securitybezpieczeństwo.
159
385000
2000
Jest to fałszywe poczucie bezpieczeństwa.
06:42
Or the other way,
160
387000
2000
Albo na odwrót,
06:44
and that's a falsefałszywy sensesens of insecurityniepewność.
161
389000
2000
macie fałszywe poczucie zagrożenia.
06:46
I writepisać a lot about "securitybezpieczeństwo theaterteatr,"
162
391000
3000
Piszę dużo o "teatrze bezpieczeństwa",
06:49
whichktóry are productsprodukty that make people feel securebezpieczne,
163
394000
3000
co oznacza produkty dzięki którym ludzie czują się bezpieczni,
06:52
but don't actuallytak właściwie do anything.
164
397000
2000
ale tak naprawdę nie robią nic.
06:54
There's no realreal wordsłowo for stuffrzeczy that makesczyni us securebezpieczne,
165
399000
2000
Nie ma prawdziwego słowa na rzeczy, które zapewniają nam bezpieczeństwo,
06:56
but doesn't make us feel securebezpieczne.
166
401000
2000
ale nie sprawiają, że czujemy się bezpieczni.
06:58
Maybe it's what the CIA'sCIA supposeddomniemany to do for us.
167
403000
3000
Może to jest to, co CIA powinno dla nas robić.
07:03
So back to economicsEkonomia.
168
408000
2000
Wróćmy więc do ekonomii.
07:05
If economicsEkonomia, if the marketrynek, drivesdyski securitybezpieczeństwo,
169
410000
4000
Jeśli ekonomia, rynek, kieruje bezpieczeństwem
07:09
and if people make trade-offskompromisy
170
414000
2000
i jeśli ludzie dokonują ustępstw
07:11
basedna podstawie on the feelinguczucie of securitybezpieczeństwo,
171
416000
3000
bazując na poczuciu bezpieczeństwa,
07:14
then the smartmądry thing for companiesfirmy to do
172
419000
2000
to mądrą rzeczą jaką powinny zrobić firmy
07:16
for the economicgospodarczy incentiveszachęt
173
421000
2000
z powodów ekonomicznych
07:18
are to make people feel securebezpieczne.
174
423000
3000
jest sprawienie, by ludzie czuli się bezpieczni.
07:21
And there are two wayssposoby to do this.
175
426000
3000
I są na to dwa sposoby.
07:24
One, you can make people actuallytak właściwie securebezpieczne
176
429000
2000
Pierwszy, możesz sprawić, że ludzie będą rzeczywiście bezpieczni
07:26
and hopenadzieja they noticeogłoszenie.
177
431000
2000
i mieć nadzieję, że to zauważą.
07:28
Or two, you can make people just feel securebezpieczne
178
433000
3000
I drugi, możesz sprawić, że ludzie będą czuć się bezpieczni
07:31
and hopenadzieja they don't noticeogłoszenie.
179
436000
3000
i mieć nadzieję, że nie zauważą.
07:35
So what makesczyni people noticeogłoszenie?
180
440000
3000
Co więc sprawia, że ludzie zauważają?
07:38
Well a couplepara of things:
181
443000
2000
Cóż, kilka rzeczy:
07:40
understandingzrozumienie of the securitybezpieczeństwo,
182
445000
2000
rozumienie bezpieczeństwa,
07:42
of the risksryzyko, the threatszagrożenia,
183
447000
2000
ryzyka, zagrożeń,
07:44
the countermeasuresśrodki zaradcze, how they work.
184
449000
3000
metod zapobiegania, jak działają.
07:47
But if you know stuffrzeczy,
185
452000
2000
Ale jeśli znacie te rzeczy,
07:49
you're more likelyprawdopodobne to have your feelingsuczucia matchmecz realityrzeczywistość.
186
454000
3000
większe prawdopodobieństwo, że wasze uczucia będą odpowiadać rzeczywistości.
07:52
EnoughTyle realreal worldświat examplesprzykłady helpspomaga.
187
457000
3000
Odpowiednia ilość życiowych przykładów pomaga.
07:55
Now we all know the crimeprzestępstwo rateoceniać in our neighborhoodsąsiedztwo,
188
460000
3000
Wszyscy znamy stopień przestępczości w naszym sąsiedztwie,
07:58
because we liverelacja na żywo there, and we get a feelinguczucie about it
189
463000
3000
ponieważ tam żyjemy, i mamy co do tego odczucia,
08:01
that basicallygruntownie matchesmecze realityrzeczywistość.
190
466000
3000
które zasadniczo odpowiadają rzeczywistości.
08:04
SecurityBezpieczeństwa theater'steatru exposednarażony
191
469000
3000
Teatr bezpieczeństwa jest ujawniony,
08:07
when it's obviousoczywisty that it's not workingpracujący properlyprawidłowo.
192
472000
3000
gdy oczywiste staje się, że nie działa poprawnie.
08:10
Okay, so what makesczyni people not noticeogłoszenie?
193
475000
4000
Dobrze, więc co sprawia, że ludzie nie zauważają?
08:14
Well, a poorubogi understandingzrozumienie.
194
479000
2000
Cóż, słabe rozumienie.
08:16
If you don't understandzrozumieć the risksryzyko, you don't understandzrozumieć the costskoszty,
195
481000
3000
Jeśli nie rozumiecie ryzyka, nie rozumiecie kosztów,
08:19
you're likelyprawdopodobne to get the trade-offkompromis wrongźle,
196
484000
2000
najprawdopodobniej dokonacie błędnych ustępstw,
08:21
and your feelinguczucie doesn't matchmecz realityrzeczywistość.
197
486000
3000
a wasze uczucia nie odpowiadają rzeczywistości.
08:24
Not enoughdość examplesprzykłady.
198
489000
2000
Nie wystarczająco przykładów.
08:26
There's an inherentnieodłączny problemproblem
199
491000
2000
Istnieje wrodzony problem
08:28
with lowNiska probabilityprawdopodobieństwo eventswydarzenia.
200
493000
2000
z mało prawdopodobnymi zdarzeniami.
08:30
If, for exampleprzykład,
201
495000
2000
Jeśli, na przykład,
08:32
terrorismterroryzm almostprawie never happensdzieje się,
202
497000
2000
terroryzm prawie nigdy się nie zdarza,
08:34
it's really hardciężko to judgesędzia
203
499000
2000
jest naprawdę trudno ocenić
08:36
the efficacyskuteczność of counter-terroristzwalczanie terroryzmu measuresśrodki.
204
501000
3000
skuteczność działań antyterrorystycznych.
08:40
This is why you keep sacrificingpoświęcania virginsdziewice,
205
505000
3000
Właśnie dlatego wciąż poświęcacie dziewice
08:43
and why your unicornJednorożec defensesobrony are workingpracujący just great.
206
508000
3000
i wasza jednorożcowa obrona działa po prostu świetnie.
08:46
There aren'tnie są enoughdość examplesprzykłady of failuresawarie.
207
511000
3000
Nie ma wystarczająco dużo przykładów porażek.
08:50
AlsoRównież, feelingsuczucia that are cloudingzmętnienie the issuesproblemy --
208
515000
3000
Również uczucia, które zaciemniają problemy -
08:53
the cognitivepoznawczy biasesuprzedzenia I talkedrozmawialiśmy about earlierwcześniej,
209
518000
2000
poznawcze uprzedzenia, o których mówiłem wcześniej,
08:55
fearslęki, folkFolk beliefswierzenia,
210
520000
3000
obawy, ludowe wierzenia,
08:58
basicallygruntownie an inadequateniewystarczające modelModel of realityrzeczywistość.
211
523000
3000
zasadniczo nieadekwatny model rzeczywistości.
09:02
So let me complicateskomplikować things.
212
527000
3000
Pozwólcie, że skomplikuje sprawę.
09:05
I have feelinguczucie and realityrzeczywistość.
213
530000
2000
Mam uczucie i rzeczywistość.
09:07
I want to addDodaj a thirdtrzeci elementelement. I want to addDodaj modelModel.
214
532000
3000
Chcę dodać trzeci element. Chcę dodać model.
09:10
FeelingUczucie and modelModel in our headgłowa,
215
535000
2000
Uczucie i model w naszych głowach,
09:12
realityrzeczywistość is the outsidena zewnątrz worldświat.
216
537000
2000
rzeczywistość jest światem zewnętrznym.
09:14
It doesn't changezmiana; it's realreal.
217
539000
3000
Jest niezmienna, prawdziwa.
09:17
So feelinguczucie is basedna podstawie on our intuitionintuicja.
218
542000
2000
Tak więc uczucie bazuje na naszej intuicji.
09:19
ModelModelu is basedna podstawie on reasonpowód.
219
544000
2000
Model bazuje na rozumie.
09:21
That's basicallygruntownie the differenceróżnica.
220
546000
3000
To jest podstawowa różnica.
09:24
In a primitiveprymitywny and simpleprosty worldświat,
221
549000
2000
W prymitywnym i prostym świecie,
09:26
there's really no reasonpowód for a modelModel
222
551000
3000
nie ma naprawdę potrzeby dla modelu.
09:29
because feelinguczucie is closeblisko to realityrzeczywistość.
223
554000
3000
Ponieważ uczucie jest bliskie rzeczywistości.
09:32
You don't need a modelModel.
224
557000
2000
Nie potrzebujesz modelu.
09:34
But in a modernnowoczesny and complexzłożony worldświat,
225
559000
2000
Ale w nowoczesnym i skomplikowanym świecie,
09:36
you need modelsmodele
226
561000
2000
potrzebujecie modeli,
09:38
to understandzrozumieć a lot of the risksryzyko we facetwarz.
227
563000
3000
aby zrozumieć wiele zagrożeń jakich doświadczamy.
09:42
There's no feelinguczucie about germszarazki.
228
567000
2000
Nie ma uczucia co do zarazków.
09:44
You need a modelModel to understandzrozumieć them.
229
569000
3000
Potrzebujecie modelu, aby je zrozumieć.
09:47
So this modelModel
230
572000
2000
A więc ten model
09:49
is an intelligentinteligentny representationreprezentacja of realityrzeczywistość.
231
574000
3000
jest inteligentną reprezentacja rzeczywistości.
09:52
It's, of coursekurs, limitedograniczony by sciencenauka,
232
577000
3000
Jest on, oczywiście, ograniczony przez naukę,
09:55
by technologytechnologia.
233
580000
2000
technologię.
09:57
We couldn'tnie mógł have a germkiełków theoryteoria of diseasechoroba
234
582000
3000
Nie mogliśmy mieć teorii o wpływie zarazków na choroby
10:00
before we inventedzmyślony the microscopemikroskopu to see them.
235
585000
3000
przed wynalezieniem mikroskopu, który pozwolił je zobaczyć.
10:04
It's limitedograniczony by our cognitivepoznawczy biasesuprzedzenia.
236
589000
3000
Jest to ograniczone przez nasze poznawcze uprzedzenia.
10:07
But it has the abilityzdolność
237
592000
2000
Ale ma zdolność,
10:09
to overridezastąpić our feelingsuczucia.
238
594000
2000
by lekceważyć nasze odczucia.
10:11
Where do we get these modelsmodele? We get them from othersinni.
239
596000
3000
Skąd bierzemy te modele? Od innych.
10:14
We get them from religionreligia, from culturekultura,
240
599000
3000
Bierzemy je z religii, kultury,
10:17
teachersnauczyciele, eldersstarsi.
241
602000
2000
od nauczycieli, starszych.
10:19
A couplepara yearslat agotemu,
242
604000
2000
Parę lat temu,
10:21
I was in SouthPołudniowa AfricaAfryka on safariSafari.
243
606000
2000
byłem w południowej Afryce na safari.
10:23
The trackerTracker I was with grewrósł up in KrugerKruger NationalKrajowe ParkPark.
244
608000
3000
Tropiciel, z którym tam byłem, dorastał w Narodowym Parku Kruger.
10:26
He had some very complexzłożony modelsmodele of how to surviveprzetrwać.
245
611000
3000
Miał bardzo złożone modele na to jak przetrwać.
10:29
And it dependedzalezalo on if you were attackedzaatakowany
246
614000
2000
Zależały one od tego czy zostaliście zaatakowani
10:31
by a lionLew or a leopardLeopard or a rhinoRhino or an elephantsłoń --
247
616000
2000
przez lwa, leoparda, nosorożca czy też słonia -
10:33
and when you had to runbiegać away, and when you couldn'tnie mógł runbiegać away, and when you had to climbwspinać się a treedrzewo --
248
618000
3000
oraz kiedy powinniście uciekać, czy też wspiąć się na drzewo,
10:36
when you could never climbwspinać się a treedrzewo.
249
621000
2000
a kiedy nie powinniście wspinać się na drzewo.
10:38
I would have diedzmarły in a day,
250
623000
3000
Zginąłbym pierwszego dnia,
10:41
but he was bornurodzony there,
251
626000
2000
ale on się tam urodził
10:43
and he understoodzrozumiany how to surviveprzetrwać.
252
628000
2000
i wiedział jak przeżyć.
10:45
I was bornurodzony in NewNowy YorkYork CityMiasto.
253
630000
2000
Ja się urodziłem w Nowym Jorku.
10:47
I could have takenwzięty him to NewNowy YorkYork, and he would have diedzmarły in a day.
254
632000
3000
Mógłbym go zabrać do Nowego Jorku, wtedy on zginąłby pierwszego dnia.
10:50
(LaughterŚmiech)
255
635000
2000
(Śmiech)
10:52
Because we had differentróżne modelsmodele
256
637000
2000
Ponieważ mamy różne modele
10:54
basedna podstawie on our differentróżne experienceswzruszenie religijne.
257
639000
3000
bazujące na różnych doświadczeniach.
10:58
ModelsModele can come from the mediagłoska bezdźwięczna,
258
643000
2000
Modele mogą pochodzić z mediów,
11:00
from our electedwybrany officialsurzędnicy.
259
645000
3000
od naszych polityków.
11:03
Think of modelsmodele of terrorismterroryzm,
260
648000
3000
Pomyślcie o modelach terroryzmu,
11:06
childdziecko kidnappingporwanie,
261
651000
3000
porywania dzieci,
11:09
airlinelinia lotnicza safetybezpieczeństwo, carsamochód safetybezpieczeństwo.
262
654000
2000
bezpieczeństwa lotniczego, samochodowego.
11:11
ModelsModele can come from industryprzemysł.
263
656000
3000
Modele mogą pochodzić z przemysłu.
11:14
The two I'm followingnastępujący are surveillanceinwigilacja cameraskamery,
264
659000
2000
Dwa, które śledzę, to kamery przemysłowe,
11:16
IDIDENTYFIKATOR cardskarty,
265
661000
2000
oraz karty identyfikacyjne,
11:18
quitecałkiem a lot of our computerkomputer securitybezpieczeństwo modelsmodele come from there.
266
663000
3000
całkiem sporo komputerowego bezpieczeństwa stąd pochodzi.
11:21
A lot of modelsmodele come from sciencenauka.
267
666000
3000
Wiele modeli pochodzi z nauki.
11:24
HealthZdrowie modelsmodele are a great exampleprzykład.
268
669000
2000
Modele zdrowia są dobrym przykładem.
11:26
Think of cancernowotwór, of birdptak flugrypa, swineświń flugrypa, SARSSARS.
269
671000
3000
Pomyślcie o raku, ptasiej grypie, świńskiej grypie, SARS.
11:29
All of our feelingsuczucia of securitybezpieczeństwo
270
674000
3000
Całe nasze poczucie bezpieczeństwa
11:32
about those diseaseschoroby
271
677000
2000
co do tych chorób
11:34
come from modelsmodele
272
679000
2000
pochodzi z modeli
11:36
givendany to us, really, by sciencenauka filteredfiltrowane throughprzez the mediagłoska bezdźwięczna.
273
681000
3000
dostarczonych nam, tak naprawdę, przez naukę przefiltrowaną przez media.
11:40
So modelsmodele can changezmiana.
274
685000
3000
Tak więc modele mogą się zmieniać.
11:43
ModelsModele are not staticstatyczne.
275
688000
2000
Modele nie są statyczne.
11:45
As we becomestają się more comfortablewygodny in our environmentsśrodowiska,
276
690000
3000
W miarę jak jest nam wygodniej w naszych środowiskach,
11:48
our modelModel can moveruszaj się closerbliższy to our feelingsuczucia.
277
693000
4000
nasze modele zbliżają się do uczuć.
11:53
So an exampleprzykład mightmoc be,
278
698000
2000
Mogę podać taki przykład,
11:55
if you go back 100 yearslat agotemu
279
700000
2000
jeśli cofniecie się 100 lat,
11:57
when electricityElektryczność was first becomingtwarzowy commonpospolity,
280
702000
3000
kiedy elektryczność dopiero stawała się powszechna
12:00
there were a lot of fearslęki about it.
281
705000
2000
było wobec niej sporo obaw.
12:02
I mean, there were people who were afraidprzestraszony to pushPchać doorbellsdzwonki,
282
707000
2000
Byli ludzie, którzy bali się nacisnąć dzwonek u drzwi,
12:04
because there was electricityElektryczność in there, and that was dangerousniebezpieczny.
283
709000
3000
ponieważ była w nich elektryczność i to było niebezpieczne.
12:07
For us, we're very facileFacile around electricityElektryczność.
284
712000
3000
My sami jesteśmy bardzo niefrasobliwi wobec elektryczności.
12:10
We changezmiana lightlekki bulbsżarówki
285
715000
2000
Zmieniamy żarówki
12:12
withoutbez even thinkingmyślący about it.
286
717000
2000
nawet o tym nie myśląc.
12:14
Our modelModel of securitybezpieczeństwo around electricityElektryczność
287
719000
4000
Nasz model bezpieczeństwa dotyczący elektryczności
12:18
is something we were bornurodzony into.
288
723000
3000
to coś, w co się wrodziliśmy.
12:21
It hasn'tnie ma changedzmienione as we were growingrozwój up.
289
726000
3000
Nie zmienił się podczas naszego dorastania.
12:24
And we're good at it.
290
729000
3000
I jesteśmy w tym dobrzy.
12:27
Or think of the risksryzyko
291
732000
2000
Albo pomyślcie o zagrożeniach
12:29
on the InternetInternet acrossprzez generationspokolenia --
292
734000
2000
w Internecie względem różnych pokoleń,
12:31
how your parentsrodzice approachpodejście InternetInternet securitybezpieczeństwo,
293
736000
2000
jak wasi rodzice podchodzą do bezpieczeństwa internetowego,
12:33
versusprzeciw how you do,
294
738000
2000
w porównaniu do was,
12:35
versusprzeciw how our kidsdzieciaki will.
295
740000
3000
w porównaniu do naszych dzieci w przyszłości.
12:38
ModelsModele eventuallyostatecznie fadeblaknąć into the backgroundtło.
296
743000
3000
Modele ostatecznie wtapiają się w tło.
12:42
IntuitiveIntuicyjne is just anotherinne wordsłowo for familiarznajomy.
297
747000
3000
Intuicyjny jest po prostu kolejnym określeniem na znajomy.
12:45
So as your modelModel is closeblisko to realityrzeczywistość,
298
750000
2000
Jako że twój model jest bliski rzeczywistości,
12:47
and it convergeszbiega się with feelingsuczucia,
299
752000
2000
i zbiega się z uczuciami,
12:49
you oftenczęsto don't know it's there.
300
754000
3000
często nie wiesz, że istnieje.
12:52
So a nicemiły exampleprzykład of this
301
757000
2000
Ciekawy na to przykład
12:54
cameoprawa ołowiana witrażu from last yearrok and swineświń flugrypa.
302
759000
3000
pojawił się w zeszłym roku ze świńską grypą.
12:57
When swineświń flugrypa first appearedpojawił się,
303
762000
2000
Kiedy świńska grypa się pojawiła,
12:59
the initialInicjał newsAktualności causedpowodowany a lot of overreactionnadmierną reakcją.
304
764000
4000
początkowo wiadomości spowodowały wiele przesady.
13:03
Now it had a nameNazwa,
305
768000
2000
Teraz to miało nazwę,
13:05
whichktóry madezrobiony it scarierstraszniejsze than the regularregularny flugrypa,
306
770000
2000
co uczyniło to straszniejszym niż zwykła grypa,
13:07
even thoughchociaż it was more deadlyśmiertelnie.
307
772000
2000
mimo iż zwykła była bardziej śmiertelna.
13:09
And people thought doctorslekarze should be ablezdolny to dealsprawa with it.
308
774000
4000
Ludzie myśleli, że lekarze powinni sobie z nią poradzić.
13:13
So there was that feelinguczucie of lackbrak of controlkontrola.
309
778000
2000
Istniało więc poczucie braku kontroli.
13:15
And those two things
310
780000
2000
I te dwie rzeczy
13:17
madezrobiony the riskryzyko more than it was.
311
782000
2000
uczyniły to ryzyko większym niż było.
13:19
As the noveltynowość worenosił off, the monthsmiesiące wentposzedł by,
312
784000
3000
Podczas gdy nowość się znosiła, miesiące mijały,
13:22
there was some amountilość of tolerancetolerancja,
313
787000
2000
pojawiła się doza tolerancji,
13:24
people got used to it.
314
789000
2000
ludzie się przyzwyczaili.
13:26
There was no newNowy datadane, but there was lessmniej fearstrach.
315
791000
3000
Nie było nowych danych, ale było mniej obaw.
13:29
By autumnjesień,
316
794000
2000
Do jesieni
13:31
people thought
317
796000
2000
ludzie myśleli,
13:33
the doctorslekarze should have solvedrozwiązany this alreadyjuż.
318
798000
2000
że lekarze powinni już rozwiązać ten problem.
13:35
And there's kinduprzejmy of a bifurcationrozwidlenie --
319
800000
2000
I jest tu pewne rozwidlenie.
13:37
people had to choosewybierać
320
802000
2000
Ludzie musieli wybierać
13:39
betweenpomiędzy fearstrach and acceptanceAkceptacja --
321
804000
4000
pomiędzy strachem a akceptacją.
13:43
actuallytak właściwie fearstrach and indifferenceobojętność --
322
808000
2000
W zasadzie, strachem a obojętnością.
13:45
they kinduprzejmy of chosewybrał suspicionpodejrzenie.
323
810000
3000
Wybrali podejrzenie.
13:48
And when the vaccineszczepionka appearedpojawił się last winterzimowy,
324
813000
3000
I kiedy minionej zimy pojawiła się szczepionka,
13:51
there were a lot of people -- a surprisingzaskakujący numbernumer --
325
816000
3000
było sporo ludzi - zaskakująca liczba -
13:54
who refusedodmówił to get it --
326
819000
3000
którzy odmówili jej przyjęcia.
13:58
as a nicemiły exampleprzykład
327
823000
2000
Jest to dobry przykład
14:00
of how people'sludzie feelingsuczucia of securitybezpieczeństwo changezmiana, how theirich modelModel changeszmiany,
328
825000
3000
jak ludzkie poczucie bezpieczeństwa się zmienia, jak ich model się zmienia,
14:03
sortsortować of wildlyszalenie
329
828000
2000
trochę dziko,
14:05
with no newNowy informationInformacja,
330
830000
2000
bez nowych informacji,
14:07
with no newNowy inputwkład.
331
832000
2000
bez nowych danych.
14:09
This kinduprzejmy of thing happensdzieje się a lot.
332
834000
3000
Takie rzeczy zdarzają się często.
14:12
I'm going to give one more complicationpowikłaniem.
333
837000
3000
Dodam jeszcze jedną komplikację.
14:15
We have feelinguczucie, modelModel, realityrzeczywistość.
334
840000
3000
Mamy uczucie, model, rzeczywistość.
14:18
I have a very relativisticrelatywistyczna viewwidok of securitybezpieczeństwo.
335
843000
2000
Mam bardzo relatywistyczny pogląd na bezpieczeństwo.
14:20
I think it dependszależy on the observerobserwator.
336
845000
3000
Uważam, że zależy ono od obserwatora.
14:23
And mostwiększość securitybezpieczeństwo decisionsdecyzje
337
848000
2000
A większość decyzji związanych z bezpieczeństwem
14:25
have a varietyróżnorodność of people involvedzaangażowany.
338
850000
4000
jest podejmowana przez szereg różnych ludzi.
14:29
And stakeholdersinteresariusze
339
854000
2000
I zainteresowani
14:31
with specifickonkretny trade-offskompromisy
340
856000
3000
specyficznymi ustępstwami
14:34
will try to influencewpływ the decisiondecyzja.
341
859000
2000
spróbują wpłynąć na decyzję.
14:36
And I call that theirich agendaprogram.
342
861000
2000
I ja nazywam to ich planem.
14:38
And you see agendaprogram --
343
863000
2000
I wy widzicie plan.
14:40
this is marketingmarketing, this is politicsPolityka --
344
865000
3000
To jest marketing, to jest polityka,
14:43
tryingpróbować to convinceprzekonać you to have one modelModel versusprzeciw anotherinne,
345
868000
3000
próbujące przekonać was do przyjęcia jednego modelu zamiast drugiego,
14:46
tryingpróbować to convinceprzekonać you to ignoreignorować a modelModel
346
871000
2000
próbujący przekonać was do zignorowania modelu
14:48
and trustzaufanie your feelingsuczucia,
347
873000
3000
i zaufania waszym uczuciom,
14:51
marginalizingmarginalizacji people with modelsmodele you don't like.
348
876000
3000
marginalizując ludzi z modelami, których nie lubicie.
14:54
This is not uncommonNiezbyt często.
349
879000
3000
To nie jest rzadkie.
14:57
An exampleprzykład, a great exampleprzykład, is the riskryzyko of smokingpalenie.
350
882000
3000
Przykład, wspaniały przykład, to ryzyko palenia.
15:01
In the historyhistoria of the pastprzeszłość 50 yearslat, the smokingpalenie riskryzyko
351
886000
3000
Ostatnie 50 lat z historii ryzyka związanego z paleniem
15:04
showsprzedstawia how a modelModel changeszmiany,
352
889000
2000
pokazuje jak model się zmienia,
15:06
and it alsorównież showsprzedstawia how an industryprzemysł fightswalki againstprzeciwko
353
891000
3000
a także jak przemysł walczy przeciwko
15:09
a modelModel it doesn't like.
354
894000
2000
modelowi, którego nie lubi.
15:11
ComparePorównaj that to the secondhandSecondhand smokepalić debatedebata --
355
896000
3000
Porównajcie to do debaty o biernym paleniu,
15:14
probablyprawdopodobnie about 20 yearslat behindza.
356
899000
3000
prawdopodobnie sprzed około 20 lat.
15:17
Think about seatsiedzenie beltspaski.
357
902000
2000
Pomyślcie o pasach bezpieczeństwa.
15:19
When I was a kiddziecko, no one worenosił a seatsiedzenie beltpas.
358
904000
2000
Kiedy byłem dzieckiem, nikt nie zakładał pasów bezpieczeństwa.
15:21
NowadaysW dzisiejszych czasach, no kiddziecko will let you drivenapęd
359
906000
2000
Dziś, żaden dzieciak nie pozwoli wam jechać
15:23
if you're not wearingma na sobie a seatsiedzenie beltpas.
360
908000
2000
jeśli nie założycie pasów.
15:26
ComparePorównaj that to the airbagPoduszka powietrzna debatedebata --
361
911000
2000
Porównajcie to do debaty o poduszkach powietrznych,
15:28
probablyprawdopodobnie about 30 yearslat behindza.
362
913000
3000
prawdopodobnie sprzed około 30 lat.
15:31
All examplesprzykłady of modelsmodele changingwymiana pieniędzy.
363
916000
3000
Wszystko to przykłady zmian modeli.
15:36
What we learnuczyć się is that changingwymiana pieniędzy modelsmodele is hardciężko.
364
921000
3000
Czego się nauczyliśmy, to że zmiana modeli jest trudna.
15:39
ModelsModele are hardciężko to dislodgewyprzeć.
365
924000
2000
Modele są trudne do usunięcia.
15:41
If they equalrówny your feelingsuczucia,
366
926000
2000
Jeśli odpowiadają waszym uczuciom,
15:43
you don't even know you have a modelModel.
367
928000
3000
nawet nie wiecie, że macie model.
15:46
And there's anotherinne cognitivepoznawczy biasstronniczość
368
931000
2000
I mamy kolejne uprzedzenie poznawcze.
15:48
I'll call confirmationpotwierdzenie biasstronniczość,
369
933000
2000
Przywołam nastawienie potwierdzające,
15:50
where we tendzmierzać to acceptzaakceptować datadane
370
935000
3000
gdzie mamy tendencję do akceptowania danych,
15:53
that confirmspotwierdza our beliefswierzenia
371
938000
2000
które potwierdzają nasze wierzenia
15:55
and rejectodrzucić datadane that contradictszaprzecza our beliefswierzenia.
372
940000
3000
i odrzucania danych, które im przeczą.
15:59
So evidencedowód againstprzeciwko our modelModel,
373
944000
2000
Tak więc dowód przeciwko naszemu modelowi,
16:01
we're likelyprawdopodobne to ignoreignorować, even if it's compellingprzekonujące.
374
946000
3000
najprawdopodobniej zignorujemy, nawet jeśli jest niezaprzeczalny.
16:04
It has to get very compellingprzekonujące before we'lldobrze payzapłacić attentionUwaga.
375
949000
3000
Musi się stać bardzo niezaprzeczalny, żebyśmy zwrócili uwagę.
16:08
NewNowy modelsmodele that extendposzerzać long periodsokresy of time are hardciężko.
376
953000
2000
Nowe modele, które rozciągają się na dłuższy okres czasu są trudne.
16:10
GlobalGlobalny warmingogrzewanie is a great exampleprzykład.
377
955000
2000
Globalne ocieplenie jest doskonałym przykładem.
16:12
We're terriblestraszny
378
957000
2000
Jesteśmy słabi
16:14
at modelsmodele that spanprzęsło 80 yearslat.
379
959000
2000
przy modelach, które rozciągają się na 80 lat.
16:16
We can do to the nextNastępny harvestżniwa.
380
961000
2000
Możemy dać radę z okresem do następnych żniw.
16:18
We can oftenczęsto do untilaż do our kidsdzieciaki growrosnąć up.
381
963000
3000
Często damy radę z okresem dopóki nasze dzieci nie wydorośleją.
16:21
But 80 yearslat, we're just not good at.
382
966000
3000
Ale 80 lat, my po prostu nie jesteśmy w tym dobrzy.
16:24
So it's a very hardciężko modelModel to acceptzaakceptować.
383
969000
3000
Jest to więc bardzo trudny do zaakceptowania model.
16:27
We can have bothobie modelsmodele in our headgłowa simultaneouslyrównocześnie,
384
972000
4000
Możemy mieć oba modele naraz w naszych głowach
16:31
right, that kinduprzejmy of problemproblem
385
976000
3000
albo ten typ problemu,
16:34
where we're holdingtrzymać bothobie beliefswierzenia togetherRazem,
386
979000
3000
gdzie utrzymujemy oba wierzenia razem
16:37
right, the cognitivepoznawczy dissonancedysonans.
387
982000
2000
albo poznawczy dysonans.
16:39
EventuallyOstatecznie,
388
984000
2000
Ostatecznie
16:41
the newNowy modelModel will replacezastąpić the oldstary modelModel.
389
986000
3000
nowy model zastąpi stary model.
16:44
StrongStrong feelingsuczucia can createStwórz a modelModel.
390
989000
3000
Mocne uczucia mogą stworzyć model.
16:47
SeptemberWrześnia 11thth createdstworzony a securitybezpieczeństwo modelModel
391
992000
3000
11 września stworzył model bezpieczeństwa
16:50
in a lot of people'sludzie headsgłowy.
392
995000
2000
w głowach wielu ludzi.
16:52
AlsoRównież, personalosobisty experienceswzruszenie religijne with crimeprzestępstwo can do it,
393
997000
3000
Osobiste doświadczenia ze zbrodnią również mogą tego dokonać,
16:55
personalosobisty healthzdrowie scareprzestraszyć,
394
1000000
2000
strach o własne zdrowie,
16:57
a healthzdrowie scareprzestraszyć in the newsAktualności.
395
1002000
2000
straszenie chorobami w wiadomościach.
16:59
You'llBędziesz see these callednazywa flashbulbFlashbulb eventswydarzenia
396
1004000
2000
Przez psychiatrów jest to nazywane
17:01
by psychiatristsPsychiatrzy.
397
1006000
2000
efektem żarówki flasha.
17:03
They can createStwórz a modelModel instantaneouslymomentalnie,
398
1008000
3000
Mogą stworzyć model natychmiast,
17:06
because they're very emotiveemocje.
399
1011000
3000
ponieważ są bardzo emocjonalni.
17:09
So in the technologicaltechniczny worldświat,
400
1014000
2000
Tak samo w świecie technologii
17:11
we don't have experiencedoświadczenie
401
1016000
2000
nie mamy doświadczenia
17:13
to judgesędzia modelsmodele.
402
1018000
2000
by oceniać modele.
17:15
And we relypolegać on othersinni. We relypolegać on proxiesserwery proxy.
403
1020000
2000
Polegamy więc na innych. Polegamy na pełnomocnikach.
17:17
I mean, this worksPrace as long as it's to correctpoprawny othersinni.
404
1022000
4000
To działa dopóki polegamy na właściwych ludziach.
17:21
We relypolegać on governmentrząd agenciesagencje
405
1026000
2000
Polegamy na agencjach rządowych,
17:23
to tell us what pharmaceuticalsfarmaceutyki are safebezpieczny.
406
1028000
5000
aby powiedziały nam, które leki są bezpieczne.
17:28
I flewlatał here yesterdaywczoraj.
407
1033000
2000
Przyleciałem tu wczoraj.
17:30
I didn't checkczek the airplanesamolot.
408
1035000
2000
Nie sprawdziłem samolotu.
17:32
I reliedoparła się on some other groupGrupa
409
1037000
2000
Polegałem na innych,
17:34
to determineustalać whetherczy my planesamolot was safebezpieczny to flylatać.
410
1039000
3000
by określili czy samolot jest bezpieczny do lotu.
17:37
We're here, noneŻaden of us fearstrach the roofdach is going to collapsezawalić się on us,
411
1042000
3000
Jesteśmy tu, nikt z nas nie boi się, że dach się zawali,
17:40
not because we checkedsprawdzone,
412
1045000
3000
nie dlatego, że sprawdziliśmy,
17:43
but because we're prettyładny sure
413
1048000
2000
ale dlatego, że jesteśmy całkiem pewni,
17:45
the buildingbudynek codesKody here are good.
414
1050000
3000
że prawa budowlane były tu przestrzegane.
17:48
It's a modelModel we just acceptzaakceptować
415
1053000
2000
To jest model, który po prostu akceptujemy,
17:50
prettyładny much by faithwiara.
416
1055000
2000
w zasadzie na wiarę.
17:52
And that's okay.
417
1057000
3000
I to jest w porządku.
17:57
Now, what we want
418
1062000
2000
To czego chcemy,
17:59
is people to get familiarznajomy enoughdość
419
1064000
2000
to by ludzie zaznajomili się wystarczająco
18:01
with better modelsmodele --
420
1066000
2000
z lepszymi modelami.
18:03
have it reflectedodzwierciedlenie in theirich feelingsuczucia --
421
1068000
2000
Mieli ich odbicie w swoich uczuciach,
18:05
to allowdopuszczać them to make securitybezpieczeństwo trade-offskompromisy.
422
1070000
4000
aby umożliwiło im to dokonanie ustępstw odnośnie bezpieczeństwa.
18:09
Now when these go out of whackwalnięcie,
423
1074000
2000
Kiedy to się wymknie spod kontroli
18:11
you have two optionsopcje.
424
1076000
2000
macie dwie możliwości.
18:13
One, you can fixnaprawić people'sludzie feelingsuczucia,
425
1078000
2000
Pierwsza, możecie poprawić ludzkie uczucia
18:15
directlybezpośrednio appealapel to feelingsuczucia.
426
1080000
2000
bezpośrednio odnosząc się do nich.
18:17
It's manipulationmanipulacja, but it can work.
427
1082000
3000
To manipulacja, ale może zadziałać.
18:20
The seconddruga, more honestszczery way
428
1085000
2000
Druga, bardziej uczciwa droga
18:22
is to actuallytak właściwie fixnaprawić the modelModel.
429
1087000
3000
to rzeczywista naprawa modelu.
18:26
ChangeZmiana happensdzieje się slowlypowoli.
430
1091000
2000
Zmiany dzieją się powoli.
18:28
The smokingpalenie debatedebata tookwziął 40 yearslat,
431
1093000
3000
Debata o paleniu trwała 40 lat,
18:31
and that was an easyłatwo one.
432
1096000
3000
a była tą łatwą.
18:34
Some of this stuffrzeczy is hardciężko.
433
1099000
2000
Niektóre z tych rzeczy są trudne.
18:36
I mean really thoughchociaż,
434
1101000
2000
Naprawdę,
18:38
informationInformacja seemswydaje się like our bestNajlepiej hopenadzieja.
435
1103000
2000
informacja wydaje się naszą najlepszą nadzieją.
18:40
And I liedkłamał.
436
1105000
2000
I skłamałem.
18:42
RememberNależy pamiętać I said feelinguczucie, modelModel, realityrzeczywistość;
437
1107000
2000
Pamiętacie jak wymieniłem uczucia, model, rzeczywistość.
18:44
I said realityrzeczywistość doesn't changezmiana. It actuallytak właściwie does.
438
1109000
3000
Powiedziałem, że rzeczywistość się nie zmienia. Ale tak naprawdę się zmienia.
18:47
We liverelacja na żywo in a technologicaltechniczny worldświat;
439
1112000
2000
Żyjemy w technologicznym świecie,
18:49
realityrzeczywistość changeszmiany all the time.
440
1114000
3000
rzeczywistość zmienia się cały czas.
18:52
So we mightmoc have -- for the first time in our speciesgatunki --
441
1117000
3000
Możemy więc mieć, po raz pierwszy dla naszego gatunku,
18:55
feelinguczucie chasespościgi modelModel, modelModel chasespościgi realityrzeczywistość, reality'sw rzeczywistości movingw ruchu --
442
1120000
3000
uczucia goniące model, model goniący rzeczywistość, poruszającą się rzeczywistość,
18:58
they mightmoc never catchłapać up.
443
1123000
3000
a one mogą się nigdy nie dogonić.
19:02
We don't know.
444
1127000
2000
Nie wiemy.
19:04
But in the long-termdługoterminowy,
445
1129000
2000
Ale w długim okresie,
19:06
bothobie feelinguczucie and realityrzeczywistość are importantważny.
446
1131000
3000
zarówno uczucia, jak i rzeczywistość są ważne.
19:09
And I want to closeblisko with two quickszybki storieshistorie to illustratezilustrować this.
447
1134000
3000
Chcę zakończyć dwoma szybkimi historiami, aby to zilustrować.
19:12
1982 -- I don't know if people will rememberZapamiętaj this --
448
1137000
2000
W 1982, nie wiem czy ludzie będą to pamiętać,
19:14
there was a shortkrótki epidemicepidemia
449
1139000
3000
była krótka epidemia
19:17
of TylenolTylenol poisoningszatrucia in the UnitedStany Zjednoczone StatesPaństwa.
450
1142000
2000
zatruć Tylenolem w Stanach Zjednoczonych.
19:19
It's a horrificprzerażający storyfabuła. SomeoneKtoś tookwziął a bottlebutelka of TylenolTylenol,
451
1144000
3000
Jest to przerażająca historia. Ktoś wziął butelkę Tylenolu,
19:22
put poisonzatruć in it, closedZamknięte it up, put it back on the shelfPółka.
452
1147000
3000
włożył do niej truciznę, zamknął, i odłożył na półkę.
19:25
SomeoneKtoś elsejeszcze boughtkupiony it and diedzmarły.
453
1150000
2000
Ktoś inny kupił ją i umarł.
19:27
This terrifiedprzerażony people.
454
1152000
2000
To przeraziło ludzi.
19:29
There were a couplepara of copycatCopycat attacksataki.
455
1154000
2000
Było kilka podobnych ataków.
19:31
There wasn'tnie było any realreal riskryzyko, but people were scaredprzerażony.
456
1156000
3000
Nie było prawdziwego zagrożenia, ale ludzie się bali.
19:34
And this is how
457
1159000
2000
I właśnie tak
19:36
the tamper-proofmanipulacją drugnarkotyk industryprzemysł was inventedzmyślony.
458
1161000
2000
wymyślono branżę leków zabezpieczonych przed otwarciem.
19:38
Those tamper-proofmanipulacją capsCzapki, that cameoprawa ołowiana witrażu from this.
459
1163000
2000
Stąd pochodzą zabezpieczone wieczka.
19:40
It's completekompletny securitybezpieczeństwo theaterteatr.
460
1165000
2000
To jest całkowicie teatr bezpieczeństwa.
19:42
As a homeworkPraca domowa assignmentzadanie, think of 10 wayssposoby to get around it.
461
1167000
2000
Jako zadanie domowe pomyślcie o 10 sposobach na ominięcie tego zabezpieczenia.
19:44
I'll give you one, a syringestrzykawka.
462
1169000
3000
Podpowiem jedno, strzykawka.
19:47
But it madezrobiony people feel better.
463
1172000
3000
Ale przez to ludzie poczuli się lepiej.
19:50
It madezrobiony theirich feelinguczucie of securitybezpieczeństwo
464
1175000
2000
Sprawiło to, że ich poczucie bezpieczeństwa
19:52
more matchmecz the realityrzeczywistość.
465
1177000
2000
bardziej odpowiadało rzeczywistości.
19:54
Last storyfabuła, a fewkilka yearslat agotemu, a friendprzyjaciel of minekopalnia gavedał birthnarodziny.
466
1179000
3000
Ostatnia opowieść, parę lat temu, moja przyjaciółka urodziła.
19:57
I visitodwiedzić her in the hospitalszpital.
467
1182000
2000
Odwiedziłem ją w szpitalu.
19:59
It turnsskręca out when a baby'sdziecka bornurodzony now,
468
1184000
2000
Okazuje się, że kiedy rodzi się dziecko,
20:01
they put an RFIDRFID braceletBransoletka on the babydziecko,
469
1186000
2000
nakładają mu bransoletkę RFID,
20:03
put a correspondingodpowiedni one on the mothermama,
470
1188000
2000
podobną dają matce.
20:05
so if anyonektokolwiek other than the mothermama takes the babydziecko out of the maternityurlop macierzyński wardOddział,
471
1190000
2000
Tak że ktokolwiek oprócz matki weźmie dziecko z oddziału położnego,
20:07
an alarmalarm goesidzie off.
472
1192000
2000
uruchomi alarm.
20:09
I said, "Well, that's kinduprzejmy of neatschludny.
473
1194000
2000
Powiedziałem "Cóż, to całkiem sprytne.
20:11
I wondercud how rampantnieokiełznany babydziecko snatchingwyrywając is
474
1196000
2000
Zastanawiam się jak częste jest porywanie dzieci
20:13
out of hospitalsszpitale."
475
1198000
2000
ze szpitali."
20:15
I go home, I look it up.
476
1200000
2000
Wróciłem do domu, sprawdziłem.
20:17
It basicallygruntownie never happensdzieje się.
477
1202000
2000
To praktycznie nigdy się nie zdarza.
20:19
But if you think about it,
478
1204000
2000
Ale jeśli o tym pomyślicie,
20:21
if you are a hospitalszpital,
479
1206000
2000
jeśli jesteście szpitalem
20:23
and you need to take a babydziecko away from its mothermama,
480
1208000
2000
i potrzebujecie zabrać dziecko od matki,
20:25
out of the roompokój to runbiegać some teststesty,
481
1210000
2000
aby przeprowadzić na nim badania
20:27
you better have some good securitybezpieczeństwo theaterteatr,
482
1212000
2000
lepiej miejcie jakiś dobry teatr bezpieczeństwa
20:29
or she's going to riprozerwać your armramię off.
483
1214000
2000
albo ona urwie wam rękę.
20:31
(LaughterŚmiech)
484
1216000
2000
(Śmiech)
20:33
So it's importantważny for us,
485
1218000
2000
Jest to więc dla nas ważne,
20:35
those of us who designprojekt securitybezpieczeństwo,
486
1220000
2000
tych z nas, którzy projektują zabezpieczenia,
20:37
who look at securitybezpieczeństwo policypolityka,
487
1222000
3000
którzy doglądają polityki bezpieczeństwa
20:40
or even look at publicpubliczny policypolityka
488
1225000
2000
albo nawet praw publicznych
20:42
in wayssposoby that affectoddziaływać securitybezpieczeństwo.
489
1227000
2000
w sposób, który wpływa na bezpieczeństwo.
20:44
It's not just realityrzeczywistość; it's feelinguczucie and realityrzeczywistość.
490
1229000
3000
To nie jest tylko rzeczywistość, to uczucie i rzeczywistość.
20:47
What's importantważny
491
1232000
2000
Co jest ważne,
20:49
is that they be about the samepodobnie.
492
1234000
2000
to żeby były mniej więcej równe.
20:51
It's importantważny that, if our feelingsuczucia matchmecz realityrzeczywistość,
493
1236000
2000
Ważne jest, że jeśli nasze uczucia odpowiadają rzeczywistości,
20:53
we make better securitybezpieczeństwo trade-offskompromisy.
494
1238000
2000
to dokonujemy lepszych wyborów.
20:55
Thank you.
495
1240000
2000
Dziękuję.
20:57
(ApplauseAplauz)
496
1242000
2000
(Brawa)
Translated by Piotr Czajkowski
Reviewed by Marcin Cwikla

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com