ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Bruce Schneier: A biztonság délibábja

Filmed:
958,315 views

A biztonság érzése és az igazi biztonság nem mindig illenek össze, mondja Bruce Schneier számítógép biztonsági szakember. A TEDxPSU-n elmagyarázza miért költünk milliárdokat újsághír rizikókra, mint például a "biztonsági előadás" amit épp most játszanak a helyi reptéren, miközben elhanyagoljuk a valószínűbb rizikókat -- és hogy törhetjük meg ezt a folyamatot.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securityBiztonság is two differentkülönböző things:
0
0
2000
Tehát a biztonság két különböző dolog:
00:17
it's a feelingérzés, and it's a realityvalóság.
1
2000
2000
egy érzés és egy valóság.
00:19
And they're differentkülönböző.
2
4000
2000
És ezek különböznek.
00:21
You could feel securebiztonságos
3
6000
2000
Érezheted magad biztonságban
00:23
even if you're not.
4
8000
2000
még akkor is ha nem vagy.
00:25
And you can be securebiztonságos
5
10000
2000
És lehetsz biztonságban
00:27
even if you don't feel it.
6
12000
2000
még akkor is, ha nem érzed.
00:29
Really, we have two separatekülönálló conceptsfogalmak
7
14000
2000
Tényleg, két külön fogalmunk van
00:31
mappedrendelve onto-ra the sameazonos wordszó.
8
16000
2000
ugyanarra az egy szóra.
00:33
And what I want to do in this talk
9
18000
2000
És ebben a beszédemben
00:35
is to splithasított them aparteltekintve --
10
20000
2000
szét akarom választani őket --
00:37
figuringösszeadás out when they divergeeltér
11
22000
2000
megfejtve mikor válnak szét
00:39
and how they convergeközelednek.
12
24000
2000
és hogyan közelítenek.
00:41
And languagenyelv is actuallytulajdonképpen a problemprobléma here.
13
26000
2000
És itt a nyelv az igazi probléma.
00:43
There aren'tnem a lot of good wordsszavak
14
28000
2000
Nincs igazán sok jó szó
00:45
for the conceptsfogalmak we're going to talk about.
15
30000
3000
a fogalmakra amikről beszélni fogunk.
00:48
So if you look at securityBiztonság
16
33000
2000
Tehát, ha a biztonságot
00:50
from economicgazdasági termsfeltételek,
17
35000
2000
a gazdasági oldaláról nézed,
00:52
it's a trade-offkompromisszum.
18
37000
2000
az egy kompromisszum.
00:54
EveryMinden time you get some securityBiztonság,
19
39000
2000
Valahányszor némi biztonságot kapsz,
00:56
you're always tradingkereskedés off something.
20
41000
2000
mindig adsz cserébe valamit.
00:58
WhetherE this is a personalszemélyes decisiondöntés --
21
43000
2000
Lehet ez egy személyes döntés --
01:00
whetherakár you're going to installtelepítés a burglarbetörő alarmriasztás in your home --
22
45000
2000
felszerelsz-e biztonsági riasztót otthonodba --
01:02
or a nationalnemzeti decisiondöntés -- where you're going to invadebetör some foreignkülföldi countryország --
23
47000
3000
vagy egy nemzeti döntés -- mikor megszállsz egy idegen országot --
01:05
you're going to tradekereskedelmi off something,
24
50000
2000
mindig lemondasz cserébe valamiről,
01:07
eitherbármelyik moneypénz or time, conveniencekényelem, capabilitiesképességek,
25
52000
3000
pénzről vagy időröl, kényelemről, képességekről,
01:10
maybe fundamentalalapvető libertiesszabadságjogok.
26
55000
3000
talán alapvető szabadságokról.
01:13
And the questionkérdés to askkérdez when you look at a securityBiztonság anything
27
58000
3000
És amikor bármilyen biztonságot vizsgálsz, a kérdés
01:16
is not whetherakár this makesgyártmányú us saferbiztonságosabb,
28
61000
3000
nem az, hogy ettől nagyobb biztonságban leszünk-e,
01:19
but whetherakár it's worthérdemes the trade-offkompromisszum.
29
64000
3000
hanem, hogy megéri-e a kompromisszumot.
01:22
You've heardhallott in the pastmúlt severalszámos yearsévek,
30
67000
2000
Hallották az elmúlt pár évben, hogy
01:24
the worldvilág is saferbiztonságosabb because SaddamSzaddam HusseinHussein is not in powererő.
31
69000
2000
a világ biztonságossabb mert Szaddam Husszein nincs hatalmon.
01:26
That mightesetleg be trueigaz, but it's not terriblyszörnyen relevantide vonatkozó.
32
71000
3000
Ez lehet akár igaz is, de nem igazán lényeges.
01:29
The questionkérdés is, was it worthérdemes it?
33
74000
3000
A kérdés az, hogy megérte-e?
01:32
And you can make your ownsaját decisiondöntés,
34
77000
3000
És meghozhatod a saját döntésedet,
01:35
and then you'llazt is megtudhatod decidedöntsd el whetherakár the invasioninvázió was worthérdemes it.
35
80000
2000
és majd eldöntheted, hogy a megszállás megérte-e.
01:37
That's how you think about securityBiztonság --
36
82000
2000
Így kell gondolni a biztonságra --
01:39
in termsfeltételek of the trade-offkompromisszum.
37
84000
2000
a kompromisszum körülményeitől függően.
01:41
Now there's oftengyakran no right or wrongrossz here.
38
86000
3000
Sokszor nincs helyes vagy helytelen döntés.
01:44
Some of us have a burglarbetörő alarmriasztás systemrendszer at home,
39
89000
2000
Van akinek van otthon betörés elleni riasztója,
01:46
and some of us don't.
40
91000
2000
és van akinek nincs.
01:48
And it'llez lesz dependfügg on where we liveélő,
41
93000
2000
Ez attól függ hol lakunk,
01:50
whetherakár we liveélő aloneegyedül or have a familycsalád,
42
95000
2000
egyedül vagy családdal,
01:52
how much coolmenő stuffdolog we have,
43
97000
2000
mennyi értékes dolgunk van,
01:54
how much we're willinghajlandó to acceptelfogad
44
99000
2000
mennyire vagyunk hajlandók elfogadni
01:56
the riskkockázat of theftlopás.
45
101000
2000
a lopás rizikóját.
01:58
In politicspolitika alsois,
46
103000
2000
A politikában szintén
02:00
there are differentkülönböző opinionsvélemények.
47
105000
2000
vannak különböző vélemények.
02:02
A lot of timesalkalommal, these trade-offskompromisszumokat
48
107000
2000
Ezek a kompromisszumok sokszor
02:04
are about more than just securityBiztonság,
49
109000
2000
nem csak a biztonságról szólnak,
02:06
and I think that's really importantfontos.
50
111000
2000
és én azt gondolom, hogy ez igazán fontos.
02:08
Now people have a naturaltermészetes intuitionintuíció
51
113000
2000
Az embereknek van egy ösztönös megérzésük
02:10
about these trade-offskompromisszumokat.
52
115000
2000
ezekről a kompromisszumokról.
02:12
We make them everyminden day --
53
117000
2000
Minden nap teszünk ilyeneket --
02:14
last night in my hotelszálloda roomszoba,
54
119000
2000
múlt éjjel a hotel szobámban,
02:16
when I decidedhatározott to double-lockdupla-lock the doorajtó,
55
121000
2000
amikor eldöntöttem, hogy kettőre zárom az ajtót,
02:18
or you in your carautó when you drovehajtott, vezetett here,
56
123000
2000
vagy önök az autójukban, miközben ide vezettek,
02:20
when we go eateszik lunchebéd
57
125000
2000
amikor ebédelni megyünk
02:22
and decidedöntsd el the food'sélelmiszer not poisonméreg and we'lljól eateszik it.
58
127000
3000
és eldöntjük, hogy a étel nem méreg és megesszük.
02:25
We make these trade-offskompromisszumokat again and again,
59
130000
2000
Megtesszük ezeket a kompromisszumokat
02:27
multipletöbbszörös timesalkalommal a day.
60
132000
2000
újra és újra, naponta többször.
02:29
We oftengyakran won'tszokás even noticeértesítés them.
61
134000
2000
Sokszor észre se vesszük őket.
02:31
They're just partrész of beinglény aliveélő; we all do it.
62
136000
2000
Egyszerű részei az életnek; mind megtesszük.
02:33
EveryMinden speciesfaj does it.
63
138000
3000
Mnden faj megteszi.
02:36
ImagineKépzeld el a rabbitnyúl in a fieldmező, eatingenni grass,
64
141000
2000
Képzeljenek el egy nyulat, legel,
02:38
and the rabbit'snyúl going to see a foxróka.
65
143000
3000
és meglát egy rókát.
02:41
That rabbitnyúl will make a securityBiztonság trade-offkompromisszum:
66
146000
2000
A nyúl egy biztonsági döntést fog hozni:
02:43
"Should I staymarad, or should I fleemenekül?"
67
148000
2000
"Maradjak vagy fussak el?"
02:45
And if you think about it,
68
150000
2000
És ha belegondolnak,
02:47
the rabbitsnyulak that are good at makinggyártás that trade-offkompromisszum
69
152000
3000
a jó döntést hozó nyulak
02:50
will tendhajlamosak to liveélő and reproducereprodukálni,
70
155000
2000
inkább maradnak életben és szaporodnak,
02:52
and the rabbitsnyulak that are badrossz at it
71
157000
2000
míg a rossz döntést hozó nyulakat
02:54
will get eatenevett or starveéhen.
72
159000
2000
megeszik vagy éhen halnak.
02:56
So you'djobb lenne, ha think
73
161000
2000
Tehát azt gondolnánk, hogy mi,
02:58
that us, as a successfulsikeres speciesfaj on the planetbolygó --
74
163000
3000
mint a legsikeresebb faj a bolygón --
03:01
you, me, everybodymindenki --
75
166000
2000
ön, én, mindannyian --
03:03
would be really good at makinggyártás these trade-offskompromisszumokat.
76
168000
3000
igazán jók lennénk ezekben a kompromisszumokban.
03:06
YetMég it seemsÚgy tűnik,, again and again,
77
171000
2000
És mégis úgy tünik, újra és újra,
03:08
that we're hopelesslyreménytelenül badrossz at it.
78
173000
3000
hogy menthetetlenül rosszak vagyunk.
03:11
And I think that's a fundamentallyalapvetően interestingérdekes questionkérdés.
79
176000
3000
És én azt gondolom, hogy ez egy alapvetően érdekes kérdés.
03:14
I'll give you the shortrövid answerválasz.
80
179000
2000
Megadom a rövid választ.
03:16
The answerválasz is, we respondreagál to the feelingérzés of securityBiztonság
81
181000
2000
A válasz az, hogy a biztonság érzésére válaszolunk,
03:18
and not the realityvalóság.
82
183000
3000
nem pedig a biztonság valóságára.
03:21
Now mosta legtöbb of the time, that worksművek.
83
186000
3000
Legtöbbször ez müködik.
03:25
MostA legtöbb of the time,
84
190000
2000
Legtöbbször,
03:27
feelingérzés and realityvalóság are the sameazonos.
85
192000
3000
az érzés és a valóság ugyanaz.
03:30
CertainlyMinden bizonnyal that's trueigaz
86
195000
2000
Ez biztosan igaz
03:32
for mosta legtöbb of humanemberi prehistoryőstörténet.
87
197000
3000
az emberiség őstörténetére.
03:35
We'veMost már developedfejlett this abilityképesség
88
200000
3000
Azért fejlesztettük ki ezt a képességet,
03:38
because it makesgyártmányú evolutionaryevolúciós senseérzék.
89
203000
2000
mert értelme volt fejlődésünk szempontjából.
03:40
One way to think of it
90
205000
2000
Úgy is gondolhatunk erre,
03:42
is that we're highlymagasan optimizedoptimalizált
91
207000
2000
hogy mi erősen optimalizálva vagyunk
03:44
for riskkockázat decisionsdöntések
92
209000
2000
olyan kockázati döntésekre, amelyek
03:46
that are endemicendemikus to livingélő in smallkicsi familycsalád groupscsoportok
93
211000
3000
a kis családi csoportokban való élettel jártak
03:49
in the EastKeleti AfricanAfrikai highlandsfelvidék in 100,000 B.C.
94
214000
3000
a kelet afrikai szavannákon, K.e. 100000-ben --
03:52
2010 NewÚj YorkYork, not so much.
95
217000
3000
de nem annyira 2010-ben, New Yorkban.
03:56
Now there are severalszámos biasestorzítások in riskkockázat perceptionészlelés.
96
221000
3000
Létezik több előítélet is a kockázat érzékelésben.
03:59
A lot of good experimentskísérletek in this.
97
224000
2000
Sok jó kísérlet van erre.
04:01
And you can see certainbizonyos biasestorzítások that come up again and again.
98
226000
3000
És láthatnak bizonyos, újra és újra megjelenő előítéleteket.
04:04
So I'll give you fournégy.
99
229000
2000
Leírok önöknek négyet.
04:06
We tendhajlamosak to exaggeratetúloz spectacularlátványos and rareritka riskskockázatok
100
231000
3000
Hajlamosak vagyunk eltúlozni a látványos és ritka kockázatokat
04:09
and downplaylekicsinyelni commonközös riskskockázatok --
101
234000
2000
és lekicsinyelni a gyakori rizikókat --
04:11
so flyingrepülő versusellen drivingvezetés.
102
236000
3000
tehát a repülést az autóvezetés ellenében.
04:14
The unknownismeretlen is perceivedérzékelt
103
239000
2000
Az ismeretlen rizikót kockázatosabbnak
04:16
to be riskierkockázatosabb than the familiarismerős.
104
241000
3000
érzékeljük mint az ismerőst.
04:20
One examplepélda would be,
105
245000
2000
Erre egy példa lenne,
04:22
people fearfélelem kidnappingemberrablás by strangersidegenek
106
247000
3000
hogy az emberek félnek az idegenek általi emberrablástól,
04:25
when the dataadat supportstámogatja a kidnappingemberrablás by relativesrokonok is much more commonközös.
107
250000
3000
miközben az adatok szerint, a rokonok általi emberrablás sokkal megszokottabb.
04:28
This is for childrengyermekek.
108
253000
2000
Ez a gyerekekre vonatkozik.
04:30
ThirdHarmadik, personifiedmegszemélyesített riskskockázatok
109
255000
3000
Harmadik, a megszemélyesített kockázatot
04:33
are perceivedérzékelt to be greaternagyobb than anonymousnévtelen riskskockázatok --
110
258000
3000
nagyobbnak érzékeljük, mint a névtelen rizikót --
04:36
so BinBin LadenTerhelt is scarierijesztõbb because he has a namenév.
111
261000
3000
tehát Bin Laden ijesztőbb, mert van neve.
04:39
And the fourthnegyedik
112
264000
2000
És a negyedik:
04:41
is people underestimatealábecsül riskskockázatok
113
266000
2000
az emberek alábecsülik a rizikókat
04:43
in situationshelyzetek they do controlellenőrzés
114
268000
2000
az általuk szabályzott helyzetekben
04:45
and overestimatetúlbecsüli them in situationshelyzetek they don't controlellenőrzés.
115
270000
4000
és felülbecsülik őket az általuk nem irányított helyzetekben.
04:49
So onceegyszer you take up skydivingejtőernyőzés or smokingdohányzó,
116
274000
3000
Tehát, ha egyszer elkezdtél ejtőernyőzni vagy dohányozni,
04:52
you downplaylekicsinyelni the riskskockázatok.
117
277000
2000
alábecsülöd a kockázatot.
04:54
If a riskkockázat is thrusttolóerő uponesetén you -- terrorismterrorizmus was a good examplepélda --
118
279000
3000
Ha egy rizikót rád erőszakolnak -- a terrorizmus egy jó példa volt --
04:57
you'llazt is megtudhatod overplaylegyőz it because you don't feel like it's in your controlellenőrzés.
119
282000
3000
túl fogod becsülni, mert úgy érzed nincs az ellenőrzésed alatt.
05:02
There are a bunchcsokor of other of these biasestorzítások, these cognitivemegismerő biasestorzítások,
120
287000
3000
Létezik egy csomó más előítéletek, ezek az észlelési előítéletek,
05:05
that affectérint our riskkockázat decisionsdöntések.
121
290000
3000
amelyek befolyásolják a kockázati döntéseinket.
05:08
There's the availabilityElérhetőség heuristicheurisztikus,
122
293000
2000
Például az elérhetőségi heurisztika,
05:10
whichmelyik basicallyalapvetően meanseszközök
123
295000
2000
ami alapján
05:12
we estimatebecslés the probabilityvalószínűség of something
124
297000
3000
valaminek a valószínűségét annak alapján becsüljük meg,
05:15
by how easykönnyen it is to bringhoz instancespéldányok of it to mindelme.
125
300000
4000
hogy milyen könnyen jutnak eszünkbe példák rá.
05:19
So you can imagineKépzeld el how that worksművek.
126
304000
2000
El tudják képzelni, ez hogy működik.
05:21
If you hearhall a lot about tigertigris attackstámadások, there mustkell be a lot of tigerstigrisek around.
127
306000
3000
Ha sokat hallunk tigris támadásokról, akkor sok tigris kell legyen a környékünkön.
05:24
You don't hearhall about lionoroszlán attackstámadások, there aren'tnem a lot of lionsnevezetességek around.
128
309000
3000
Ha nem hallunk oroszlán támadásokról, akkor nincs sok oroszlán a környékünkön.
05:27
This worksművek untilamíg you inventfeltalál newspapersújságok.
129
312000
3000
Ez az újságok feltalálásáig működik.
05:30
Because what newspapersújságok do
130
315000
2000
Mert amit az újságok
05:32
is they repeatismétlés again and again
131
317000
2000
újra és újra elismétlik
05:34
rareritka riskskockázatok.
132
319000
2000
a ritka rizikókat.
05:36
I tell people, if it's in the newshírek, don't worryaggodalom about it.
133
321000
2000
Az embereknek azt mondom: ha a hírekben van, nem kell miatta aggódni.
05:38
Because by definitionmeghatározás,
134
323000
2000
Mert a definició szerint,
05:40
newshírek is something that almostmajdnem never happensmegtörténik.
135
325000
3000
a hír olyasmi, ami szinte soha nem történik meg.
05:43
(LaughterNevetés)
136
328000
2000
(Nevetés)
05:45
When something is so commonközös, it's no longerhosszabb newshírek --
137
330000
3000
Amikor valami annyira mindennapi, hogy az már nem hír --
05:48
carautó crashesösszeomlik, domesticbelföldi violenceerőszak --
138
333000
2000
autóbalesetek, családon belüli erőszak --
05:50
those are the riskskockázatok you worryaggodalom about.
139
335000
3000
azok a rizikók, amelyektől tarthatunk.
05:53
We're alsois a speciesfaj of storytellersmesemondók.
140
338000
2000
Mesemondó faj vagyunk.
05:55
We respondreagál to storiestörténetek more than dataadat.
141
340000
3000
Jobban reagálunk a történetekre mint az adatokra.
05:58
And there's some basicalapvető innumeracyinnumeracy going on.
142
343000
2000
És létezik egy alapvető számismereti hiány.
06:00
I mean, the joketréfa "One, Two, ThreeHárom, ManySok" is kindkedves of right.
143
345000
3000
Vagyis az "Egy, kettő, három, sok" vicc valahogy igaz.
06:03
We're really good at smallkicsi numbersszám.
144
348000
3000
A kis számokban vagyunk igazán jók.
06:06
One mangomangó, two mangoesmangó, threehárom mangoesmangó,
145
351000
2000
Egy mangó, két mangó, három mangó,
06:08
10,000 mangoesmangó, 100,000 mangoesmangó --
146
353000
2000
10000 mangó, 100000 mangó --
06:10
it's still more mangoesmangó you can eateszik before they rotrothadás.
147
355000
3000
ez már több mangó annál, amit rothadásuk előtt megehetsz.
06:13
So one halffél, one quarternegyed, one fifthötödik -- we're good at that.
148
358000
3000
Tehát egy fél, egy negyed, egy ötöd -- ebben jók vagyunk.
06:16
One in a millionmillió, one in a billionmilliárd, ezermillió --
149
361000
2000
Egy milliomod, egy milliárdomod --
06:18
they're bothmindkét almostmajdnem never.
150
363000
3000
ezekben szinte soha nem vagyunk jók.
06:21
So we have troublebaj with the riskskockázatok
151
366000
2000
Tehát problémánk van
06:23
that aren'tnem very commonközös.
152
368000
2000
a nem mindennapi rizikókkal.
06:25
And what these cognitivemegismerő biasestorzítások do
153
370000
2000
És ezek az észlelési előítéletek
06:27
is they acttörvény as filtersszűrők betweenközött us and realityvalóság.
154
372000
3000
szűrőként viselkednek köztünk és a valóság között.
06:30
And the resulteredmény
155
375000
2000
Az eredmény pedig az,
06:32
is that feelingérzés and realityvalóság get out of whackütés,
156
377000
2000
hogy az érzés és a valóság kapcsolata elromlik,
06:34
they get differentkülönböző.
157
379000
3000
különbözők lesznek.
06:37
Now you eitherbármelyik have a feelingérzés -- you feel more securebiztonságos than you are.
158
382000
3000
Nos, vagy van egy érzésed -- nagyobb biztonságban érzed magad, mint vagy.
06:40
There's a falsehamis senseérzék of securityBiztonság.
159
385000
2000
Ez a hamis biztonság érzése.
06:42
Or the other way,
160
387000
2000
Másfelől pedig
06:44
and that's a falsehamis senseérzék of insecuritybizonytalanság.
161
389000
2000
létezik a hamis bizonytalanság érzése.
06:46
I writeír a lot about "securityBiztonság theaterszínház,"
162
391000
3000
Sokat írtam a "biztonsági előadásról",
06:49
whichmelyik are productsTermékek that make people feel securebiztonságos,
163
394000
3000
termékek amiktől az emberek nagyobb biztonságban érzik magukat,
06:52
but don't actuallytulajdonképpen do anything.
164
397000
2000
de tulajdonképpen nem csinálnak semmit.
06:54
There's no realigazi wordszó for stuffdolog that makesgyártmányú us securebiztonságos,
165
399000
2000
Nincs valós szó a dolgokra amiktől biztonságban leszünk,
06:56
but doesn't make us feel securebiztonságos.
166
401000
2000
de nem fogjuk magunkat tőle biztonságban érezni.
06:58
Maybe it's what the CIA'sCIA supposedfeltételezett to do for us.
167
403000
3000
Talán ezt kellene megtegye a CIA értünk.
07:03
So back to economicsközgazdaságtan.
168
408000
2000
Vissza a gazdasághoz.
07:05
If economicsközgazdaságtan, if the marketpiac, drivesmeghajtók securityBiztonság,
169
410000
4000
Ha a gazdaság, a piac ösztönzi a biztonságot
07:09
and if people make trade-offskompromisszumokat
170
414000
2000
és ha az emberek kompromisszumokat kötnek
07:11
basedszékhelyű on the feelingérzés of securityBiztonság,
171
416000
3000
a biztonság érzetükre alapozva,
07:14
then the smartOkos thing for companiesvállalatok to do
172
419000
2000
akkor a cégek okosan tennék ha elérnék,
07:16
for the economicgazdasági incentivesösztönzők
173
421000
2000
hogy az emberek nagyobb biztonságban
07:18
are to make people feel securebiztonságos.
174
423000
3000
érezzék magukat -- a gazdasági ösztönzőkért.
07:21
And there are two waysmódokon to do this.
175
426000
3000
És ezt két féle képpen lehet megcsinálni.
07:24
One, you can make people actuallytulajdonképpen securebiztonságos
176
429000
2000
Egy: valóbban biztonságot szolgáltatsz
07:26
and hoperemény they noticeértesítés.
177
431000
2000
az embereknek és reméled észreveszik.
07:28
Or two, you can make people just feel securebiztonságos
178
433000
3000
Vagy kettő: eléred, hogy az emberek csak biztonságban
07:31
and hoperemény they don't noticeértesítés.
179
436000
3000
érzzék magukat és reménykedsz, hogy nem veszik észre.
07:35
So what makesgyártmányú people noticeértesítés?
180
440000
3000
Mitől veszik észre az emberek?
07:38
Well a couplepárosít of things:
181
443000
2000
Egy pár dolog szükséges:
07:40
understandingmegértés of the securityBiztonság,
182
445000
2000
a biztonság megértése,
07:42
of the riskskockázatok, the threatsfenyegetések,
183
447000
2000
a rizikók, a fenyegetések,
07:44
the countermeasuresellenintézkedések, how they work.
184
449000
3000
az ellenintézkedések működését.
07:47
But if you know stuffdolog,
185
452000
2000
De ha tudsz ezekről, nagyobb a valószínűsége,
07:49
you're more likelyvalószínűleg to have your feelingsérzések matchmérkőzés realityvalóság.
186
454000
3000
hogy az érzéseid megfelelnek a valóságnak.
07:52
EnoughElég realigazi worldvilág examplespéldák helpssegít.
187
457000
3000
Elégséges számú valós példa segít.
07:55
Now we all know the crimebűn ratearány in our neighborhoodszomszédság,
188
460000
3000
Mind ismerjük a bűnözési arányt a környékünkön,
07:58
because we liveélő there, and we get a feelingérzés about it
189
463000
3000
mert ott lakunk, és van róla egy érzésünk
08:01
that basicallyalapvetően matchesmérkőzések realityvalóság.
190
466000
3000
ami nagyjából megfelel a valóságnak.
08:04
SecurityBiztonsági theater'sSzínház exposedkitett
191
469000
3000
A biztonsági előadás lelepleződik
08:07
when it's obviousnyilvánvaló that it's not workingdolgozó properlymegfelelően.
192
472000
3000
amikor nyilvánvaló, hogy nem működik megfelelően.
08:10
Okay, so what makesgyártmányú people not noticeértesítés?
193
475000
4000
Rendben, mi az amitől az emberek nem veszik észre?
08:14
Well, a poorszegény understandingmegértés.
194
479000
2000
Nos, a gyenge megértés.
08:16
If you don't understandmegért the riskskockázatok, you don't understandmegért the costskiadások,
195
481000
3000
Ha nem érted a rizikókat, nem érted a költségeket,
08:19
you're likelyvalószínűleg to get the trade-offkompromisszum wrongrossz,
196
484000
2000
valószínűleg rossz kompromisszumot fogsz kötni,
08:21
and your feelingérzés doesn't matchmérkőzés realityvalóság.
197
486000
3000
és az érzésed nem felel meg a valóságnak.
08:24
Not enoughelég examplespéldák.
198
489000
2000
Nincs elég példa.
08:26
There's an inherentvelejáró problemprobléma
199
491000
2000
Létezik egy vele járó probléma
08:28
with lowalacsony probabilityvalószínűség eventsesemények.
200
493000
2000
az alacsony valószínűségű eseményekkel.
08:30
If, for examplepélda,
201
495000
2000
Ha például
08:32
terrorismterrorizmus almostmajdnem never happensmegtörténik,
202
497000
2000
a terrorizmus szinte soha nem történik meg,
08:34
it's really hardkemény to judgebíró
203
499000
2000
nagyon nehéz megítélni
08:36
the efficacyhatékonyság of counter-terroristterrorizmus elleni measuresintézkedések.
204
501000
3000
a terrorellenes intézkedések hatékonyságát.
08:40
This is why you keep sacrificingfeláldozása virginsszüzek,
205
505000
3000
Ezért folytatják a szűzek feláldozását,
08:43
and why your unicornEgyszarvú defensesvédések are workingdolgozó just great.
206
508000
3000
és ezért működnek olyan jól az egyszarvú védelmek.
08:46
There aren'tnem enoughelég examplespéldák of failureshibák.
207
511000
3000
Nincs elég példa a kudarcokra.
08:50
AlsoIs, feelingsérzések that are cloudingszemlencse the issueskérdések --
208
515000
3000
Szintén, az érzések elfedik a problémákat --
08:53
the cognitivemegismerő biasestorzítások I talkedbeszélt about earlierkorábban,
209
518000
2000
azok az észlelési előítéletek, amikről beszéltem előbb,
08:55
fearsfélelmek, folknépi beliefshiedelmek,
210
520000
3000
félelmek, népi hiedelmek,
08:58
basicallyalapvetően an inadequatenem megfelelő modelmodell of realityvalóság.
211
523000
3000
valójában egy nem megfelelő valóságmodell.
09:02
So let me complicatebonyolítja things.
212
527000
3000
Engedjék meg, hogy komplikáljam a dolgokat.
09:05
I have feelingérzés and realityvalóság.
213
530000
2000
Van érzés és valóság.
09:07
I want to addhozzáad a thirdharmadik elementelem. I want to addhozzáad modelmodell.
214
532000
3000
Egy harmadik elemet akarok hozzáadni, a modellt.
09:10
FeelingÉrzés and modelmodell in our headfej,
215
535000
2000
Érzés és modell a fejünkben,
09:12
realityvalóság is the outsidekívül worldvilág.
216
537000
2000
a valóság pedig a külvilág.
09:14
It doesn't changeváltozás; it's realigazi.
217
539000
3000
Az nem vátozik; az valós.
09:17
So feelingérzés is basedszékhelyű on our intuitionintuíció.
218
542000
2000
Tehát az érzés az intuícióra alapszik.
09:19
ModelModell is basedszékhelyű on reasonok.
219
544000
2000
A modell a gondolkodásra alapszik.
09:21
That's basicallyalapvetően the differencekülönbség.
220
546000
3000
Ez tulajdonképpen a különbség.
09:24
In a primitiveprimitív and simpleegyszerű worldvilág,
221
549000
2000
Egy primitiv és egyszerű világban
09:26
there's really no reasonok for a modelmodell
222
551000
3000
nincs igazán szükség a modellre.
09:29
because feelingérzés is closeBezárás to realityvalóság.
223
554000
3000
Mert az érzés közel van a valósághoz.
09:32
You don't need a modelmodell.
224
557000
2000
Nincs szükséged modellre.
09:34
But in a modernmodern and complexösszetett worldvilág,
225
559000
2000
De egy modern és komplex világban,
09:36
you need modelsmodellek
226
561000
2000
szükséged van modellekre,
09:38
to understandmegért a lot of the riskskockázatok we facearc.
227
563000
3000
hogy megérts egy csomó rizikót, azokból amikkel szembesülünk.
09:42
There's no feelingérzés about germscsíra.
228
567000
2000
Nem létezik érzés a baktériumokról.
09:44
You need a modelmodell to understandmegért them.
229
569000
3000
Szükséged van egy modellre, hogy megértsd őket.
09:47
So this modelmodell
230
572000
2000
Tehát ez a modell
09:49
is an intelligentintelligens representationreprezentáció of realityvalóság.
231
574000
3000
egy intelligens ábrázolása a valóságnak.
09:52
It's, of coursetanfolyam, limitedkorlátozott by sciencetudomány,
232
577000
3000
Természetesen, a tudomány és
09:55
by technologytechnológia.
233
580000
2000
a technológia határolja be.
09:57
We couldn'tnem tudott have a germcsíra theoryelmélet of diseasebetegség
234
582000
3000
Nem lehetett bakteriális elméletünk a betegségekről,
10:00
before we inventedfeltalált the microscopeMikroszkóp to see them.
235
585000
3000
mielőtt feltaláltuk a mikroszkópot, amivel láthattuk őket.
10:04
It's limitedkorlátozott by our cognitivemegismerő biasestorzítások.
236
589000
3000
Az észlelési hajlamaink határolják be.
10:07
But it has the abilityképesség
237
592000
2000
De megvan az a képessége,
10:09
to overridefelülbírálása our feelingsérzések.
238
594000
2000
hogy felülírja az érzéseinket.
10:11
Where do we get these modelsmodellek? We get them from othersmások.
239
596000
3000
Honnan kapjuk ezeket a modelleket? Másoktól kapjuk.
10:14
We get them from religionvallás, from culturekultúra,
240
599000
3000
A vallástól, a kúltúrából,
10:17
teacherstanárok, eldersidősek.
241
602000
2000
tanároktól, idősebbektől.
10:19
A couplepárosít yearsévek agoezelőtt,
242
604000
2000
Egy pár éve,
10:21
I was in SouthDél AfricaAfrika on safariSafari.
243
606000
2000
Dél-Afrikában voltam szafarin.
10:23
The trackerTracker I was with grewnőtt up in KrugerKruger NationalNemzeti ParkPark.
244
608000
3000
A nyomkereső akivel voltam a Kruger Nemzeti Parkban nőtt fel.
10:26
He had some very complexösszetett modelsmodellek of how to survivetúlélni.
245
611000
3000
Néhány nagyon komplex túlélési modellje volt.
10:29
And it dependedattól függ on if you were attackedtámadták
246
614000
2000
És attól függött, hogy mi támadott meg:
10:31
by a lionoroszlán or a leopardleopárd or a rhinoorrszarvú or an elephantelefánt --
247
616000
2000
egy oroszlán vagy egy leopárd vagy egy orrszarvú vagy egy elefánt --
10:33
and when you had to runfuss away, and when you couldn'tnem tudott runfuss away, and when you had to climbmászik a treefa --
248
618000
3000
és mikor kell elszaladni, és mikor kell fára mászni --
10:36
when you could never climbmászik a treefa.
249
621000
2000
illetve mikor nem szabad soha fára mászni.
10:38
I would have diedmeghalt in a day,
250
623000
3000
Én egy nap alatt meghaltam volna,
10:41
but he was bornszületett there,
251
626000
2000
de ő ott nőtt fel,
10:43
and he understoodmegértett how to survivetúlélni.
252
628000
2000
és megértette hogyan kell életben maradni.
10:45
I was bornszületett in NewÚj YorkYork CityVáros.
253
630000
2000
Én New York-ban születtem.
10:47
I could have takentett him to NewÚj YorkYork, and he would have diedmeghalt in a day.
254
632000
3000
Elvihettem volna őt New York-ba és ő halt volna meg egy nap alatt.
10:50
(LaughterNevetés)
255
635000
2000
(Nevetés)
10:52
Because we had differentkülönböző modelsmodellek
256
637000
2000
Mivel különböző modelljeink voltak
10:54
basedszékhelyű on our differentkülönböző experiencestapasztalatok.
257
639000
3000
a különböző tapasztalatainkra alapozva.
10:58
ModelsModellek can come from the mediamédia,
258
643000
2000
A modellek származhatnak a médiából,
11:00
from our electedmegválasztott officialstisztviselők.
259
645000
3000
a választott hivatalnokoktól.
11:03
Think of modelsmodellek of terrorismterrorizmus,
260
648000
3000
Gondoljanak a terrorizmus modellekre,
11:06
childgyermek kidnappingemberrablás,
261
651000
3000
gyermekrablásra,
11:09
airlinelégitársaság safetybiztonság, carautó safetybiztonság.
262
654000
2000
repülés biztonságra, autós biztonságra.
11:11
ModelsModellek can come from industryipar.
263
656000
3000
A modellek jöhetnek az iparból.
11:14
The two I'm followingkövetkező are surveillancefelügyelet cameraskamerák,
264
659000
2000
Kettő amit követek: a biztonsági kamerák,
11:16
IDID cardskártyák,
265
661000
2000
azonosító kártyák,
11:18
quiteegészen a lot of our computerszámítógép securityBiztonság modelsmodellek come from there.
266
663000
3000
elég sok számítógépes biztonsági modell jön onnan.
11:21
A lot of modelsmodellek come from sciencetudomány.
267
666000
3000
Egy csomó modell jön a tudományból.
11:24
HealthEgészségügyi modelsmodellek are a great examplepélda.
268
669000
2000
Az egészségi modellek nagyon jó példák.
11:26
Think of cancerrák, of birdmadár fluinfluenza, swinesertés fluinfluenza, SARSSARS.
269
671000
3000
Gondoljanak a rákra, a madár vagy sertés influenzára, az atípusos tüdőgyulladásra.
11:29
All of our feelingsérzések of securityBiztonság
270
674000
3000
Az összes biztonsági érzésünk
11:32
about those diseasesbetegségek
271
677000
2000
ezekről a betegségekről
11:34
come from modelsmodellek
272
679000
2000
a modellektől származnak,
11:36
givenadott to us, really, by sciencetudomány filteredszűrt throughkeresztül the mediamédia.
273
681000
3000
amiket a média által megszűrt tudománytól kaptunk.
11:40
So modelsmodellek can changeváltozás.
274
685000
3000
Tehát a modellek változhatnak.
11:43
ModelsModellek are not staticstatikus.
275
688000
2000
A modellek nem statikusak.
11:45
As we becomeválik more comfortablekényelmes in our environmentskörnyezetek,
276
690000
3000
Ahogy jobban megszokjuk a környezetünket
11:48
our modelmodell can movemozog closerközelebb to our feelingsérzések.
277
693000
4000
a modelljeink közeledhetnek az érzéseinkhez.
11:53
So an examplepélda mightesetleg be,
278
698000
2000
Egy példa lehetne ez:
11:55
if you go back 100 yearsévek agoezelőtt
279
700000
2000
ha visszamennénk 100 évet,
11:57
when electricityelektromosság was first becomingegyre commonközös,
280
702000
3000
amikor az elektromosság először kezdett elterjedni,
12:00
there were a lot of fearsfélelmek about it.
281
705000
2000
sok félelem volt vele kapcsolatban.
12:02
I mean, there were people who were afraidfélnek to pushnyom doorbellsdoorbells,
282
707000
2000
Voltak emberek akik féltek megnyomni a csengő gombját,
12:04
because there was electricityelektromosság in there, and that was dangerousveszélyes.
283
709000
3000
mivel elektromosság volt benne, és az veszélyes volt.
12:07
For us, we're very facilekönnyed around electricityelektromosság.
284
712000
3000
Mi már könnyedén vesszük az elektromosságot.
12:10
We changeváltozás lightfény bulbsizzók
285
715000
2000
Villanykörtéket cserélünk ki
12:12
withoutnélkül even thinkinggondolkodás about it.
286
717000
2000
gondolkodás nélkül.
12:14
Our modelmodell of securityBiztonság around electricityelektromosság
287
719000
4000
A mi elektromosság biztonsági modellünk
12:18
is something we were bornszületett into.
288
723000
3000
olyasmi amibe mi beleszülettünk.
12:21
It hasn'tmég nem changedmegváltozott as we were growingnövekvő up.
289
726000
3000
Nem változott amíg felnőttünk.
12:24
And we're good at it.
290
729000
3000
És jók vagyunk benne.
12:27
Or think of the riskskockázatok
291
732000
2000
Vagy gondoljanak az Internet rizikóira
12:29
on the InternetInternet acrossát generationsgenerációk --
292
734000
2000
a generációkon át --
12:31
how your parentsszülők approachmegközelítés InternetInternet securityBiztonság,
293
736000
2000
hogyan viszonyulnak a szüleik az Internet biztonsághoz,
12:33
versusellen how you do,
294
738000
2000
ellentétben önökkel,
12:35
versusellen how our kidsgyerekek will.
295
740000
3000
ellentétben azzal, ahogy gyermekeink fognak.
12:38
ModelsModellek eventuallyvégül is fadeáttűnés into the backgroundháttér.
296
743000
3000
A modellek végül beleolvadnak a háttérbe.
12:42
IntuitiveIntuitív is just anotheregy másik wordszó for familiarismerős.
297
747000
3000
Az ösztönösség csak egy másik szó a megszokottra.
12:45
So as your modelmodell is closeBezárás to realityvalóság,
298
750000
2000
Tehát ahogy a modelljük közeledik a valósághoz,
12:47
and it convergeskonvergens with feelingsérzések,
299
752000
2000
és közelít az érzésekhez,
12:49
you oftengyakran don't know it's there.
300
754000
3000
sokszor nem is tudják, hogy ott van.
12:52
So a niceszép examplepélda of this
301
757000
2000
Egy jó példa erre
12:54
camejött from last yearév and swinesertés fluinfluenza.
302
759000
3000
a tavalyi sertés influenza volt.
12:57
When swinesertés fluinfluenza first appearedmegjelent,
303
762000
2000
Amikor a sertés influenza először megjelent,
12:59
the initiala kezdeti newshírek causedokozott a lot of overreactiontúlreagál.
304
764000
4000
az első hírek sok túlreagálást okoztak.
13:03
Now it had a namenév,
305
768000
2000
Aztán lett egy neve,
13:05
whichmelyik madekészült it scarierijesztõbb than the regularszabályos fluinfluenza,
306
770000
2000
amitől ijesztőbb lett mint a közönséges influenza,
13:07
even thoughbár it was more deadlyhalálos.
307
772000
2000
habár halálosabb volt.
13:09
And people thought doctorsorvosok should be ableképes to dealüzlet with it.
308
774000
4000
És az emberek azt gondolták, hogy az orvosok majd megbirkóznak vele.
13:13
So there was that feelingérzés of lackhiány of controlellenőrzés.
309
778000
2000
Tehát az ellenőrzés hiányának az érzése volt.
13:15
And those two things
310
780000
2000
És ez a két dolog
13:17
madekészült the riskkockázat more than it was.
311
782000
2000
felnagyította a rizikót.
13:19
As the noveltyújdonság woreviselt off, the monthshónap wentment by,
312
784000
3000
Ahogy az újdonság elkopott, teltek a hónapok,
13:22
there was some amountösszeg of tolerancetolerancia,
313
787000
2000
létezett egy adag tolerancia,
13:24
people got used to it.
314
789000
2000
az emberek hozzászoktak.
13:26
There was no newúj dataadat, but there was lessKevésbé fearfélelem.
315
791000
3000
Nem voltak új adatok, de kevesebb volt a félelem.
13:29
By autumnősz,
316
794000
2000
Őszre
13:31
people thought
317
796000
2000
az emberek azt gondolták,
13:33
the doctorsorvosok should have solvedmegoldott this alreadymár.
318
798000
2000
hogy az orvosoknak már meg kellet volna oldani ezt.
13:35
And there's kindkedves of a bifurcationelágazás --
319
800000
2000
És itt van egy fajta elágazás --
13:37
people had to chooseválaszt
320
802000
2000
az embereknek választani kellett
13:39
betweenközött fearfélelem and acceptanceelfogadás --
321
804000
4000
a félelem és az elfogadás között --
13:43
actuallytulajdonképpen fearfélelem and indifferenceközöny --
322
808000
2000
tulajdonképpen a félelem és a közöny között --
13:45
they kindkedves of choseválasztotta suspiciongyanú.
323
810000
3000
és valahogy a gyanút választották.
13:48
And when the vaccinevakcina appearedmegjelent last wintertéli,
324
813000
3000
És amikor az oltás megjelent a múlt télen,
13:51
there were a lot of people -- a surprisingmeglepő numberszám --
325
816000
3000
nagyon sok ember -- meglepő számban --
13:54
who refusedelutasított to get it --
326
819000
3000
visszautasította az oltást --
13:58
as a niceszép examplepélda
327
823000
2000
mintegy szép példként arra,
14:00
of how people'semberek feelingsérzések of securityBiztonság changeváltozás, how theirazok modelmodell changesváltoztatások,
328
825000
3000
hogyan változik az emberek biztonsági érzése és modellje,
14:03
sortfajta of wildlyvadul
329
828000
2000
elég vadul,
14:05
with no newúj informationinformáció,
330
830000
2000
új információ nélkül,
14:07
with no newúj inputbemenet.
331
832000
2000
új betáplált adat nélkül.
14:09
This kindkedves of thing happensmegtörténik a lot.
332
834000
3000
Ilyen esetek sokszor fordulnak elő.
14:12
I'm going to give one more complicationszövődmény.
333
837000
3000
Még egy komplikációt vezetek be.
14:15
We have feelingérzés, modelmodell, realityvalóság.
334
840000
3000
Van érzés, modell, valóság.
14:18
I have a very relativisticrelativisztikus viewKilátás of securityBiztonság.
335
843000
2000
Nekem egy nagyon relativisztikus nézetem van a biztonságról.
14:20
I think it dependsattól függ on the observermegfigyelő.
336
845000
3000
Azt gondolom, függ a megfigyelőtől.
14:23
And mosta legtöbb securityBiztonság decisionsdöntések
337
848000
2000
És a legtöbb biztonsági döntésbe
14:25
have a varietyfajta of people involvedrészt.
338
850000
4000
változatos emberek vannak érdekelve.
14:29
And stakeholdersérdekeltek
339
854000
2000
És a résztvevők
14:31
with specifickülönleges trade-offskompromisszumokat
340
856000
3000
a sajátos kompromisszumaikkal
14:34
will try to influencebefolyás the decisiondöntés.
341
859000
2000
megpróbálják befolyásolni a döntést.
14:36
And I call that theirazok agendanapirend.
342
861000
2000
Én ezt az ő programjuknak nevezem.
14:38
And you see agendanapirend --
343
863000
2000
És láthatják a programot --
14:40
this is marketingértékesítés, this is politicspolitika --
344
865000
3000
ez az értékesítés, ez a politika --
14:43
tryingmegpróbálja to convincemeggyőz you to have one modelmodell versusellen anotheregy másik,
345
868000
3000
megpróbálnak meggyőzni, hogy ez legyen a modelled és nem az,
14:46
tryingmegpróbálja to convincemeggyőz you to ignorefigyelmen kívül hagyni a modelmodell
346
871000
2000
megpróbálnak meggyőzni, hogy mellőzz egy modellt
14:48
and trustbizalom your feelingsérzések,
347
873000
3000
és bízz az érzéseidben,
14:51
marginalizingmarginalizálják people with modelsmodellek you don't like.
348
876000
3000
kiszorítva az embereket akiknek modelljét nem szereted.
14:54
This is not uncommonritka.
349
879000
3000
Ez nem ritka.
14:57
An examplepélda, a great examplepélda, is the riskkockázat of smokingdohányzó.
350
882000
3000
Egy nagyon jó példa erre a dohányzás rizikója.
15:01
In the historytörténelem of the pastmúlt 50 yearsévek, the smokingdohányzó riskkockázat
351
886000
3000
Az elmúlt 50 évben a dohányzás rizikója
15:04
showsműsorok how a modelmodell changesváltoztatások,
352
889000
2000
megmutatja hogyan változott a modell,
15:06
and it alsois showsműsorok how an industryipar fightsharcol againstellen
353
891000
3000
és azt is megmutatja hogyan harcolt egy iparág
15:09
a modelmodell it doesn't like.
354
894000
2000
egy modell ellen, amit nem szeretett.
15:11
CompareÖsszehasonlítása that to the secondhandSecondhand smokefüst debatevita --
355
896000
3000
Hasonlítsák ezt össze a passzív dohányzás vitával --
15:14
probablyvalószínűleg about 20 yearsévek behindmögött.
356
899000
3000
valószínüleg 20 évvel lemeradva.
15:17
Think about seatülés beltsövek.
357
902000
2000
Gondoljanak a biztonsági övre.
15:19
When I was a kidkölyök, no one woreviselt a seatülés beltöv.
358
904000
2000
Amikor gyerek voltam, senki nem használt biztonsági övet.
15:21
NowadaysManapság, no kidkölyök will let you drivehajtás
359
906000
2000
Manapság egy gyermek se enged vezetni,
15:23
if you're not wearingfárasztó a seatülés beltöv.
360
908000
2000
ha nem használod a biztonsági övet.
15:26
CompareÖsszehasonlítása that to the airbaglégzsák debatevita --
361
911000
2000
Hasonlítsák ezt össze a légzsák vitával --
15:28
probablyvalószínűleg about 30 yearsévek behindmögött.
362
913000
3000
valószínüleg 30 évvel lemeradva.
15:31
All examplespéldák of modelsmodellek changingváltozó.
363
916000
3000
Mind példák a modellek változására.
15:36
What we learntanul is that changingváltozó modelsmodellek is hardkemény.
364
921000
3000
Megtanultuk, hogy nehéz a modelleket megváltoztatni.
15:39
ModelsModellek are hardkemény to dislodgeeltávolít.
365
924000
2000
Nehéz a modelleket kimozdítani.
15:41
If they equalegyenlő your feelingsérzések,
366
926000
2000
Ha a modellek megfelelnek az érzéseiknek,
15:43
you don't even know you have a modelmodell.
367
928000
3000
nem is tudják, hogy van egy modelljük.
15:46
And there's anotheregy másik cognitivemegismerő biasElfogultság
368
931000
2000
És van egy másik észlelési előítélet,
15:48
I'll call confirmationmegerősítés biasElfogultság,
369
933000
2000
amit én igazolási előítéletnek nevezek,
15:50
where we tendhajlamosak to acceptelfogad dataadat
370
935000
3000
ahol hajlamosak vagyunk elfogadni az olyan adatot,
15:53
that confirmsmegerősíti our beliefshiedelmek
371
938000
2000
amelyik igazolja a hiedelmeinket
15:55
and rejectelutasítás dataadat that contradictsellentmond a our beliefshiedelmek.
372
940000
3000
és elutasítjuk az olyan adatot amelyik ellentmond nekik.
15:59
So evidencebizonyíték againstellen our modelmodell,
373
944000
2000
Tehát valószínűleg mellőzük a modellünk
16:01
we're likelyvalószínűleg to ignorefigyelmen kívül hagyni, even if it's compellingkényszerítő.
374
946000
3000
elleni bizonyítékot, még ha ellenállhatatlan is.
16:04
It has to get very compellingkényszerítő before we'lljól payfizetés attentionFigyelem.
375
949000
3000
Nagyon ellenállhatatlanná kell váljon mielőtt figyelembe vesszük.
16:08
NewÚj modelsmodellek that extendkiterjesztése long periodsidőszakok of time are hardkemény.
376
953000
2000
Nagyon nehezek az új, hosszú időre szóló modellek.
16:10
GlobalGlobális warmingmelegítés is a great examplepélda.
377
955000
2000
A globális felmelegedés egy kiváló példa.
16:12
We're terribleszörnyű
378
957000
2000
Szörnyűek vagyunk a 80 évet
16:14
at modelsmodellek that spanarasz 80 yearsévek.
379
959000
2000
felölelő modellekben.
16:16
We can do to the nextkövetkező harvestaratás.
380
961000
2000
A következő aratásig tartunk ki.
16:18
We can oftengyakran do untilamíg our kidsgyerekek grow up.
381
963000
3000
Gyakran kitartunk, mít a gyermekeink felnőnek.
16:21
But 80 yearsévek, we're just not good at.
382
966000
3000
De 80 év, egyszerűen nem vagyunk jók ebben.
16:24
So it's a very hardkemény modelmodell to acceptelfogad.
383
969000
3000
Tehát ez egy nagyon nehezen elfogadható modell.
16:27
We can have bothmindkét modelsmodellek in our headfej simultaneouslyegyidejűleg,
384
972000
4000
Lehet a fejünkben egyszerre mindkét modell,
16:31
right, that kindkedves of problemprobléma
385
976000
3000
vagy az a fajta probléma,
16:34
where we're holdingholding bothmindkét beliefshiedelmek togetheregyütt,
386
979000
3000
amikor két dologban hiszünk egyszerre,
16:37
right, the cognitivemegismerő dissonancedisszonancia.
387
982000
2000
vagy a kognitív disszonancia.
16:39
EventuallyVégül,
388
984000
2000
Végül,
16:41
the newúj modelmodell will replacecserélje the oldrégi modelmodell.
389
986000
3000
az új modell helyetesíteni fogja a régi modellt.
16:44
StrongErős feelingsérzések can createteremt a modelmodell.
390
989000
3000
Erős érzések létrehozhatnak egy modellt.
16:47
SeptemberSzeptember 11thth createdkészítette a securityBiztonság modelmodell
391
992000
3000
Szeptember 11.-e létrehozott egy biztonsági modellt
16:50
in a lot of people'semberek headsfejek.
392
995000
2000
sok ember fejében.
16:52
AlsoIs, personalszemélyes experiencestapasztalatok with crimebűn can do it,
393
997000
3000
Személyes bűnügyi tapasztalat szintén megteheti,
16:55
personalszemélyes healthEgészség scaremegijeszt,
394
1000000
2000
személyes egészségügyi ijedelem,
16:57
a healthEgészség scaremegijeszt in the newshírek.
395
1002000
2000
egy egészségügyi pánik a hírekben.
16:59
You'llYou'll see these calledhívott flashbulbflashbulb eventsesemények
396
1004000
2000
Láthatják ezeket a pszichiáterek által
17:01
by psychiatristsa pszichiáterek.
397
1006000
2000
villanólámpa eseményeknek nevezett dolgokat.
17:03
They can createteremt a modelmodell instantaneouslyazonnal,
398
1008000
3000
Létrehozhatnak egy modellt azonnal,
17:06
because they're very emotiveérzelmi.
399
1011000
3000
mert nagyon érzelmileg színezettek.
17:09
So in the technologicaltechnikai worldvilág,
400
1014000
2000
Tehát a technológiai világban
17:11
we don't have experiencetapasztalat
401
1016000
2000
nincs tapasztalatunk,
17:13
to judgebíró modelsmodellek.
402
1018000
2000
hogy megítéljük a modelleket.
17:15
And we relytámaszkodni on othersmások. We relytámaszkodni on proxieslegközelebbi.
403
1020000
2000
És másokban bízunk. Közvetítőkben bízunk.
17:17
I mean, this worksművek as long as it's to correcthelyes othersmások.
404
1022000
4000
Vagyis ez addig működik amíg másokat javítunk ki.
17:21
We relytámaszkodni on governmentkormány agenciesügynökségek
405
1026000
2000
Kormányhivatalokban bízunk,
17:23
to tell us what pharmaceuticalsgyógyszerek are safebiztonságos.
406
1028000
5000
hogy megmondják nekünk melyik gyógyszerek biztonságosak.
17:28
I flewrepült here yesterdaytegnap.
407
1033000
2000
Tegnap repültem ide.
17:30
I didn't checkjelölje be the airplanerepülőgép.
408
1035000
2000
Nem ellenőriztem a repülőt.
17:32
I reliedhivatkozott on some other groupcsoport
409
1037000
2000
Megbíztam egy másik csoportban,
17:34
to determinemeghatározására whetherakár my planerepülőgép was safebiztonságos to flylégy.
410
1039000
3000
hogy megállapítsa repülhet-e az én gépem.
17:37
We're here, noneegyik sem of us fearfélelem the rooftető is going to collapseösszeomlás on us,
411
1042000
3000
Itt vagyunk, senki se fél, hogy a tető ránk fog szakadni,
17:40
not because we checkedkockás,
412
1045000
3000
nem azért mert ellenőriztük volna,
17:43
but because we're prettyszép sure
413
1048000
2000
hanem mert elég biztosak vagyunk abban,
17:45
the buildingépület codeskódok here are good.
414
1050000
3000
hogy az építési szabályok megfelelőek itt.
17:48
It's a modelmodell we just acceptelfogad
415
1053000
2000
Ez egy modell, amit simán elfogadunk
17:50
prettyszép much by faithhit.
416
1055000
2000
nagyjából hit alapján.
17:52
And that's okay.
417
1057000
3000
És ez rendben van.
17:57
Now, what we want
418
1062000
2000
Nos, amit akarunk az az,
17:59
is people to get familiarismerős enoughelég
419
1064000
2000
hogy az emberek elég jártasak legyenek
18:01
with better modelsmodellek --
420
1066000
2000
a megfelelőbb modellekben --
18:03
have it reflectedtükrözi in theirazok feelingsérzések --
421
1068000
2000
ez jelenjen meg az érzéseikben --
18:05
to allowlehetővé teszi them to make securityBiztonság trade-offskompromisszumokat.
422
1070000
4000
hogy meg tudják hozni a biztonsági döntéseiket.
18:09
Now when these go out of whackütés,
423
1074000
2000
Amikor ezek nem működnek,
18:11
you have two optionslehetőségek.
424
1076000
2000
két lehetőségünk van.
18:13
One, you can fixerősít people'semberek feelingsérzések,
425
1078000
2000
Első, megjavíthatjuk az emberek érzéseit,
18:15
directlyközvetlenül appealfellebbezés to feelingsérzések.
426
1080000
2000
egyenesen az érzésekhez fordulhatunk.
18:17
It's manipulationmanipuláció, but it can work.
427
1082000
3000
Ez manipuláció, de működhet.
18:20
The secondmásodik, more honestbecsületes way
428
1085000
2000
A második, becsületesebb út,
18:22
is to actuallytulajdonképpen fixerősít the modelmodell.
429
1087000
3000
a modell megjavítása.
18:26
ChangeVáltozás happensmegtörténik slowlylassan.
430
1091000
2000
A változás lassan történik.
18:28
The smokingdohányzó debatevita tookvett 40 yearsévek,
431
1093000
3000
A dohányzás vita 40 évet tartott,
18:31
and that was an easykönnyen one.
432
1096000
3000
és az egy könnyű eset volt.
18:34
Some of this stuffdolog is hardkemény.
433
1099000
2000
Egyes dolgok nehezek.
18:36
I mean really thoughbár,
434
1101000
2000
Vagyis nagyon nehezek,
18:38
informationinformáció seemsÚgy tűnik, like our bestlegjobb hoperemény.
435
1103000
2000
az információ tűnik a legjobb reményünknek.
18:40
And I liedhazudott.
436
1105000
2000
És hazudtam.
18:42
RememberNe feledje I said feelingérzés, modelmodell, realityvalóság;
437
1107000
2000
Emlékezenk, amikor azt mondtam: érzés, modell, valóság.
18:44
I said realityvalóság doesn't changeváltozás. It actuallytulajdonképpen does.
438
1109000
3000
Azt mondtam a valóság nem változik. De igen, változik.
18:47
We liveélő in a technologicaltechnikai worldvilág;
439
1112000
2000
Egy technológiai világban élünk,
18:49
realityvalóság changesváltoztatások all the time.
440
1114000
3000
a valóság állandóan változik.
18:52
So we mightesetleg have -- for the first time in our speciesfaj --
441
1117000
3000
És talán -- fajunk esetében először -- az történik, hogy
18:55
feelingérzés chaseskerget modelmodell, modelmodell chaseskerget realityvalóság, reality'sReality movingmozgó --
442
1120000
3000
az érzés üldözi a modellt, a modell üldözi a valóságot, a valóság mozog --
18:58
they mightesetleg never catchfogás up.
443
1123000
3000
talán soha nem érik egymást utol.
19:02
We don't know.
444
1127000
2000
Nem tudjuk.
19:04
But in the long-termhosszútávú,
445
1129000
2000
De hosszútávon,
19:06
bothmindkét feelingérzés and realityvalóság are importantfontos.
446
1131000
3000
mind az érzés, mind a valóság fontosak.
19:09
And I want to closeBezárás with two quickgyors storiestörténetek to illustrateszemléltet this.
447
1134000
3000
És befejezésül két rövid történettel fogom ezt ábrázolni.
19:12
1982 -- I don't know if people will rememberemlékezik this --
448
1137000
2000
1982 -- nem tudom, hogy az emberek emlékni fognak erre --
19:14
there was a shortrövid epidemicjárvány
449
1139000
3000
akkor volt egy rövid Tylenol
19:17
of TylenolTylenol poisoningsmérgezések in the UnitedEgyesült StatesÁllamok.
450
1142000
2000
mérgezési járvány az USA-ban.
19:19
It's a horrificrettenetes storysztori. SomeoneValaki tookvett a bottleüveg of TylenolTylenol,
451
1144000
3000
Egy borzasztó történet. Valaki fogott egy Tylenol-os üveget,
19:22
put poisonméreg in it, closedzárva it up, put it back on the shelfpolc.
452
1147000
3000
mérget tett bele, lezárta, visszatette a polcra.
19:25
SomeoneValaki elsemás boughtvásárolt it and diedmeghalt.
453
1150000
2000
Valaki más megvette és meghalt.
19:27
This terrifiedrémült people.
454
1152000
2000
Ez megrémísztette az embereket.
19:29
There were a couplepárosít of copycatcopycat attackstámadások.
455
1154000
2000
Volt egy pár másolós támadás is.
19:31
There wasn'tnem volt any realigazi riskkockázat, but people were scaredmegrémült.
456
1156000
3000
Nem volt igazi rizikó, de az emberek meg voltak rémülve.
19:34
And this is how
457
1159000
2000
És így jött létre a biztonsági
19:36
the tamper-proofhamisít-próba drugdrog industryipar was inventedfeltalált.
458
1161000
2000
kupakkal lezárt gyógyszerek iparága.
19:38
Those tamper-proofhamisít-próba capssapkák, that camejött from this.
459
1163000
2000
Azok a biztonsági kupakok ebből származnak.
19:40
It's completeteljes securityBiztonság theaterszínház.
460
1165000
2000
Ez egy teljes biztonsági előadás.
19:42
As a homeworkházi feladat assignmentfeladat, think of 10 waysmódokon to get around it.
461
1167000
2000
És házi feladatnak gondoljanak ki 10 módot ennek megkerülésére.
19:44
I'll give you one, a syringefecskendő.
462
1169000
3000
Egyet megadok: a fecskendő.
19:47
But it madekészült people feel better.
463
1172000
3000
De az emberek jobban érezték magukat tőle.
19:50
It madekészült theirazok feelingérzés of securityBiztonság
464
1175000
2000
A biztonság érzésüket jobban
19:52
more matchmérkőzés the realityvalóság.
465
1177000
2000
közelítette a valósághoz.
19:54
Last storysztori, a fewkevés yearsévek agoezelőtt, a friendbarát of mineenyém gaveadott birthszületés.
466
1179000
3000
Utolsó történet, egy pár éve, egy barátnőm szült.
19:57
I visitlátogatás her in the hospitalkórház.
467
1182000
2000
Meglátogattam a kórházban.
19:59
It turnsmenetek out when a baby'sbaba bornszületett now,
468
1184000
2000
Kiderült, hogy most amikor egy csecsemő születik,
20:01
they put an RFIDRFID braceletkarkötő on the babybaba,
469
1186000
2000
tesznek egy RFID-es karkötőt a csecsemőre [RFID = rádiófrekvenciás azonosító]
20:03
put a correspondingmegfelelő one on the motheranya,
470
1188000
2000
a párját meg az anyára teszik,
20:05
so if anyonebárki other than the motheranya takes the babybaba out of the maternityanyaság wardkórterem,
471
1190000
2000
tehát ha bárki más az anyán kivül kivinné a csecsemőt a szülészetről,
20:07
an alarmriasztás goesmegy off.
472
1192000
2000
megszólal a riasztó.
20:09
I said, "Well, that's kindkedves of neattiszta.
473
1194000
2000
Azt mondtam: "Nos, ez elegáns.
20:11
I wondercsoda how rampantféktelen babybaba snatchingkikapta is
474
1196000
2000
Kiváncsi vagyok mennyire burjánzó
20:13
out of hospitalskórházakban."
475
1198000
2000
a csecsemők rablása a kórházakból."
20:15
I go home, I look it up.
476
1200000
2000
Haza mentem, rákerestem.
20:17
It basicallyalapvetően never happensmegtörténik.
477
1202000
2000
Tulajdonképpen, soha nem történik ilyen.
20:19
But if you think about it,
478
1204000
2000
De, ha belegondolnak,
20:21
if you are a hospitalkórház,
479
1206000
2000
ha ön egy kórház volna,
20:23
and you need to take a babybaba away from its motheranya,
480
1208000
2000
és el kellene vegye a csecsemőt az anyától,
20:25
out of the roomszoba to runfuss some teststesztek,
481
1210000
2000
ki a szobából, valamilyen vizsgálatok miatt,
20:27
you better have some good securityBiztonság theaterszínház,
482
1212000
2000
hát legyen valamilyen jó biztonsági előadása,
20:29
or she's going to ripNyugodj békében your armkar off.
483
1214000
2000
vagy máskülönben az anya letépi a karját.
20:31
(LaughterNevetés)
484
1216000
2000
(Nevetés)
20:33
So it's importantfontos for us,
485
1218000
2000
Tehát fontos számunkra,
20:35
those of us who designtervezés securityBiztonság,
486
1220000
2000
akik a biztonságot tervezik,
20:37
who look at securityBiztonság policyirányelv,
487
1222000
3000
akik a biztonsági szabályokat hozzák,
20:40
or even look at publicnyilvános policyirányelv
488
1225000
2000
vagy akár a közpolitikát úgy módosítják,
20:42
in waysmódokon that affectérint securityBiztonság.
489
1227000
2000
hogy érinti a biztonságot.
20:44
It's not just realityvalóság; it's feelingérzés and realityvalóság.
490
1229000
3000
Nem csak valóság, hanem érzés és valóság.
20:47
What's importantfontos
491
1232000
2000
Ami fontos,
20:49
is that they be about the sameazonos.
492
1234000
2000
hogy ezek körülbelül egyformák legyenek.
20:51
It's importantfontos that, if our feelingsérzések matchmérkőzés realityvalóság,
493
1236000
2000
Fontos, hogy ha érzésünk megfelel a valóságnak,
20:53
we make better securityBiztonság trade-offskompromisszumokat.
494
1238000
2000
akkor jobb biztonsági döntéseket hozunk.
20:55
Thank you.
495
1240000
2000
Köszönöm.
20:57
(ApplauseTaps)
496
1242000
2000
(Taps)
Translated by Laszlo Kereszturi
Reviewed by Sara Heltai

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com