ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Bruce Schneier: De illusie van veiligheid

Filmed:
958,315 views

Het gevoel van veiligheid en de daadwerkelijke veiligheid komen niet altijd overeen, zegt computerveiligheidsexpert Bruce Schneier. Bij TEDxPSU legt hij uit waarom we miljarden uitgeven aan risicoverhalen uit het nieuws, zoals het 'veiligheidstheater' dat zich afspeelt bij uw lokale vliegveld, terwijl we waarschijnlijkere risico's negeren -- en hoe we dit patroon kunnen doorbreken.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securityveiligheid is two differentverschillend things:
0
0
2000
Veiligheid bestaat uit twee dingen:
00:17
it's a feelinggevoel, and it's a realityrealiteit.
1
2000
2000
Je gevoel en de realiteit.
00:19
And they're differentverschillend.
2
4000
2000
En deze zijn verschillend.
00:21
You could feel securebeveiligen
3
6000
2000
Je kan je veilig voelen
00:23
even if you're not.
4
8000
2000
als je dit niet bent.
00:25
And you can be securebeveiligen
5
10000
2000
En je kan veilig zijn
00:27
even if you don't feel it.
6
12000
2000
maar je niet zo voelen.
00:29
Really, we have two separatescheiden conceptsconcepten
7
14000
2000
Echt, we hebben twee verschillende concepten
00:31
mappedtoegewezen ontonaar the samedezelfde wordwoord.
8
16000
2000
en slechts één woord.
00:33
And what I want to do in this talk
9
18000
2000
En wat ik in dit gesprek wil doen
00:35
is to splitspleet them apartdeel --
10
20000
2000
is deze twee concepten splitsen --
00:37
figuringuitzoeken out when they divergeafwijken
11
22000
2000
Ontdekken wanneer ze niet samengaan
00:39
and how they convergeconvergeren.
12
24000
2000
en hoe ze samenkomen.
00:41
And languagetaal is actuallywerkelijk a problemprobleem here.
13
26000
2000
En taal is eigenlijk een probleem hier.
00:43
There aren'tzijn niet a lot of good wordstekst
14
28000
2000
Er zijn niet veel goede woorden
00:45
for the conceptsconcepten we're going to talk about.
15
30000
3000
voor de concepten waar we over gaan praten.
00:48
So if you look at securityveiligheid
16
33000
2000
Dus als je naar veiligheid kijkt
00:50
from economiceconomisch termstermen,
17
35000
2000
vanuit een economisch perspectief,
00:52
it's a trade-offinruil.
18
37000
2000
dan krijg je een afweging.
00:54
EveryElke time you get some securityveiligheid,
19
39000
2000
Elke keer dat je veiligheid krijgt,
00:56
you're always tradinghandel off something.
20
41000
2000
ben je iets aan het opofferen.
00:58
WhetherOf this is a personalpersoonlijk decisionbesluit --
21
43000
2000
Of dit een persoonlijke beslissing is --
01:00
whetherof you're going to installinstalleren a burglarinbreker alarmalarm in your home --
22
45000
2000
wanneer je bijvoorbeeld een alarminstallatie laat aanbrengen thuis --
01:02
or a nationalnationaal decisionbesluit -- where you're going to invadebinnenvallen some foreignbuitenlands countryland --
23
47000
3000
of een nationale beslissing -- of je een ander land gaat binnenvallen --
01:05
you're going to tradehandel off something,
24
50000
2000
je gaat er iets voor opofferen,
01:07
eithereen van beide moneygeld or time, conveniencegemak, capabilitiesmogelijkheden,
25
52000
3000
zoals geld of tijd, comfort, capaciteiten,
01:10
maybe fundamentalfundamenteel libertiesvrijheden.
26
55000
3000
misschien belangrijke vrijheden.
01:13
And the questionvraag to askvragen when you look at a securityveiligheid anything
27
58000
3000
En de vraag die je moet stellen als je naar zo'n veiligheidssituatie kijkt
01:16
is not whetherof this makesmerken us saferveiliger,
28
61000
3000
is niet of je hier veiliger van wordt,
01:19
but whetherof it's worthwaard the trade-offinruil.
29
64000
3000
maar of het het offer wel waard is.
01:22
You've heardgehoord in the pastverleden severalverscheidene yearsjaar,
30
67000
2000
Je hebt in de afgelopen paar jaar wel eens gehoord
01:24
the worldwereld- is saferveiliger because SaddamSaddam HusseinHoessein is not in powermacht.
31
69000
2000
dat de wereld veiliger is omdat Saddam Hoessein niet meer aan de macht is.
01:26
That mightmacht be truewaar, but it's not terriblyvreselijk relevantrelevant.
32
71000
3000
Dat is misschien waar, maar het is niet heel erg relevant.
01:29
The questionvraag is, was it worthwaard it?
33
74000
3000
De vraag is: Was het het waard?
01:32
And you can make your owneigen decisionbesluit,
34
77000
3000
En daar kan je je eigen besluit in nemen,
01:35
and then you'llje zult decidebesluiten whetherof the invasioninvasie was worthwaard it.
35
80000
2000
dan beslis jij of de invasie de moeite waard was.
01:37
That's how you think about securityveiligheid --
36
82000
2000
Dat is hoe je over veiligheid moet denken --
01:39
in termstermen of the trade-offinruil.
37
84000
2000
wat betreft de afweging.
01:41
Now there's oftenvaak no right or wrongfout here.
38
86000
3000
Nu is er vaak geen goed of fout hier.
01:44
Some of us have a burglarinbreker alarmalarm systemsysteem at home,
39
89000
2000
Sommigen onder ons hebben een inbraakalarm thuis,
01:46
and some of us don't.
40
91000
2000
en sommigen niet.
01:48
And it'llhet zal dependafhangen on where we liveleven,
41
93000
2000
En dat hangt af van waar we wonen,
01:50
whetherof we liveleven alonealleen or have a familyfamilie,
42
95000
2000
of we er alleen wonen of met een gezin,
01:52
how much coolkoel stuffspul we have,
43
97000
2000
hoeveel coole spullen we hebben,
01:54
how much we're willinggewillig to acceptaccepteren
44
99000
2000
in hoeverre we het risico
01:56
the riskrisico of theftdiefstal.
45
101000
2000
van diefstal willen accepteren.
01:58
In politicspolitiek alsoook,
46
103000
2000
In de politiek is dat ook zo,
02:00
there are differentverschillend opinionsmeningen.
47
105000
2000
er zijn verschillende meningen.
02:02
A lot of timestijden, these trade-offstrade-offs
48
107000
2000
En heel vaak gaan deze afwegingen
02:04
are about more than just securityveiligheid,
49
109000
2000
om meer dan alleen veiligheid,
02:06
and I think that's really importantbelangrijk.
50
111000
2000
en ik denk dat dat belangrijk is.
02:08
Now people have a naturalnatuurlijk intuitionintuïtie
51
113000
2000
Mensen hebben een natuurlijke intuïtie
02:10
about these trade-offstrade-offs.
52
115000
2000
bij deze afwegingen.
02:12
We make them everyelk day --
53
117000
2000
We doen het iedere dag --
02:14
last night in my hotelhotel roomkamer,
54
119000
2000
vannacht in mijn hotelkamer,
02:16
when I decidedbeslist to double-lockDouble-lock the doordeur-,
55
121000
2000
toen ik besloot de deur dubbel op slot te doen,
02:18
or you in your carauto when you drovedreef here,
56
123000
2000
of toen je met de auto hierheen reed,
02:20
when we go eateten lunchlunch
57
125000
2000
als we gaan lunchen
02:22
and decidebesluiten the food'svoedsel van not poisonvergiftigen and we'llgoed eateten it.
58
127000
3000
en we beslissen dat het voedsel niet giftig is en het opeten.
02:25
We make these trade-offstrade-offs again and again,
59
130000
2000
We maken heel vaak afwegingen
02:27
multiplemeerdere timestijden a day.
60
132000
2000
meerdere keren per dag.
02:29
We oftenvaak won'tzal niet even noticekennisgeving them.
61
134000
2000
We merken het vaak zelfs niet op.
02:31
They're just partdeel of beingwezen alivelevend; we all do it.
62
136000
2000
Het is een onderdeel van ons leven; we doen het allemaal.
02:33
EveryElke speciessoorten does it.
63
138000
3000
Elke diersoort doet het.
02:36
ImagineStel je voor a rabbitkonijn in a fieldveld-, eatingaan het eten grassgras,
64
141000
2000
Stel je een konijn voor dat gras aan het eten is in een veld,
02:38
and the rabbit'sRabbit's going to see a foxvos.
65
143000
3000
en dit konijn ziet een vos.
02:41
That rabbitkonijn will make a securityveiligheid trade-offinruil:
66
146000
2000
Dit konijn zal een veiligheidsoverweging maken:
02:43
"Should I stayverblijf, or should I fleevluchten?"
67
148000
2000
"Moet ik blijven of moet ik vluchten?"
02:45
And if you think about it,
68
150000
2000
En als je erover nadenkt,
02:47
the rabbitskonijnen that are good at makingmaking that trade-offinruil
69
152000
3000
dan zijn de konijnen die hier goed in zijn
02:50
will tendde neiging hebben to liveleven and reproducereproduceren,
70
155000
2000
de konijnen die blijven leven en zich voortplanten.
02:52
and the rabbitskonijnen that are badslecht at it
71
157000
2000
En de konijnen die er niet goed in zijn
02:54
will get eatengegeten or starveverhongeren.
72
159000
2000
zullen opgegeten worden of omkomen van de honger.
02:56
So you'dje zou think
73
161000
2000
Dus je zou denken
02:58
that us, as a successfulgeslaagd speciessoorten on the planetplaneet --
74
163000
3000
dat wij, als een succesvol diersoort op de planeet --
03:01
you, me, everybodyiedereen --
75
166000
2000
jij, ik, iedereen --
03:03
would be really good at makingmaking these trade-offstrade-offs.
76
168000
3000
heel goed zijn in het maken van deze overwegingen.
03:06
YetNog it seemslijkt, again and again,
77
171000
2000
Maar het lijkt er telkens weer op
03:08
that we're hopelesslyhopeloos badslecht at it.
78
173000
3000
dat we er hopeloos slecht in zijn.
03:11
And I think that's a fundamentallyfundamenteel interestinginteressant questionvraag.
79
176000
3000
En ik denk dat dat een hele interessante kwestie is.
03:14
I'll give you the shortkort answerantwoord.
80
179000
2000
Ik leg het even kort uit.
03:16
The answerantwoord is, we respondreageren to the feelinggevoel of securityveiligheid
81
181000
2000
Het is zo, dat we reageren op het gevoel van veiligheid
03:18
and not the realityrealiteit.
82
183000
3000
en niet op de realiteit.
03:21
Now mostmeest of the time, that workswerken.
83
186000
3000
Meestal werkt dat.
03:25
MostDe meeste of the time,
84
190000
2000
Meestal zijn ons gevoel
03:27
feelinggevoel and realityrealiteit are the samedezelfde.
85
192000
3000
en de realiteit hetzelfde.
03:30
CertainlyZeker that's truewaar
86
195000
2000
Dat is zeker waar
03:32
for mostmeest of humanmenselijk prehistoryprehistorie.
87
197000
3000
voor het grootste deel van de menselijke geschiedenis.
03:35
We'veWe hebben developedontwikkelde this abilityvermogen
88
200000
3000
We hebben de eigenschap ontwikkeld
03:38
because it makesmerken evolutionaryevolutionaire sensezin.
89
203000
2000
omdat het, evolutionair gezien, logisch is.
03:40
One way to think of it
90
205000
2000
Een manier om erover na te denken
03:42
is that we're highlyzeer optimizedgeoptimaliseerde
91
207000
2000
is dat we geoptimaliseerd zijn
03:44
for riskrisico decisionsbeslissingen
92
209000
2000
voor risicovolle beslissingen
03:46
that are endemicendemisch to livingleven in smallklein familyfamilie groupsgroepen
93
211000
3000
die heel belangrijk zijn om in kleine groepen te leven
03:49
in the EastEast AfricanAfrikaanse highlandsHooglanden in 100,000 B.C.
94
214000
3000
in de Oost-Afrikaanse hooglanden in het jaar 100.000 voor Christus --
03:52
2010 NewNieuw YorkYork, not so much.
95
217000
3000
niet voor New York anno 2010.
03:56
Now there are severalverscheidene biasesbiases in riskrisico perceptionperceptie.
96
221000
3000
Nu zijn er wat vooroordelen bij het waarnemen van risico's.
03:59
A lot of good experimentsexperimenten in this.
97
224000
2000
Er zijn veel goede experimenten geweest hierover.
04:01
And you can see certainzeker biasesbiases that come up again and again.
98
226000
3000
En er zijn een aantal vooroordelen die telkens weer naar voren komen.
04:04
So I'll give you fourvier.
99
229000
2000
Dus ik zal er vier met jullie delen.
04:06
We tendde neiging hebben to exaggerateoverdrijven spectacularspectaculaire and rarezeldzaam risksrisico's
100
231000
3000
We neigen spectaculaire en zeldzame risico's te overdrijven
04:09
and downplaybagatelliseren commongemeenschappelijk risksrisico's --
101
234000
2000
en de dagelijkse risico's te bagatelliseren --
04:11
so flyingvliegend versusversus drivinghet rijden.
102
236000
3000
bijvoorbeeld vliegen versus autorijden.
04:14
The unknownonbekend is perceivedwaargenomen
103
239000
2000
het onbekende wordt ingeschat
04:16
to be riskiermeer riskier than the familiarvertrouwd.
104
241000
3000
als risicovoller dan het dagelijkse.
04:20
One examplevoorbeeld would be,
105
245000
2000
Een voorbeeld:
04:22
people fearangst kidnappingontvoering by strangersonbekenden
106
247000
3000
Mensen zijn bang om ontvoerd te worden door vreemden
04:25
when the datagegevens supportsondersteunt kidnappingontvoering by relativesfamilieleden is much more commongemeenschappelijk.
107
250000
3000
terwijl volgens de statistieken ontvoering door familieleden veel vaker voorkomt.
04:28
This is for childrenkinderen.
108
253000
2000
Dit geldt voor kinderen.
04:30
ThirdDerde, personifiedgepersonifieerd risksrisico's
109
255000
3000
De derde: Gepersonificeerde risico's
04:33
are perceivedwaargenomen to be greatergroter than anonymousanoniem risksrisico's --
110
258000
3000
worden groter ingeschat dan anonieme risico's --
04:36
so BinBin LadenBeladen is scarierenger because he has a namenaam.
111
261000
3000
dus Bin Laden is enger omdat hij een naam heeft.
04:39
And the fourthvierde
112
264000
2000
En de vierde
04:41
is people underestimateonderschatten risksrisico's
113
266000
2000
is dat mensen risico's onderschatten
04:43
in situationssituaties they do controlcontrole
114
268000
2000
in situaties die ze onder controle hebben
04:45
and overestimateoverschatten them in situationssituaties they don't controlcontrole.
115
270000
4000
en ze overschatten ze in situaties die ze niet onder controle hebben.
04:49
So onceeen keer you take up skydivingparachutespringen or smokingroken,
116
274000
3000
Dus als je begint met skydiven of roken,
04:52
you downplaybagatelliseren the risksrisico's.
117
277000
2000
dan verwaarloos je de risico's.
04:54
If a riskrisico is thruststoot uponop you -- terrorismterrorisme was a good examplevoorbeeld --
118
279000
3000
Als een risico in je schoot wordt geworpen -- terrorisme was een goed voorbeeld --
04:57
you'llje zult overplayoverspelen it because you don't feel like it's in your controlcontrole.
119
282000
3000
dan zul je het groter maken dan het is, omdat je geen controle voelt.
05:02
There are a bunchbos of other of these biasesbiases, these cognitivecognitieve biasesbiases,
120
287000
3000
Er zijn tal van deze vooroordelen, deze cognitieve vooroordelen,
05:05
that affectaantasten our riskrisico decisionsbeslissingen.
121
290000
3000
die onze risico-beslissingen beïnvloeden.
05:08
There's the availabilitybeschikbaarheid heuristicheuristiek,
122
293000
2000
Er is het beschikbaarheidsconcept
05:10
whichwelke basicallyeigenlijk meansmiddelen
123
295000
2000
wat neerkomt op:
05:12
we estimateschatting the probabilitywaarschijnlijkheid of something
124
297000
3000
We schatten de kans van iets in
05:15
by how easygemakkelijk it is to bringbrengen instancesinstanties of it to mindgeest.
125
300000
4000
door na te gaan hoe vaak je van deze specifieke situatie hebt gehoord.
05:19
So you can imaginestel je voor how that workswerken.
126
304000
2000
Dus je kunt je voorstellen hoe dat werkt.
05:21
If you hearhoren a lot about tigertijger attacksaanvallen, there mustmoet be a lot of tigerstijgers around.
127
306000
3000
Als je vaak over tijgeraanvallen hoort, dan zullen er wel veel tijgers in de buurt zijn.
05:24
You don't hearhoren about lionLeeuw attacksaanvallen, there aren'tzijn niet a lot of lionsleeuwen around.
128
309000
3000
Je hoort niemand over leeuwenaanvallen, dus dan zijn er weinig in de buurt.
05:27
This workswerken untiltot you inventuitvinden newspaperskranten.
129
312000
3000
Dit werkte totdat de krant werd uitgevonden.
05:30
Because what newspaperskranten do
130
315000
2000
Want kranten doen het volgende:
05:32
is they repeatherhaling again and again
131
317000
2000
Ze herhalen zeldzame risico's
05:34
rarezeldzaam risksrisico's.
132
319000
2000
opnieuw en opnieuw.
05:36
I tell people, if it's in the newsnieuws, don't worryzorgen about it.
133
321000
2000
Ik vertel de mensen: Als het in het nieuws is, maak je er dan geen zorgen over.
05:38
Because by definitiondefinitie,
134
323000
2000
Want nieuws is per definitie
05:40
newsnieuws is something that almostbijna never happensgebeurt.
135
325000
3000
iets dat bijna nooit gebeurt.
05:43
(LaughterGelach)
136
328000
2000
(Er klinkt gelach)
05:45
When something is so commongemeenschappelijk, it's no longerlanger newsnieuws --
137
330000
3000
Als iets dagelijks voorkomt, is het geen nieuws meer --
05:48
carauto crashesloopt vast, domestichuiselijk violencegeweld --
138
333000
2000
autobotsingen, huiselijk geweld --
05:50
those are the risksrisico's you worryzorgen about.
139
335000
3000
dat zijn de risico's waar je je zorgen om maakt.
05:53
We're alsoook a speciessoorten of storytellersvertellers.
140
338000
2000
Wij mensen houden ook van verhalen vertellen.
05:55
We respondreageren to storiesverhalen more than datagegevens.
141
340000
3000
We reageren eerder op verhalen dan op statistieken.
05:58
And there's some basicbasis- innumeracyinnumeracy going on.
142
343000
2000
En er is een soort van cijfer-onkunde aan de gang.
06:00
I mean, the jokegrap "One, Two, ThreeDrie, ManyVeel" is kindsoort of right.
143
345000
3000
Het grapje "Een, Twee, Drie, Veel' klopt eigenlijk wel.
06:03
We're really good at smallklein numbersgetallen.
144
348000
3000
We zijn heel goed in kleine getallen.
06:06
One mangoMango, two mangoesmango's, threedrie mangoesmango's,
145
351000
2000
Een mango, twee mango's, drie mango's,
06:08
10,000 mangoesmango's, 100,000 mangoesmango's --
146
353000
2000
tienduizend mango's, honderdduizend mango's --
06:10
it's still more mangoesmango's you can eateten before they rotRot.
147
355000
3000
Het zijn er nog steeds meer dan je kunt eten voordat ze gaan rotten.
06:13
So one halfvoor de helft, one quarterkwartaal, one fifthvijfde -- we're good at that.
148
358000
3000
Dus een halve, een kwart, een vijfde -- daar zijn we goed in.
06:16
One in a millionmiljoen, one in a billionmiljard --
149
361000
2000
Een op een miljoen, een op een miljard --
06:18
they're bothbeide almostbijna never.
150
363000
3000
Dat is allebei bijna nooit.
06:21
So we have troublemoeite with the risksrisico's
151
366000
2000
Dus we hebben moeite met risico's
06:23
that aren'tzijn niet very commongemeenschappelijk.
152
368000
2000
die niet vaak voorkomen.
06:25
And what these cognitivecognitieve biasesbiases do
153
370000
2000
En wat deze cognitieve vooroordelen doen
06:27
is they acthandelen as filtersfilters betweentussen us and realityrealiteit.
154
372000
3000
is optreden als filters tussen onszelf en de realiteit.
06:30
And the resultresultaat
155
375000
2000
En het resultaat
06:32
is that feelinggevoel and realityrealiteit get out of whackmeppen,
156
377000
2000
is dat het gevoel en de realiteit op hol slaan,
06:34
they get differentverschillend.
157
379000
3000
ze worden anders.
06:37
Now you eithereen van beide have a feelinggevoel -- you feel more securebeveiligen than you are.
158
382000
3000
Dus ofwel heb je een gevoel -- je voelt je veiliger dan je echt bent.
06:40
There's a falsevals sensezin of securityveiligheid.
159
385000
2000
Er is een onterecht gevoel van veiligheid.
06:42
Or the other way,
160
387000
2000
Ofwel is het andersom,
06:44
and that's a falsevals sensezin of insecurityonzekerheid.
161
389000
2000
en dan is er een onterecht gevoel van onveiligheid.
06:46
I writeschrijven a lot about "securityveiligheid theatertheater,"
162
391000
3000
Ik schrijf veel over "veiligheidstheater",
06:49
whichwelke are productsproducten that make people feel securebeveiligen,
163
394000
3000
dat bestaat uit producten die mensen zich veiliger laten voelen
06:52
but don't actuallywerkelijk do anything.
164
397000
2000
terwijl die producten niet echt iets doen.
06:54
There's no realecht wordwoord for stuffspul that makesmerken us securebeveiligen,
165
399000
2000
Er is niet echt een woord voor dingen die ons veilig maken
06:56
but doesn't make us feel securebeveiligen.
166
401000
2000
maar die ons gevoel van veiligheid niet versterken.
06:58
Maybe it's what the CIA'sVan de CIA supposedvermeend to do for us.
167
403000
3000
Misschien is dat wel de taak van de CIA.
07:03
So back to economicseconomie.
168
408000
2000
Dus, terug naar de economie.
07:05
If economicseconomie, if the marketmarkt, drivesdrives securityveiligheid,
169
410000
4000
Als de economie, de markt, veiligheid bevordert,
07:09
and if people make trade-offstrade-offs
170
414000
2000
en als mensen dingen opofferen en overwegingen maken,
07:11
basedgebaseerde on the feelinggevoel of securityveiligheid,
171
416000
3000
die gebaseerd zijn op het gevoel van veiligheid,
07:14
then the smartslim thing for companiesbedrijven to do
172
419000
2000
dan is het heel slim van de bedrijven
07:16
for the economiceconomisch incentivesprikkels
173
421000
2000
om de economie te stimuleren
07:18
are to make people feel securebeveiligen.
174
423000
3000
als zij de mensen veilig laten voelen.
07:21
And there are two waysmanieren to do this.
175
426000
3000
En er zijn twee manieren om dit te doen.
07:24
One, you can make people actuallywerkelijk securebeveiligen
176
429000
2000
De eerste: je kunt mensen daadwerkelijk veiliger maken
07:26
and hopehoop they noticekennisgeving.
177
431000
2000
en hopen dat het ze opvalt.
07:28
Or two, you can make people just feel securebeveiligen
178
433000
3000
Of de tweede: je kan mensen zich alleen maar veilig laten voelen
07:31
and hopehoop they don't noticekennisgeving.
179
436000
3000
en hopen dat het ze niet opvalt.
07:35
So what makesmerken people noticekennisgeving?
180
440000
3000
Dus wat zorgt ervoor dat het opvalt?
07:38
Well a couplepaar of things:
181
443000
2000
Een aantal dingen:
07:40
understandingbegrip of the securityveiligheid,
182
445000
2000
Begrip van veiligheid,
07:42
of the risksrisico's, the threatsbedreigingen,
183
447000
2000
inzicht in de risico's en gevaren,
07:44
the countermeasurestegenmaatregelen, how they work.
184
449000
3000
begrip van de maatregelen en hoe deze werken.
07:47
But if you know stuffspul,
185
452000
2000
Maar als je deze dingen weet,
07:49
you're more likelywaarschijnlijk to have your feelingsgevoelens matchbij elkaar passen realityrealiteit.
186
454000
3000
dan is de kans groot dat jouw gevoel klopt met de realiteit.
07:52
EnoughGenoeg realecht worldwereld- examplesvoorbeelden helpshelpt.
187
457000
3000
Genoeg voorbeelden uit de echte wereld helpen ook.
07:55
Now we all know the crimemisdrijf ratetarief in our neighborhoodbuurt,
188
460000
3000
We weten allemaal hoeveel criminaliteit er in onze buurten is,
07:58
because we liveleven there, and we get a feelinggevoel about it
189
463000
3000
omdat we er wonen, en we krijgen er een gevoel bij
08:01
that basicallyeigenlijk matcheswedstrijden realityrealiteit.
190
466000
3000
dat ongeveer klopt met de werkelijkheid.
08:04
SecurityVeiligheid theater'sTheater exposedblootgesteld
191
469000
3000
Veiligheidstheater wordt blootgegeven
08:07
when it's obviousduidelijk that it's not workingwerkend properlynaar behoren.
192
472000
3000
als het duidelijk is dat het niet goed werkt.
08:10
Okay, so what makesmerken people not noticekennisgeving?
193
475000
4000
Dus hoe komt het dat mensen dit niet zien?
08:14
Well, a poorarm understandingbegrip.
194
479000
2000
Nou, een gebrek aan begrip.
08:16
If you don't understandbegrijpen the risksrisico's, you don't understandbegrijpen the costskosten,
195
481000
3000
Als je de risico's niet begrijpt, als je de kosten niet begrijpt,
08:19
you're likelywaarschijnlijk to get the trade-offinruil wrongfout,
196
484000
2000
dan overweeg je het waarschijnlijk niet goed.
08:21
and your feelinggevoel doesn't matchbij elkaar passen realityrealiteit.
197
486000
3000
En dan klopt je gevoel niet met de werkelijkheid.
08:24
Not enoughgenoeg examplesvoorbeelden.
198
489000
2000
Niet genoeg voorbeelden.
08:26
There's an inherentinherent problemprobleem
199
491000
2000
Er is een onderliggend probleem
08:28
with lowlaag probabilitywaarschijnlijkheid eventsevents.
200
493000
2000
met onwaarschijnlijke gebeurtenissen.
08:30
If, for examplevoorbeeld,
201
495000
2000
Als, bijvoorbeeld,
08:32
terrorismterrorisme almostbijna never happensgebeurt,
202
497000
2000
terrorisme bijna nooit voorkomt,
08:34
it's really hardhard to judgerechter
203
499000
2000
is het moeilijk om te bepalen
08:36
the efficacywerkzaamheid of counter-terroristcontra terrorist measuresmaatregelen.
204
501000
3000
hoe effectief anti-terrorismemaatregelen zijn.
08:40
This is why you keep sacrificingofferen virginsmaagden,
205
505000
3000
Dit is waarom je maagden blijft offeren,
08:43
and why your unicornEenhoorn defensesafweer are workingwerkend just great.
206
508000
3000
en waarom je eenhoorn-verdediging prima werkt.
08:46
There aren'tzijn niet enoughgenoeg examplesvoorbeelden of failuresmislukkingen.
207
511000
3000
Er zijn niet genoeg voorbeelden dat dit niet werkt.
08:50
AlsoOok, feelingsgevoelens that are cloudingvertroebelt the issueskwesties --
208
515000
3000
Daarnaast, gevoelens die de zaken verhullen --
08:53
the cognitivecognitieve biasesbiases I talkedgesproken about earliervroeger,
209
518000
2000
de cognitieve vooroordelen waar ik het over had,
08:55
fearsangsten, folkFolk beliefsovertuigingen,
210
520000
3000
angsten, volksverhalen --
08:58
basicallyeigenlijk an inadequateonvoldoende modelmodel- of realityrealiteit.
211
523000
3000
zorgen voor een niet-kloppend beeld van de realiteit.
09:02
So let me complicatebemoeilijken things.
212
527000
3000
Nu ga ik de dingen wat moeilijker maken.
09:05
I have feelinggevoel and realityrealiteit.
213
530000
2000
Ik heb gevoel en werkelijkheid.
09:07
I want to addtoevoegen a thirdderde elementelement. I want to addtoevoegen modelmodel-.
214
532000
3000
Ik ga een derde element toevoegen: een model.
09:10
FeelingGevoel and modelmodel- in our headhoofd,
215
535000
2000
De gevoelens en het model in ons hoofd,
09:12
realityrealiteit is the outsidebuiten worldwereld-.
216
537000
2000
de realiteit in de buitenwereld.
09:14
It doesn't changeverandering; it's realecht.
217
539000
3000
Die verandert niet; die is echt.
09:17
So feelinggevoel is basedgebaseerde on our intuitionintuïtie.
218
542000
2000
Ons gevoel is gebaseerd op onze intuïtie.
09:19
ModelModel is basedgebaseerde on reasonreden.
219
544000
2000
Een model is gebaseerd op ratio.
09:21
That's basicallyeigenlijk the differenceverschil.
220
546000
3000
Dat is ongeveer het verschil.
09:24
In a primitiveprimitief and simpleeenvoudig worldwereld-,
221
549000
2000
In een primitieve en simpele wereld
09:26
there's really no reasonreden for a modelmodel-
222
551000
3000
is er niet echt een reden voor een model.
09:29
because feelinggevoel is closedichtbij to realityrealiteit.
223
554000
3000
Omdat het gevoel zo dicht bij de realiteit staat.
09:32
You don't need a modelmodel-.
224
557000
2000
Dan heb je geen model nodig.
09:34
But in a modernmodern and complexcomplex worldwereld-,
225
559000
2000
Maar in een moderne complexe wereld
09:36
you need modelsmodellen
226
561000
2000
heb je modellen nodig
09:38
to understandbegrijpen a lot of the risksrisico's we facegezicht.
227
563000
3000
om een heleboel risico's die we tegenkomen te snappen.
09:42
There's no feelinggevoel about germskiemen.
228
567000
2000
Er is geen gevoel over bacteriën.
09:44
You need a modelmodel- to understandbegrijpen them.
229
569000
3000
Je hebt een model nodig om dit te begrijpen.
09:47
So this modelmodel-
230
572000
2000
Dus dit model
09:49
is an intelligentintelligent representationvertegenwoordiging of realityrealiteit.
231
574000
3000
is een intelligente weergave van de realiteit.
09:52
It's, of courseCursus, limitedbeperkt by sciencewetenschap,
232
577000
3000
Deze is wel beperkt door de huidige wetenschap
09:55
by technologytechnologie.
233
580000
2000
en technologie.
09:57
We couldn'tkon het niet have a germGerm theorytheorie of diseaseziekte
234
582000
3000
We hadden geen bacterie-theorie over ziektes kunnen ontwikkelen
10:00
before we inventeduitgevonden the microscopeMicroscoop to see them.
235
585000
3000
voordat we de microscoop uitvonden om ze te kunnen zien.
10:04
It's limitedbeperkt by our cognitivecognitieve biasesbiases.
236
589000
3000
Het is beperkt door onze cognitieve vooroordelen.
10:07
But it has the abilityvermogen
237
592000
2000
Maar het heeft de mogelijkheid
10:09
to overrideoverschrijven our feelingsgevoelens.
238
594000
2000
om onze gevoelens te onderdrukken.
10:11
Where do we get these modelsmodellen? We get them from othersanderen.
239
596000
3000
Waar krijgen we deze modellen? Van anderen.
10:14
We get them from religiongodsdienst, from culturecultuur,
240
599000
3000
We krijgen ze van religie, cultuur,
10:17
teachersleraren, eldersoudste.
241
602000
2000
leraren, ouderen.
10:19
A couplepaar yearsjaar agogeleden,
242
604000
2000
Een paar jaar geleden
10:21
I was in SouthSouth AfricaAfrika on safariSafari.
243
606000
2000
was ik in Zuid-Afrika op safari.
10:23
The trackertracker I was with grewgroeide up in KrugerKruger NationalNationale ParkPark.
244
608000
3000
De gids die ik had was opgegroeid in 'Kruger National Park'.
10:26
He had some very complexcomplex modelsmodellen of how to surviveoverleven.
245
611000
3000
Hij had wat complexe modellen om mee te overleven.
10:29
And it dependedafhankelijk on if you were attackedaangevallen
246
614000
2000
En het hing er vanaf of je werd aangevallen
10:31
by a lionLeeuw or a leopardLeopard or a rhinoRhino or an elephantolifant --
247
616000
2000
door een leeuw of een luipaard of een neushoorn of een olifant --
10:33
and when you had to runrennen away, and when you couldn'tkon het niet runrennen away, and when you had to climbbeklimmen a treeboom --
248
618000
3000
en wanneer je moest wegrennen, en wanneer je in een boom moest klimmen --
10:36
when you could never climbbeklimmen a treeboom.
249
621000
2000
wanneer je niet in een boom kon klimmen.
10:38
I would have diedging dood in a day,
250
623000
3000
Ik zou geen dag overleven,
10:41
but he was borngeboren there,
251
626000
2000
maar hij was daar geboren,
10:43
and he understoodbegrijpelijk how to surviveoverleven.
252
628000
2000
en hij begreep hoe hij er moest overleven.
10:45
I was borngeboren in NewNieuw YorkYork CityStad.
253
630000
2000
Ik ben geboren in New York City.
10:47
I could have takeningenomen him to NewNieuw YorkYork, and he would have diedging dood in a day.
254
632000
3000
Ik had hem kunnen meenemen naar New York en hij zou geen dag overleven.
10:50
(LaughterGelach)
255
635000
2000
(Er klinkt gelach)
10:52
Because we had differentverschillend modelsmodellen
256
637000
2000
Omdat we verschillende modellen hadden
10:54
basedgebaseerde on our differentverschillend experienceservaringen.
257
639000
3000
gebaseerd op onze verschillende ervaringen.
10:58
ModelsModellen can come from the mediamedia,
258
643000
2000
Modellen kunnen vanuit de media komen,
11:00
from our electedgekozen officialsambtenaren.
259
645000
3000
van onze verkozen ambtenaren.
11:03
Think of modelsmodellen of terrorismterrorisme,
260
648000
3000
Denk aan modellen over terrorisme,
11:06
childkind kidnappingontvoering,
261
651000
3000
ontvoering van kinderen,
11:09
airlinevliegmaatschappij safetyveiligheid, carauto safetyveiligheid.
262
654000
2000
luchtvaartveiligheid, autoveiligheid.
11:11
ModelsModellen can come from industryindustrie.
263
656000
3000
Modellen kunnen uit de industrie komen.
11:14
The two I'm followingvolgend are surveillancetoezicht camerascamera's,
264
659000
2000
De twee die ik volg zijn beveiligingscamera's,
11:16
IDID cardskaarten,
265
661000
2000
Identiteitskaarten,
11:18
quiteheel a lot of our computercomputer securityveiligheid modelsmodellen come from there.
266
663000
3000
een heleboel computerveiligheidsmodellen komen daar vandaan.
11:21
A lot of modelsmodellen come from sciencewetenschap.
267
666000
3000
Een heleboel modellen komen uit de wetenschap.
11:24
HealthGezondheid modelsmodellen are a great examplevoorbeeld.
268
669000
2000
Een goed voorbeeld zijn de gezondheidsmodellen.
11:26
Think of cancerkanker, of birdvogel flugriep, swinevarkens flugriep, SARSSARS.
269
671000
3000
Denk aan kanker, vogelgriep, varkensgriep, SARS.
11:29
All of our feelingsgevoelens of securityveiligheid
270
674000
3000
Al onze gevoelens van veiligheid
11:32
about those diseasesziekten
271
677000
2000
over deze ziektes
11:34
come from modelsmodellen
272
679000
2000
komen van modellen
11:36
givengegeven to us, really, by sciencewetenschap filteredgefilterd throughdoor the mediamedia.
273
681000
3000
die ons zijn gegeven door de wetenschap, gefilterd door de media.
11:40
So modelsmodellen can changeverandering.
274
685000
3000
Dus modellen kunnen veranderen.
11:43
ModelsModellen are not staticstatische.
275
688000
2000
Modellen staan niet stil.
11:45
As we becomeworden more comfortablecomfortabel in our environmentsomgevingen,
276
690000
3000
Als we ons zekerder voelen in onze omgevingen,
11:48
our modelmodel- can moveverhuizing closerdichterbij to our feelingsgevoelens.
277
693000
4000
kan ons model dichter bij ons gevoel komen te staan.
11:53
So an examplevoorbeeld mightmacht be,
278
698000
2000
Een voorbeeld zou kunnen zijn
11:55
if you go back 100 yearsjaar agogeleden
279
700000
2000
dat honderd jaar geleden
11:57
when electricityelektriciteit was first becomingworden commongemeenschappelijk,
280
702000
3000
toen elektriciteit alledaags werd,
12:00
there were a lot of fearsangsten about it.
281
705000
2000
er heel veel angst voor was.
12:02
I mean, there were people who were afraidbang to pushDuwen doorbellsdeurbellen,
282
707000
2000
Ik bedoel, er waren mensen bang om de deurbel te gebruiken,
12:04
because there was electricityelektriciteit in there, and that was dangerousgevaarlijk.
283
709000
3000
omdat er elektriciteit in zat en dat was gevaarlijk.
12:07
For us, we're very facilefacile around electricityelektriciteit.
284
712000
3000
Wij zijn op ons gemak rond elektriciteit.
12:10
We changeverandering lightlicht bulbsbollen
285
715000
2000
We vervangen gloeilampen
12:12
withoutzonder even thinkinghet denken about it.
286
717000
2000
zonder erbij na te denken.
12:14
Our modelmodel- of securityveiligheid around electricityelektriciteit
287
719000
4000
Onze veiligheidsmodellen met betrekking tot elektriciteit
12:18
is something we were borngeboren into.
288
723000
3000
is iets waar we mee geboren zijn.
12:21
It hasn'theeft niet changedveranderd as we were growinggroeiend up.
289
726000
3000
Het is niet veranderd terwijl wij opgroeiden.
12:24
And we're good at it.
290
729000
3000
En we zijn er goed in.
12:27
Or think of the risksrisico's
291
732000
2000
Of denk aan de risico's
12:29
on the InternetInternet acrossaan de overkant generationsgeneraties --
292
734000
2000
op het internet door de generaties heen --
12:31
how your parentsouders approachnadering InternetInternet securityveiligheid,
293
736000
2000
hoe ouders omgaan met veilig internetten,
12:33
versusversus how you do,
294
738000
2000
vergeleken met hoe jij dat doet,
12:35
versusversus how our kidskinderen will.
295
740000
3000
vergeleken met hoe onze kinderen dat zullen doen.
12:38
ModelsModellen eventuallytenslotte fadevervagen into the backgroundachtergrond.
296
743000
3000
Modellen komen uiteindelijk op de achtergrond te staan.
12:42
IntuitiveIntuïtieve is just anothereen ander wordwoord for familiarvertrouwd.
297
747000
3000
Intuïtief is gewoon een ander woord voor vertrouwd.
12:45
So as your modelmodel- is closedichtbij to realityrealiteit,
298
750000
2000
Dus als je model dichtbij de realiteit staat
12:47
and it convergesconvergeert with feelingsgevoelens,
299
752000
2000
en het samenkomt met je gevoel,
12:49
you oftenvaak don't know it's there.
300
754000
3000
dan weet je vaak niet dat het er is.
12:52
So a niceleuk examplevoorbeeld of this
301
757000
2000
Een goed voorbeeld hiervan
12:54
camekwam from last yearjaar and swinevarkens flugriep.
302
759000
3000
kwam afgelopen jaar met de varkensgriep.
12:57
When swinevarkens flugriep first appearedverschenen,
303
762000
2000
Toen de varkensgriep eerst de kop opstak
12:59
the initialeerste newsnieuws causedveroorzaakt a lot of overreactionoverreactie.
304
764000
4000
veroorzaakte het eerste bericht veel overdreven reacties.
13:03
Now it had a namenaam,
305
768000
2000
Het had nu een naam,
13:05
whichwelke madegemaakt it scarierenger than the regularregelmatig flugriep,
306
770000
2000
die het enger maakte dan de gewone griep,
13:07
even thoughhoewel it was more deadlydodelijk.
307
772000
2000
terwijl deze wel dodelijker was.
13:09
And people thought doctorsartsen should be ablein staat to dealtransactie with it.
308
774000
4000
En de mensen dachten dat de dokters wel wisten wat ze ermee aanmoesten.
13:13
So there was that feelinggevoel of lackgebrek of controlcontrole.
309
778000
2000
Dus het gevoel van gebrek aan controle was er ook.
13:15
And those two things
310
780000
2000
En deze twee dingen
13:17
madegemaakt the riskrisico more than it was.
311
782000
2000
vergrootten de risico's meer dan nodig was.
13:19
As the noveltynieuwigheid woredroeg off, the monthsmaanden wentgegaan by,
312
784000
3000
Terwijl het nieuwe er af raakte en de maanden voorbij gingen
13:22
there was some amountbedrag of tolerancetolerantie,
313
787000
2000
was er een bepaalde mate van tolerantie,
13:24
people got used to it.
314
789000
2000
de mensen raakten eraan gewend.
13:26
There was no newnieuwe datagegevens, but there was lessminder fearangst.
315
791000
3000
Er waren geen nieuwe gegevens, maar er was minder angst.
13:29
By autumnherfst,
316
794000
2000
Tegen de herfst
13:31
people thought
317
796000
2000
dachten de mensen
13:33
the doctorsartsen should have solvedopgelost this alreadynu al.
318
798000
2000
dat de dokters het al opgelost zouden moeten hebben.
13:35
And there's kindsoort of a bifurcationsplitsing --
319
800000
2000
En er was een soort van tweestrijd --
13:37
people had to chooseKiezen
320
802000
2000
mensen moesten kiezen
13:39
betweentussen fearangst and acceptanceaanvaarding --
321
804000
4000
tussen angst en acceptatie --
13:43
actuallywerkelijk fearangst and indifferenceonverschilligheid --
322
808000
2000
eigenlijk tussen angst en onverschilligheid --
13:45
they kindsoort of chosekoos suspicionverdenking.
323
810000
3000
en ze kozen zo ongeveer voor achterdocht.
13:48
And when the vaccinevaccin appearedverschenen last winterwinter,
324
813000
3000
En toen afgelopen winter het vaccin verscheen
13:51
there were a lot of people -- a surprisingverrassend numberaantal --
325
816000
3000
was er een grote groep mensen - een verrassend groot aantal -
13:54
who refusedgeweigerd to get it --
326
819000
3000
die het vaccin weigerden.
13:58
as a niceleuk examplevoorbeeld
327
823000
2000
Dit is een mooi voorbeeld
14:00
of how people'sPeople's feelingsgevoelens of securityveiligheid changeverandering, how theirhun modelmodel- changesveranderingen,
328
825000
3000
van hoe bij mensen het gevoel van veiligheid kan veranderen, en hun model,
14:03
sortsoort of wildlyWild
329
828000
2000
bijna willekeurig
14:05
with no newnieuwe informationinformatie,
330
830000
2000
zonder nieuwe informatie,
14:07
with no newnieuwe inputinvoer.
331
832000
2000
zonder nieuwe gegevens.
14:09
This kindsoort of thing happensgebeurt a lot.
332
834000
3000
Dit soort dingen gebeuren heel vaak.
14:12
I'm going to give one more complicationcomplicatie.
333
837000
3000
Ik ga het nog een keer moeilijker maken.
14:15
We have feelinggevoel, modelmodel-, realityrealiteit.
334
840000
3000
We hebben gevoelens, model, realiteit.
14:18
I have a very relativisticrelativistische viewuitzicht of securityveiligheid.
335
843000
2000
Ik heb een zeer gerelativeerde visie over veiligheid.
14:20
I think it dependshangt af on the observerwaarnemer.
336
845000
3000
Ik denk dat het van de toeschouwer afhangt.
14:23
And mostmeest securityveiligheid decisionsbeslissingen
337
848000
2000
En bij de meeste veiligheidsbeslissingen
14:25
have a varietyverscheidenheid of people involvedbetrokken.
338
850000
4000
zijn een variëteit aan mensen betrokken.
14:29
And stakeholdersstakeholders
339
854000
2000
En aandeelhouders
14:31
with specificspecifiek trade-offstrade-offs
340
856000
3000
met specifieke overwegingen
14:34
will try to influenceinvloed the decisionbesluit.
341
859000
2000
zullen proberen het besluit te beïnvloeden.
14:36
And I call that theirhun agendaagenda.
342
861000
2000
En ik noem dat hun agenda
14:38
And you see agendaagenda --
343
863000
2000
En deze agenda --
14:40
this is marketingafzet, this is politicspolitiek --
344
865000
3000
deze marketing, deze politiek --
14:43
tryingproberen to convinceovertuigen you to have one modelmodel- versusversus anothereen ander,
345
868000
3000
probeert jou te overtuigen om het ene model te verkiezen boven het andere,
14:46
tryingproberen to convinceovertuigen you to ignorenegeren a modelmodel-
346
871000
2000
probeert jou te overtuigen om een model te negeren
14:48
and trustvertrouwen your feelingsgevoelens,
347
873000
3000
en op je gevoel af te gaan,
14:51
marginalizingmarginaliseren people with modelsmodellen you don't like.
348
876000
3000
uitsluiten van mensen met modellen die je niet leuk vindt.
14:54
This is not uncommonongewoon.
349
879000
3000
Dit komt veel voor.
14:57
An examplevoorbeeld, a great examplevoorbeeld, is the riskrisico of smokingroken.
350
882000
3000
Een voorbeeld, een heel goed voorbeeld, is het risico van roken.
15:01
In the historygeschiedenis of the pastverleden 50 yearsjaar, the smokingroken riskrisico
351
886000
3000
In de geschiedenis van de laatste 50 jaar
15:04
showsshows how a modelmodel- changesveranderingen,
352
889000
2000
laat het risico van roken een modelverandering zien,
15:06
and it alsoook showsshows how an industryindustrie fightsgevechten againsttegen
353
891000
3000
en het laat ook zien hoe een industrie vecht
15:09
a modelmodel- it doesn't like.
354
894000
2000
tegen een model dat het niet leuk vindt.
15:11
CompareVergelijk that to the secondhandtweedehands smokerook debatedebat --
355
896000
3000
Vergelijk dat met het debat over meeroken --
15:14
probablywaarschijnlijk about 20 yearsjaar behindachter.
356
899000
3000
ongeveer twintig jaar geleden.
15:17
Think about seatstoel beltsriemen.
357
902000
2000
Denk aan autogordels.
15:19
When I was a kidkind, no one woredroeg a seatstoel beltriem.
358
904000
2000
Toen ik een kind was, droeg niemand een autogordel.
15:21
NowadaysTegenwoordig, no kidkind will let you driverijden
359
906000
2000
Vandaag de dag zal geen kind je laten rijden
15:23
if you're not wearingvervelend a seatstoel beltriem.
360
908000
2000
als je geen autogordel draagt.
15:26
CompareVergelijk that to the airbagairbag debatedebat --
361
911000
2000
Vergelijk dat met het debat over airbags --
15:28
probablywaarschijnlijk about 30 yearsjaar behindachter.
362
913000
3000
ongeveer dertig jaar geleden.
15:31
All examplesvoorbeelden of modelsmodellen changingveranderen.
363
916000
3000
Allemaal voorbeelden van veranderende modellen.
15:36
What we learnleren is that changingveranderen modelsmodellen is hardhard.
364
921000
3000
Wat we leren is dat het moeilijk is om een model te veranderen.
15:39
ModelsModellen are hardhard to dislodgeverjagen.
365
924000
2000
Modellen zijn lastig los te wrikken.
15:41
If they equalGelijk your feelingsgevoelens,
366
926000
2000
Als ze overeenkomen met je gevoel,
15:43
you don't even know you have a modelmodel-.
367
928000
3000
dan weet je niet eens dat je een model hebt.
15:46
And there's anothereen ander cognitivecognitieve biasvooroordeel
368
931000
2000
En daar is nog een cognitief vooroordeel
15:48
I'll call confirmationbevestiging biasvooroordeel,
369
933000
2000
dat ik het bevestigingsvooroordeel zal noemen,
15:50
where we tendde neiging hebben to acceptaccepteren datagegevens
370
935000
3000
waar we neigen om de gegevens te accepteren
15:53
that confirmsbevestigt our beliefsovertuigingen
371
938000
2000
die onze overtuigingen bevestigen©
15:55
and rejectverwerpen datagegevens that contradictsin tegenspraak is met our beliefsovertuigingen.
372
940000
3000
en de gegevens die onze overtuigingen tegenspreken af te keuren.
15:59
So evidencebewijsmateriaal againsttegen our modelmodel-,
373
944000
2000
Dus bewijs tegen ons model
16:01
we're likelywaarschijnlijk to ignorenegeren, even if it's compellingdwingende.
374
946000
3000
zullen we waarschijnlijk negeren, ook als het overtuigend of aanlokkelijk is.
16:04
It has to get very compellingdwingende before we'llgoed paybetalen attentionaandacht.
375
949000
3000
Het moet heel aanlokkelijk worden voordat we er aandacht aan besteden.
16:08
NewNieuw modelsmodellen that extenduitbreiden long periodsperiodes of time are hardhard.
376
953000
2000
Nieuwe modellen die over langere tijdsperiodes gaan zijn moeilijk.
16:10
GlobalGlobal warmingverwarming is a great examplevoorbeeld.
377
955000
2000
Het opwarmen van de aarde is een prima voorbeeld.
16:12
We're terribleverschrikkelijk
378
957000
2000
We zijn heel erg slecht
16:14
at modelsmodellen that spanspan 80 yearsjaar.
379
959000
2000
in modellen die 80 jaar beslaan.
16:16
We can do to the nextvolgende harvestoogst.
380
961000
2000
We kunnen tot de volgende oogst gaan.
16:18
We can oftenvaak do untiltot our kidskinderen growgroeien up.
381
963000
3000
Tot onze kinderen opgroeien, dat lukt ook nog wel.
16:21
But 80 yearsjaar, we're just not good at.
382
966000
3000
Maar 80 jaar, daar zijn we gewoon niet goed in.
16:24
So it's a very hardhard modelmodel- to acceptaccepteren.
383
969000
3000
Dus het is een moeilijk model om te accepteren.
16:27
We can have bothbeide modelsmodellen in our headhoofd simultaneouslygelijktijdig,
384
972000
4000
We kunnen beide modellen tegelijk in ons hoofd houden,
16:31
right, that kindsoort of problemprobleem
385
976000
3000
of het soort probleem
16:34
where we're holdingbezit bothbeide beliefsovertuigingen togethersamen,
386
979000
3000
waarbij we twee verschillende overtuigingen samenhouden
16:37
right, the cognitivecognitieve dissonancedissonantie.
387
982000
2000
of de cognitieve verstoring.
16:39
EventuallyUiteindelijk,
388
984000
2000
Uiteindelijk
16:41
the newnieuwe modelmodel- will replacevervangen the oldoud modelmodel-.
389
986000
3000
zal het nieuwe model het oude model vervangen.
16:44
StrongStrong feelingsgevoelens can createcreëren a modelmodel-.
390
989000
3000
Sterke gevoelens kunnen een model scheppen.
16:47
SeptemberSeptember 11thth createdaangemaakt a securityveiligheid modelmodel-
391
992000
3000
Elf september heeft een veiligheidsmodel geschept
16:50
in a lot of people'sPeople's headshoofden.
392
995000
2000
in de hoofden van heel veel mensen.
16:52
AlsoOok, personalpersoonlijk experienceservaringen with crimemisdrijf can do it,
393
997000
3000
Persoonlijke ervaringen met criminaliteit kunnen dit ook,
16:55
personalpersoonlijk healthGezondheid scarelaten schrikken,
394
1000000
2000
of enge voorvallen met je eigen gezondheid
16:57
a healthGezondheid scarelaten schrikken in the newsnieuws.
395
1002000
2000
of enge voorvallen met gezondheid in het nieuws.
16:59
You'llU zult see these calledriep flashbulbflashbulb eventsevents
396
1004000
2000
Deze voorvallen worden 'gloeilampvoorvallen' genoemd
17:01
by psychiatristspsychiaters.
397
1006000
2000
door psychiaters.
17:03
They can createcreëren a modelmodel- instantaneouslyogenblikkelijk,
398
1008000
3000
Ze kunnen ter plekke een model scheppen
17:06
because they're very emotiveemotionele.
399
1011000
3000
omdat ze heel erg emotioneel geladen zijn.
17:09
So in the technologicaltechnologisch worldwereld-,
400
1014000
2000
Dus in de technologische wereld
17:11
we don't have experienceervaring
401
1016000
2000
hebben we geen ervaring
17:13
to judgerechter modelsmodellen.
402
1018000
2000
om modellen te beoordelen.
17:15
And we relyvertrouwen on othersanderen. We relyvertrouwen on proxiesproxy 's.
403
1020000
2000
En we vertrouwen op anderen. We vertrouwen op volmachten.
17:17
I mean, this workswerken as long as it's to correctcorrect othersanderen.
404
1022000
4000
Dit werkt zo lang het is om anderen te verbeteren.
17:21
We relyvertrouwen on governmentregering agenciesagentschappen
405
1026000
2000
We vertrouwen op overheidsinstellingen
17:23
to tell us what pharmaceuticalsfarmaceutische producten are safeveilig.
406
1028000
5000
zodat ze ons vertellen welke medicijnen veilig zijn.
17:28
I flewvlogen here yesterdaygisteren.
407
1033000
2000
Ik ben hier gisteren heengevlogen.
17:30
I didn't checkcontroleren the airplanevliegtuig.
408
1035000
2000
Ik heb het vliegtuig niet gecontroleerd.
17:32
I reliedvertrouwd on some other groupgroep
409
1037000
2000
Ik vertrouwde op een andere groep
17:34
to determinebepalen whetherof my planevlak was safeveilig to flyvlieg.
410
1039000
3000
zodat zij zouden beslissen of het veilig was om met mijn vliegtuig te vliegen.
17:37
We're here, nonegeen of us fearangst the roofdak is going to collapseineenstorting on us,
411
1042000
3000
Wij zijn hier en niemand is bang dat het dak op ons neer gaat vallen.
17:40
not because we checkedgecontroleerd,
412
1045000
3000
Niet omdat wij het dak hebben nagekeken,
17:43
but because we're prettymooi sure
413
1048000
2000
maar omdat we er vrij zeker van zijn
17:45
the buildinggebouw codescodes here are good.
414
1050000
3000
dat de voorschriften over gebouwen hier goed zijn.
17:48
It's a modelmodel- we just acceptaccepteren
415
1053000
2000
Dat is een model dat we gewoon accepteren
17:50
prettymooi much by faithgeloof.
416
1055000
2000
op goed vertrouwen.
17:52
And that's okay.
417
1057000
3000
En dat is goed.
17:57
Now, what we want
418
1062000
2000
Wat we willen
17:59
is people to get familiarvertrouwd enoughgenoeg
419
1064000
2000
is dat mensen bekend genoeg raken
18:01
with better modelsmodellen --
420
1066000
2000
met betere modellen --
18:03
have it reflectedweerspiegeld in theirhun feelingsgevoelens --
421
1068000
2000
dat deze doorschijnen in hun gevoel --
18:05
to allowtoestaan them to make securityveiligheid trade-offstrade-offs.
422
1070000
4000
en er zo voor te zorgen dat ze goede veiligheidsafwegingen maken.
18:09
Now when these go out of whackmeppen,
423
1074000
2000
Als deze niet kloppen
18:11
you have two optionsopties.
424
1076000
2000
dan heb je twee opties.
18:13
One, you can fixrepareren people'sPeople's feelingsgevoelens,
425
1078000
2000
Een: Je kan het gevoel van mensen verbeteren
18:15
directlydirect appealin beroep gaan to feelingsgevoelens.
426
1080000
2000
door direct op het gevoel in te spelen.
18:17
It's manipulationmanipulatie, but it can work.
427
1082000
3000
Het is manipulatie, maar het kan werken.
18:20
The secondtweede, more honesteerlijk way
428
1085000
2000
De tweede, eerlijkere manier
18:22
is to actuallywerkelijk fixrepareren the modelmodel-.
429
1087000
3000
is om het model te verbeteren.
18:26
ChangeWijzigen happensgebeurt slowlylangzaam.
430
1091000
2000
Verandering vindt langzaam plaats.
18:28
The smokingroken debatedebat tooknam 40 yearsjaar,
431
1093000
3000
Het rookdebat duurde veertig jaar,
18:31
and that was an easygemakkelijk one.
432
1096000
3000
en dat was een makkelijke.
18:34
Some of this stuffspul is hardhard.
433
1099000
2000
Sommige van deze zaken zijn moeilijk.
18:36
I mean really thoughhoewel,
434
1101000
2000
en dan bedoel ik heel moeilijk,
18:38
informationinformatie seemslijkt like our bestbeste hopehoop.
435
1103000
2000
informatie lijkt onze beste hoop.
18:40
And I liedgelogen.
436
1105000
2000
En ik heb gelogen.
18:42
RememberVergeet niet I said feelinggevoel, modelmodel-, realityrealiteit;
437
1107000
2000
Weet je nog toen ik 'gevoel, model, realiteit' zei?
18:44
I said realityrealiteit doesn't changeverandering. It actuallywerkelijk does.
438
1109000
3000
Ik zei dat de realiteit niet veranderde, maar dat doet het wel.
18:47
We liveleven in a technologicaltechnologisch worldwereld-;
439
1112000
2000
We leven in een technologische wereld;
18:49
realityrealiteit changesveranderingen all the time.
440
1114000
3000
de werkelijkheid verandert voortdurend.
18:52
So we mightmacht have -- for the first time in our speciessoorten --
441
1117000
3000
Dus voor het eerst sinds de mensheid hebben we deze situatie:
18:55
feelinggevoel chasesachtervolgingen modelmodel-, modelmodel- chasesachtervolgingen realityrealiteit, reality'sReality's movingin beweging --
442
1120000
3000
Het gevoel achtervolgt het model, het model achtervolgt de realiteit, maar de realiteit verandert --
18:58
they mightmacht never catchvangst up.
443
1123000
3000
Misschien zullen ze elkaar nooit meer vinden.
19:02
We don't know.
444
1127000
2000
Dat weten we niet.
19:04
But in the long-termlangetermijn,
445
1129000
2000
Maar op de lange termijn
19:06
bothbeide feelinggevoel and realityrealiteit are importantbelangrijk.
446
1131000
3000
zijn het gevoel en de realiteit allebei belangrijk.
19:09
And I want to closedichtbij with two quicksnel storiesverhalen to illustrateillustreren this.
447
1134000
3000
En ik wil met twee korte verhaaltjes afsluiten om dit te laten zien.
19:12
1982 -- I don't know if people will rememberonthouden this --
448
1137000
2000
Ik weet niet of mensen dit nog weten, maar in 1982
19:14
there was a shortkort epidemicepidemie
449
1139000
3000
was er een korte epidemie
19:17
of TylenolTylenol poisoningsvergiftigingen in the UnitedVerenigd StatesStaten.
450
1142000
2000
van Tylenol-vergiftigingen in de Verenigde Staten.
19:19
It's a horrificgruwelijk storyverhaal. SomeoneIemand tooknam a bottlefles of TylenolTylenol,
451
1144000
3000
Het is een vreselijk verhaal. Iemand nam een flesje Tylenol,
19:22
put poisonvergiftigen in it, closedGesloten it up, put it back on the shelfplank.
452
1147000
3000
deed er vergif in, sloot het weer, en zette het terug op de plank.
19:25
SomeoneIemand elseanders boughtkocht it and diedging dood.
453
1150000
2000
Iemand anders kocht dit en ging dood.
19:27
This terrifieddoodsbang people.
454
1152000
2000
Dit maakte de mensen doodsbang.
19:29
There were a couplepaar of copycatCopycat attacksaanvallen.
455
1154000
2000
Er waren wat na-aap-aanvallen geweest.
19:31
There wasn'twas niet any realecht riskrisico, but people were scaredbang.
456
1156000
3000
Er was niet echt een risico, maar de mensen waren bang.
19:34
And this is how
457
1159000
2000
En dit is hoe in de medicijnwereld
19:36
the tamper-proofonvervalsbaar drugdrug industryindustrie was inventeduitgevonden.
458
1161000
2000
de anti-knoei-industrie is gestart.
19:38
Those tamper-proofonvervalsbaar capscaps, that camekwam from this.
459
1163000
2000
Die dopjes met sluitzegels kwamen hier vandaan.
19:40
It's completecompleet securityveiligheid theatertheater.
460
1165000
2000
Dit is veiligheidstheater.
19:42
As a homeworkhuiswerk assignmenttoewijzing, think of 10 waysmanieren to get around it.
461
1167000
2000
Als huiswerk wil ik dat jullie 10 manieren bedenken om dit te omzeilen.
19:44
I'll give you one, a syringespuit.
462
1169000
3000
Ik geef er een, een injectienaald.
19:47
But it madegemaakt people feel better.
463
1172000
3000
Maar het zorgt dat de mensen zich beter voelen.
19:50
It madegemaakt theirhun feelinggevoel of securityveiligheid
464
1175000
2000
Het zorgde ervoor dat hun gevoel van veiligheid
19:52
more matchbij elkaar passen the realityrealiteit.
465
1177000
2000
meer in overeenstemming kwam met de realiteit.
19:54
Last storyverhaal, a fewweinig yearsjaar agogeleden, a friendvriend of minede mijne gavegaf birthgeboorte.
466
1179000
3000
Laatste verhaalt, een paar jaar geleden beviel een vriendin van me.
19:57
I visitbezoek her in the hospitalziekenhuis.
467
1182000
2000
Ik ging op visite in het ziekenhuis.
19:59
It turnsbochten out when a baby'sbaby's borngeboren now,
468
1184000
2000
Het blijkt dat als er nu een baby is geboren,
20:01
they put an RFIDRFID braceletarmband on the babybaby,
469
1186000
2000
deze een radiofrequentie-armband omkrijgt,
20:03
put a correspondingovereenkomstig one on the mothermoeder,
470
1188000
2000
en dat de moeder een overeenkomende armband omkrijgt,
20:05
so if anyoneiedereen other than the mothermoeder takes the babybaby out of the maternitymoederschap wardafdeling,
471
1190000
2000
zodat zodra iemand anders dan de moeder de baby uit de kwaamafdeling meeneemt,
20:07
an alarmalarm goesgaat off.
472
1192000
2000
het alarm afgaat.
20:09
I said, "Well, that's kindsoort of neatnetjes.
473
1194000
2000
Ik zei: "Nou, dat is best gaaf.
20:11
I wonderwonder how rampantwelig tierende babybaby snatchingIngrijppunt is
474
1196000
2000
Ik vraag me af hoe vaak het voorkomt
20:13
out of hospitalsziekenhuizen."
475
1198000
2000
dat baby's worden gestolen uit de ziekenhuizen vandaan.
20:15
I go home, I look it up.
476
1200000
2000
Ik ga naar huis, ik zoek het op.
20:17
It basicallyeigenlijk never happensgebeurt.
477
1202000
2000
Het komt vrijwel nooit voor.
20:19
But if you think about it,
478
1204000
2000
Maar als je er over nadenkt,
20:21
if you are a hospitalziekenhuis,
479
1206000
2000
als je in een ziekenhuis bent,
20:23
and you need to take a babybaby away from its mothermoeder,
480
1208000
2000
en je moet de baby van de moeder afnemen
20:25
out of the roomkamer to runrennen some teststesten,
481
1210000
2000
om in een andere kamer wat tests te doen.
20:27
you better have some good securityveiligheid theatertheater,
482
1212000
2000
dan kan je maar beter voor een goed veiligheidstheater zorgen,
20:29
or she's going to ripRust in vrede your armarm off.
483
1214000
2000
want anders rukt ze je arm eraf.
20:31
(LaughterGelach)
484
1216000
2000
(Er klinkt gelach)
20:33
So it's importantbelangrijk for us,
485
1218000
2000
Dus het is belangrijk voor ons,
20:35
those of us who designontwerp securityveiligheid,
486
1220000
2000
voor degenen onder ons die veiligheid ontwerpen,
20:37
who look at securityveiligheid policyhet beleid,
487
1222000
3000
die naar het veiligheidsbeleid kijken,
20:40
or even look at publicopenbaar policyhet beleid
488
1225000
2000
of die kijken naar het openbare beleid,
20:42
in waysmanieren that affectaantasten securityveiligheid.
489
1227000
2000
op manieren die met veiligheid te maken hebben:
20:44
It's not just realityrealiteit; it's feelinggevoel and realityrealiteit.
490
1229000
3000
Het is niet alleen realiteit, het is gevoel en realiteit.
20:47
What's importantbelangrijk
491
1232000
2000
Wat belangrijk is
20:49
is that they be about the samedezelfde.
492
1234000
2000
is dat het over hetzelfde gaat.
20:51
It's importantbelangrijk that, if our feelingsgevoelens matchbij elkaar passen realityrealiteit,
493
1236000
2000
Het is belangrijk dat, als ons gevoel de werkelijkheid reflecteert,
20:53
we make better securityveiligheid trade-offstrade-offs.
494
1238000
2000
we betere veiligheidsafwegingen maken.
20:55
Thank you.
495
1240000
2000
Dank u.
20:57
(ApplauseApplaus)
496
1242000
2000
(Applaus)
Translated by Joyce van der Hoorn
Reviewed by Thomas Rin

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com