ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Bruce Schneier: Die Illusion von Sicherheit.

Filmed:
958,315 views

Das Gefühl der Sicherheit und die Gegebenheit von Sicherheit stimmen nicht immer überein sagt Sicherheitsexperte Bruce Schneier. Während TEDxPSU erklärt er warum wir Milliarden ausgeben für Gefahren, die in Zeitungen beschworen werden, wie das "Sicherheitstheater" welches gerade am lokalen Flughafen stattfindet, während wir wahrscheinlichere Risiken vernachlässigen -- und wie wir dieses Verhaltensmuster brechen können.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securitySicherheit is two differentanders things:
0
0
2000
Es gibt zwei Sicherheiten:
00:17
it's a feelingGefühl, and it's a realityWirklichkeit.
1
2000
2000
Sicherheit als Gefühl und als Realität.
00:19
And they're differentanders.
2
4000
2000
und sie unterscheiden sich.
00:21
You could feel securesichern
3
6000
2000
Sie können sich sicher fühlen
00:23
even if you're not.
4
8000
2000
sogar, wenn sie es nicht sind.
00:25
And you can be securesichern
5
10000
2000
Und sie können sicher sein
00:27
even if you don't feel it.
6
12000
2000
auch wenn sie sich nicht so fühlen.
00:29
Really, we have two separategetrennte conceptsKonzepte
7
14000
2000
Wir haben zwei separate Konzepte
00:31
mappedzugeordnet ontoauf zu the samegleich wordWort.
8
16000
2000
verbunden mit demselben Begriff.
00:33
And what I want to do in this talk
9
18000
2000
Was ich mit diesem Vortrag erreichen möchte
00:35
is to splitTeilt them apartein Teil --
10
20000
2000
ist sie sauber zu trennen --
00:37
figuringaufstellend out when they divergedivergieren
11
22000
2000
aufzuzeigen wo sie voneinander abweichen
00:39
and how they convergekonvergieren.
12
24000
2000
und wo sie sich überschneiden.
00:41
And languageSprache is actuallytatsächlich a problemProblem here.
13
26000
2000
Tatsächlich ist der Begriff Sicherheit ein Problem.
00:43
There aren'tsind nicht a lot of good wordsWörter
14
28000
2000
Es gibt nicht viele gute Bezeichnungen
00:45
for the conceptsKonzepte we're going to talk about.
15
30000
3000
für die Modelle über die wir reden werden.
00:48
So if you look at securitySicherheit
16
33000
2000
Wenn wir Sicherheit
00:50
from economicWirtschaftlich termsBegriffe,
17
35000
2000
aus wirtschaftlicher Sicht betrachten
00:52
it's a trade-offTrade-off.
18
37000
2000
ist es ein Kompromiss.
00:54
EveryJedes time you get some securitySicherheit,
19
39000
2000
Immer wenn sie Sicherheit erhalten
00:56
you're always tradingHandel off something.
20
41000
2000
tauschen sie sie gegen etwas.
00:58
WhetherOb this is a personalpersönlich decisionEntscheidung --
21
43000
2000
Ob dies aus persönlichen Gründen –
01:00
whetherob you're going to installInstallieren a burglarEinbrecher alarmAlarm in your home --
22
45000
2000
ob sie eine Alarmanlage zu Hause installieren –
01:02
or a nationalNational decisionEntscheidung -- where you're going to invadeeinfallen some foreignausländisch countryLand --
23
47000
3000
oder eine nationale Entscheidungen -- ob sie in einem anderen Land intervenieren --
01:05
you're going to tradeHandel off something,
24
50000
2000
sie tauschen etwas ein
01:07
eitherentweder moneyGeld or time, convenienceKomfort, capabilitiesFähigkeiten,
25
52000
3000
sei es Geld oder Zeit, Komfort, Ressourcen
01:10
maybe fundamentalgrundlegend libertiesFreiheiten.
26
55000
3000
vielleicht grundlegende Rechte.
01:13
And the questionFrage to askFragen when you look at a securitySicherheit anything
27
58000
3000
Die Frage bei Betrachtung von Sicherheit ist
01:16
is not whetherob this makesmacht us safersicherer,
28
61000
3000
nicht ob es uns Sicherheit gibt,
01:19
but whetherob it's worthwert the trade-offTrade-off.
29
64000
3000
sonder ob es den Tausch wert ist.
01:22
You've heardgehört in the pastVergangenheit severalmehrere yearsJahre,
30
67000
2000
Sie haben in den letzten Jahren gehört,
01:24
the worldWelt is safersicherer because SaddamSaddam HusseinHussein is not in powerLeistung.
31
69000
2000
dass die Welt sicherer ist, weil Saddam Hussein nicht mehr an der Macht ist.
01:26
That mightMacht be truewahr, but it's not terriblyfürchterlich relevantrelevant.
32
71000
3000
Das mag stimmen ist aber nicht unbedingt relevant.
01:29
The questionFrage is, was it worthwert it?
33
74000
3000
Die Frage ist, ob es den Aufwand wert war?
01:32
And you can make your ownbesitzen decisionEntscheidung,
34
77000
3000
Und sie treffen die Entscheidung,
01:35
and then you'lldu wirst decideentscheiden whetherob the invasionInvasion was worthwert it.
35
80000
2000
ob es die Invasion wert war.
01:37
That's how you think about securitySicherheit --
36
82000
2000
So denken Sie über Sicherheit --
01:39
in termsBegriffe of the trade-offTrade-off.
37
84000
2000
aus wirtschaftlicher Sicht.
01:41
Now there's oftenhäufig no right or wrongfalsch here.
38
86000
3000
Oft gibt es hier kein Richtig oder Falsch
01:44
Some of us have a burglarEinbrecher alarmAlarm systemSystem at home,
39
89000
2000
Einige von uns haben eine Alarmanlage zu Hause
01:46
and some of us don't.
40
91000
2000
andere nicht.
01:48
And it'lles wird dependabhängen on where we liveLeben,
41
93000
2000
Und es hängt davon ab, wo wir leben
01:50
whetherob we liveLeben aloneallein or have a familyFamilie,
42
95000
2000
ob wir alleine leben oder eine Familie haben
01:52
how much coolcool stuffSachen we have,
43
97000
2000
wieviel Kram wir haben
01:54
how much we're willingbereit to acceptakzeptieren
44
99000
2000
wie stark wir bereit sind das Risiko
01:56
the riskRisiko of theftDiebstahl.
45
101000
2000
von Diebstahl in Kauf zu nehmen.
01:58
In politicsPolitik alsoebenfalls,
46
103000
2000
Auch in der Politik
02:00
there are differentanders opinionsMeinungen.
47
105000
2000
gibt es verschiedene Meinungen.
02:02
A lot of timesmal, these trade-offsKompromisse
48
107000
2000
Oft geht es bei diesem Tausch
02:04
are about more than just securitySicherheit,
49
109000
2000
um mehr als um Sicherheit
02:06
and I think that's really importantwichtig.
50
111000
2000
und ich denke, das ist wirklich wichtig.
02:08
Now people have a naturalnatürlich intuitionIntuition
51
113000
2000
Menschen haben einen natürliche Intuition
02:10
about these trade-offsKompromisse.
52
115000
2000
in Bezug auf diese Tauschhandel.
02:12
We make them everyjeden day --
53
117000
2000
Wir treffen sie jeden Tag --
02:14
last night in my hotelHotel roomZimmer,
54
119000
2000
gestern Nacht in meinem Hotelzimmer,
02:16
when I decidedbeschlossen to double-lockDouble-lock the doorTür,
55
121000
2000
als ich entschied die Tür doppelt abzuschließen,
02:18
or you in your carAuto when you drovefuhr here,
56
123000
2000
oder Sie, auf dem Weg hierher in ihrem Auto,
02:20
when we go eatEssen lunchMittagessen
57
125000
2000
wenn wir mittags essen gehen
02:22
and decideentscheiden the food'sFood not poisonGift and we'llGut eatEssen it.
58
127000
3000
und wir entscheiden das Essen ist kein Gift und wir essen es.
02:25
We make these trade-offsKompromisse again and again,
59
130000
2000
Wir machen diesen Tausch immer wieder
02:27
multiplemehrere timesmal a day.
60
132000
2000
viele Male, jeden Tag.
02:29
We oftenhäufig won'tGewohnheit even noticebeachten them.
61
134000
2000
Oft nehmen wir ihn nicht einmal war.
02:31
They're just partTeil of beingSein aliveam Leben; we all do it.
62
136000
2000
Er ist Teil des Lebens; wir alle tun es.
02:33
EveryJedes speciesSpezies does it.
63
138000
3000
Jede Lebensform tut es.
02:36
ImagineStellen Sie sich vor a rabbitKaninchen in a fieldFeld, eatingEssen grassGras,
64
141000
2000
Stellen sie sich ein Kaninchen auf einem Feld vor das Gras isst,
02:38
and the rabbit'sdes Kaninchens going to see a foxFuchs.
65
143000
3000
das Kaninchen sieht einen Fuchs.
02:41
That rabbitKaninchen will make a securitySicherheit trade-offTrade-off:
66
146000
2000
Dieses Kaninchen wird seine Sicherheit abwägen:
02:43
"Should I staybleibe, or should I fleefliehen?"
67
148000
2000
"Sollte ich bleiben oder fliehen?"
02:45
And if you think about it,
68
150000
2000
Und wenn sie darüber nachdenken,
02:47
the rabbitsKaninchen that are good at makingHerstellung that trade-offTrade-off
69
152000
3000
Kaninchen, die gut bei solchen Entscheidungen sind,
02:50
will tendneigen to liveLeben and reproducereproduzieren,
70
155000
2000
neigen dazu, zu Leben und sich fortzupflanzen,
02:52
and the rabbitsKaninchen that are badschlecht at it
71
157000
2000
Kaninchen, die schlecht darin sind
02:54
will get eatengegessen or starveverhungern.
72
159000
2000
werden gegessen werden oder verhungern.
02:56
So you'ddu würdest think
73
161000
2000
Denken Sie, dass wir,
02:58
that us, as a successfulerfolgreich speciesSpezies on the planetPlanet --
74
163000
3000
als erfolgreichste Spezies auf diesen Planeten --
03:01
you, me, everybodyjeder --
75
166000
2000
Sie, ich, alle –
03:03
would be really good at makingHerstellung these trade-offsKompromisse.
76
168000
3000
richtig gut sein sollten im Abwägen dieser Entscheidungen.
03:06
YetNoch it seemsscheint, again and again,
77
171000
2000
Es scheint so, dass wir immer wieder
03:08
that we're hopelesslyhoffnungslos badschlecht at it.
78
173000
3000
hoffnungslos schlecht darin sind.
03:11
And I think that's a fundamentallygrundlegend interestinginteressant questionFrage.
79
176000
3000
Ich denke, dass ist eine grundlegend interessante Frage.
03:14
I'll give you the shortkurz answerAntworten.
80
179000
2000
Ich geben Ihnen die kurze Antwort.
03:16
The answerAntworten is, we respondreagieren to the feelingGefühl of securitySicherheit
81
181000
2000
Die Antwort ist, dass wir auf das Gefühl von Sicherheit reagieren
03:18
and not the realityWirklichkeit.
82
183000
3000
und nicht auf die Realität.
03:21
Now mostdie meisten of the time, that worksWerke.
83
186000
3000
In den meisten Fällen funktioniert dieses Modell.
03:25
MostDie meisten of the time,
84
190000
2000
Meistens
03:27
feelingGefühl and realityWirklichkeit are the samegleich.
85
192000
3000
sind Gefühl und Realität das Gleiche.
03:30
CertainlySicherlich that's truewahr
86
195000
2000
Sicherlich stimmt das
03:32
for mostdie meisten of humanMensch prehistoryVorgeschichte.
87
197000
3000
für den größten Teil der menschlichen Vorgeschichte.
03:35
We'veWir haben developedentwickelt this abilityFähigkeit
88
200000
3000
Wir haben diese Fähigkeit entwickelt,
03:38
because it makesmacht evolutionaryevolutionär senseSinn.
89
203000
2000
weil es im Sinne der Evolution war.
03:40
One way to think of it
90
205000
2000
Eine Sicht ist,
03:42
is that we're highlyhöchst optimizedoptimiert
91
207000
2000
dass wir hochoptimiert sind
03:44
for riskRisiko decisionsEntscheidungen
92
209000
2000
für Gefahrensentscheidungen,
03:46
that are endemicendemisch to livingLeben in smallklein familyFamilie groupsGruppen
93
211000
3000
die örtlich begrenzt auf das Leben in einem Familienverband
03:49
in the EastOsten AfricanAfrikanische highlandsHochland in 100,000 B.C.
94
214000
3000
im ostafrikanischen Hochland im Jahr 100 000 v. Chr. abgestimmt sind.
03:52
2010 NewNeu YorkYork, not so much.
95
217000
3000
2010 in New York nicht so sehr.
03:56
Now there are severalmehrere biasesVorurteile in riskRisiko perceptionWahrnehmung.
96
221000
3000
Es gibt hier mehrere Verzerrungen beim Abschätzen von Gefahren.
03:59
A lot of good experimentsExperimente in this.
97
224000
2000
Es gibt dabei eine Menge gute Experimente.
04:01
And you can see certainsicher biasesVorurteile that come up again and again.
98
226000
3000
Und sie können sehen, dass bestimmte Verzerrungen immer und immer wieder vorkommen.
04:04
So I'll give you fourvier.
99
229000
2000
Ich werde Ihnen vier nennen.
04:06
We tendneigen to exaggerateübertreiben spectacularspektakulär and rareSelten risksRisiken
100
231000
3000
Wir neigen dazu spektakuläre und seltene Gefahren zu übertreiben
04:09
and downplayherunterzuspielen commonverbreitet risksRisiken --
101
234000
2000
und allgemeine Gefahren herunterzuspielen --
04:11
so flyingfliegend versusgegen drivingFahren.
102
236000
3000
Fliegen gegenüber Autofahren.
04:14
The unknownunbekannt is perceivedwahrgenommen
103
239000
2000
Das Unbekannte wird als
04:16
to be riskierriskanter than the familiarfamiliär.
104
241000
3000
gefährlicher wahrgenommen als das Gewohnte.
04:20
One exampleBeispiel would be,
105
245000
2000
Ein Beispiel ist,
04:22
people fearAngst kidnappingEntführung by strangersFremde
106
247000
3000
dass Menschen sich vor der Entführung durch Fremde fürchten
04:25
when the dataDaten supportsunterstützt kidnappingEntführung by relativesVerwandten is much more commonverbreitet.
107
250000
3000
während Daten zeigen, dass eine Entführung durch Verwandte üblicher ist.
04:28
This is for childrenKinder.
108
253000
2000
Das gilt für Kinder.
04:30
ThirdDritte, personifiedpersonifiziert risksRisiken
109
255000
3000
Drittens, personifizierte Gefahren
04:33
are perceivedwahrgenommen to be greatergrößer than anonymousanonym risksRisiken --
110
258000
3000
werden stärker wahrgenommen als anonyme Gefahren --
04:36
so BinBin LadenBeladen is scariergruseliger because he has a nameName.
111
261000
3000
deshalb erschreckt uns Bin Laden mehr, weil er einen Namen hat.
04:39
And the fourthvierte
112
264000
2000
Und viertens
04:41
is people underestimateunterschätzen risksRisiken
113
266000
2000
unterschätzen Menschen Gefahren
04:43
in situationsSituationen they do controlsteuern
114
268000
2000
in Situationen, die Sie kontrollieren
04:45
and overestimateüberschätzen them in situationsSituationen they don't controlsteuern.
115
270000
4000
und überschätzen Sie in Situationen, die sie nicht kontrollieren.
04:49
So onceEinmal you take up skydivingFallschirmspringen or smokingRauchen,
116
274000
3000
Sobald sie anfangen zu rauchen oder skydiven,
04:52
you downplayherunterzuspielen the risksRisiken.
117
277000
2000
spielen sie die Gefahren herunter.
04:54
If a riskRisiko is thrustSchub uponauf you -- terrorismTerrorismus was a good exampleBeispiel --
118
279000
3000
Wenn eine Gefahr Druck auf Sie ausübt -- Terrorismus war ein gutes Beispiel --
04:57
you'lldu wirst overplayÜberspielen it because you don't feel like it's in your controlsteuern.
119
282000
3000
werden Sie übertreiben, weil sie nicht das Gefühl haben, dass es in ihrer Macht liegt.
05:02
There are a bunchBündel of other of these biasesVorurteile, these cognitivekognitiv biasesVorurteile,
120
287000
3000
Es gibt einige andere dieser Verzerrungen, sogenannte kognitive Verzerrungen,
05:05
that affectbeeinflussen our riskRisiko decisionsEntscheidungen.
121
290000
3000
die unsere Gefahrensabwägung beeinträchtigen.
05:08
There's the availabilityVerfügbarkeit heuristicHeuristik,
122
293000
2000
Da ist die Verfügbarkeitsheuristik,
05:10
whichwelche basicallyGrundsätzlich gilt meansmeint
123
295000
2000
was im Grunde bedeutet,
05:12
we estimateschätzen the probabilityWahrscheinlichkeit of something
124
297000
3000
dass wir die Wahrscheinlichkeit von etwas danach abschätzen,
05:15
by how easyeinfach it is to bringbringen instancesInstanzen of it to mindVerstand.
125
300000
4000
wie leicht man sich an ähnliche Beispiele erinnert.
05:19
So you can imaginevorstellen how that worksWerke.
126
304000
2000
Sie können sich also vorstellen, wie das funktioniert.
05:21
If you hearhören a lot about tigerTiger attacksAnschläge, there mustsollen be a lot of tigersTiger around.
127
306000
3000
Wenn sie oft von einer Tigerattacke hören, dann müssen viele Tiger in der Gegend sein.
05:24
You don't hearhören about lionLöwe attacksAnschläge, there aren'tsind nicht a lot of lionsLöwen around.
128
309000
3000
Wenn sie nicht viel über Löwenangriffe hören, dann sind nicht viele Löwen in der Gegend
05:27
This worksWerke untilbis you inventerfinden newspapersZeitungen.
129
312000
3000
Das funktioniert solange bis wir Zeitungen erfinden.
05:30
Because what newspapersZeitungen do
130
315000
2000
Weil Zeitungen
05:32
is they repeatwiederholen again and again
131
317000
2000
immer und immer wieder seltene Gefahren
05:34
rareSelten risksRisiken.
132
319000
2000
besprechen.
05:36
I tell people, if it's in the newsNachrichten, don't worrySorge about it.
133
321000
2000
Ich erzähle Leuten, wenn es in den Nachrichten ist, dann sorge dich nicht darüber.
05:38
Because by definitionDefinition,
134
323000
2000
Weil laut Definition
05:40
newsNachrichten is something that almostfast never happensdas passiert.
135
325000
3000
Nachrichten etwas sind, das fast nie passiert.
05:43
(LaughterLachen)
136
328000
2000
(Gelächter)
05:45
When something is so commonverbreitet, it's no longerlänger newsNachrichten --
137
330000
3000
Wenn etwas so gewöhnlich ist, dass es keine Nachricht mehr ist --
05:48
carAuto crashesstürzt ab, domesticinländisch violenceGewalt --
138
333000
2000
Autounfälle, häusliche Gewalt --
05:50
those are the risksRisiken you worrySorge about.
139
335000
3000
das sind Gefahren über die sie sich Sorgen sollten.
05:53
We're alsoebenfalls a speciesSpezies of storytellersGeschichtenerzähler.
140
338000
2000
Wir sind außerdem eine Spezies der Geschichtenerzähler.
05:55
We respondreagieren to storiesGeschichten more than dataDaten.
141
340000
3000
Wir sprechen auf Geschichten besser an als auf Daten.
05:58
And there's some basicBasic innumeracyZahlenblindheit going on.
142
343000
2000
Und dazu kommt noch etwas von unserer Rechenschwäche.
06:00
I mean, the jokeWitz "One, Two, ThreeDrei, ManyViele" is kindArt of right.
143
345000
3000
Ich meine der Scherz "Eins, Zwei, Drei, ganz viele" ist irgendwo richtig.
06:03
We're really good at smallklein numbersNummern.
144
348000
3000
Wir sind richtig gut mit kleinen Zahlen.
06:06
One mangoMango, two mangoesMangos, threedrei mangoesMangos,
145
351000
2000
Eine Mango, zwei Mangos, drei Mangos,
06:08
10,000 mangoesMangos, 100,000 mangoesMangos --
146
353000
2000
10.000 Mangos, 100.000 Mangos --
06:10
it's still more mangoesMangos you can eatEssen before they rotverrotten.
147
355000
3000
Es sind immer noch mehr Mangos als Sie essen können bevor sie verfaulen.
06:13
So one halfHälfte, one quarterQuartal, one fifthfünfte -- we're good at that.
148
358000
3000
Die Hälfte, ein Viertel, ein Fünftel -- wir sind gut darin.
06:16
One in a millionMillion, one in a billionMilliarde --
149
361000
2000
Ein Millionstel, ein Milliardstel --
06:18
they're bothbeide almostfast never.
150
363000
3000
sie passieren beide so gut wie nie.
06:21
So we have troubleÄrger with the risksRisiken
151
366000
2000
Wir haben also Schwierigkeiten mit Risiken
06:23
that aren'tsind nicht very commonverbreitet.
152
368000
2000
die nicht alltäglich sind.
06:25
And what these cognitivekognitiv biasesVorurteile do
153
370000
2000
Und was diese kognitiven Verzerrungen tun,
06:27
is they actHandlung as filtersFilter betweenzwischen us and realityWirklichkeit.
154
372000
3000
ist dass sie als Filter zwischen uns und der Realität agieren.
06:30
And the resultErgebnis
155
375000
2000
Und das Ergebnis
06:32
is that feelingGefühl and realityWirklichkeit get out of whackSchlag,
156
377000
2000
ist das Gefühl und Realität aus dem Gleichgewicht geraten,
06:34
they get differentanders.
157
379000
3000
sie unterscheiden sich.
06:37
Now you eitherentweder have a feelingGefühl -- you feel more securesichern than you are.
158
382000
3000
Jetzt haben sie entweder ein Gefühl -- Sie fühlen sich sicherer als sie sind.
06:40
There's a falsefalsch senseSinn of securitySicherheit.
159
385000
2000
Da ist ein falsches Empfinden von Sicherheit.
06:42
Or the other way,
160
387000
2000
Oder andersherum,
06:44
and that's a falsefalsch senseSinn of insecurityUnsicherheit.
161
389000
2000
und das ist ein falsches Empfinden von Unsicherheit.
06:46
I writeschreiben a lot about "securitySicherheit theaterTheater,"
162
391000
3000
Ich schreibe viel über das "Sicherheitstheater"
06:49
whichwelche are productsProdukte that make people feel securesichern,
163
394000
3000
was Produkte sind, die den Menschen ein sicheres Gefühl geben,
06:52
but don't actuallytatsächlich do anything.
164
397000
2000
aber genau genommen gar nichts bewirken.
06:54
There's no realecht wordWort for stuffSachen that makesmacht us securesichern,
165
399000
2000
Es gibt kein richtiges Wort für die Dinge, die uns Sicherheit geben,
06:56
but doesn't make us feel securesichern.
166
401000
2000
aber uns nicht Sicherheit fühlen lassen.
06:58
Maybe it's what the CIA'sDer CIA supposedsoll to do for us.
167
403000
3000
Vielleicht ist das was die CIA für uns tun sollte.
07:03
So back to economicsWirtschaft.
168
408000
2000
Zurück zu Wirtschaftswissenschaften.
07:05
If economicsWirtschaft, if the marketMarkt, drivesfährt securitySicherheit,
169
410000
4000
Wenn die Wirtschaft, wenn der Markt Sicherheit antreibt,
07:09
and if people make trade-offsKompromisse
170
414000
2000
und wenn Leute Kompromisse machen
07:11
basedbasierend on the feelingGefühl of securitySicherheit,
171
416000
3000
basierend auf dem Gefühl von Sicherheit,
07:14
then the smartsmart thing for companiesFirmen to do
172
419000
2000
dann ist es geschickt für Firmen
07:16
for the economicWirtschaftlich incentivesAnreize
173
421000
2000
für einen wirtschaftlichen Bonus
07:18
are to make people feel securesichern.
174
423000
3000
Menschen ein sicheres Gefühl zu geben.
07:21
And there are two waysWege to do this.
175
426000
3000
Und es gibt zwei Wege das zu tun.
07:24
One, you can make people actuallytatsächlich securesichern
176
429000
2000
Erstens können sie Leute tatsächlich Sicherheit geben
07:26
and hopeHoffnung they noticebeachten.
177
431000
2000
und hoffen, dass sie es bemerken.
07:28
Or two, you can make people just feel securesichern
178
433000
3000
Oder zweitens, sie geben den Leuten nur ein Gefühl von Sicherheit
07:31
and hopeHoffnung they don't noticebeachten.
179
436000
3000
und hoffen dass sie es nicht bemerken.
07:35
So what makesmacht people noticebeachten?
180
440000
3000
Was nehmen die Leute wahr ?
07:38
Well a couplePaar of things:
181
443000
2000
Nun einige Dinge:
07:40
understandingVerstehen of the securitySicherheit,
182
445000
2000
Verständnis von Sicherheit,
07:42
of the risksRisiken, the threatsBedrohungen,
183
447000
2000
der Risiken, der Gefahren,
07:44
the countermeasuresGegenmaßnahmen, how they work.
184
449000
3000
der Gegenmaßnahmen, wie sie funktionieren.
07:47
But if you know stuffSachen,
185
452000
2000
Je mehr Sie über diese Dinge Bescheid wissen
07:49
you're more likelywahrscheinlich to have your feelingsGefühle matchSpiel realityWirklichkeit.
186
454000
3000
desto wahrscheinlicher ist es, dass Ihre Gefühle mit der Realität übereinstimmen.
07:52
EnoughGenug realecht worldWelt examplesBeispiele helpshilft.
187
457000
3000
Genügend Beispiele aus der realen Welt helfen.
07:55
Now we all know the crimeKriminalität ratePreis in our neighborhoodGegend,
188
460000
3000
Wir alle wissen die Kriminalitätsrate in unserer Nachbarschaft,
07:58
because we liveLeben there, and we get a feelingGefühl about it
189
463000
3000
weil wir dort leben, und wir bekommen ein Gefühl dafür
08:01
that basicallyGrundsätzlich gilt matchesSpiele realityWirklichkeit.
190
466000
3000
das im Grunde der Realität entspricht.
08:04
SecuritySicherheit theater'sdes Theaters exposedausgesetzt
191
469000
3000
Das Sicherheitstheater wird aufgedeckt,
08:07
when it's obviousoffensichtlich that it's not workingArbeiten properlyrichtig.
192
472000
3000
wenn es offensichtlich ist, dass es nicht richtig funktioniert.
08:10
Okay, so what makesmacht people not noticebeachten?
193
475000
4000
Okay, was löst die Wahrnehmung bei den Leuten aus?
08:14
Well, a poorArm understandingVerstehen.
194
479000
2000
Nun, ein unzureichendes Verständnis.
08:16
If you don't understandverstehen the risksRisiken, you don't understandverstehen the costsKosten,
195
481000
3000
Wenn sie die Risiken nicht verstehen, verstehen sie nicht die Kosten,
08:19
you're likelywahrscheinlich to get the trade-offTrade-off wrongfalsch,
196
484000
2000
werden sie wahrscheinlich falsch abwägen
08:21
and your feelingGefühl doesn't matchSpiel realityWirklichkeit.
197
486000
3000
und ihr Gefühl wird nicht mit der Realität übereinstimmen.
08:24
Not enoughgenug examplesBeispiele.
198
489000
2000
Nicht genug der Beispiele.
08:26
There's an inherentinhärent problemProblem
199
491000
2000
Ereignissen geringer Wahrscheinlichkeit
08:28
with lowniedrig probabilityWahrscheinlichkeit eventsVeranstaltungen.
200
493000
2000
haftet ein Problem an:
08:30
If, for exampleBeispiel,
201
495000
2000
wenn zum Beispiel,
08:32
terrorismTerrorismus almostfast never happensdas passiert,
202
497000
2000
Terrorismus fast nie passiert,
08:34
it's really hardhart to judgeRichter
203
499000
2000
ist es wirklich schwierig die Effektivität
08:36
the efficacyWirksamkeit of counter-terroristCounter-terrorist measuresMaßnahmen.
204
501000
3000
von Antiterrormaßnahmen zu beurteilen.
08:40
This is why you keep sacrificingEinbußen bei der virginsJungfrauen,
205
505000
3000
Das ist der Grund warum wir Jungfrauen opfern,
08:43
and why your unicornEinhorn defensesVerteidigungen are workingArbeiten just great.
206
508000
3000
und warum mystische Erklärungen einfach gut funktionieren.
08:46
There aren'tsind nicht enoughgenug examplesBeispiele of failuresAusfälle.
207
511000
3000
Es gibt nicht genug Beispiele für Misserfolge.
08:50
AlsoAuch, feelingsGefühle that are cloudingTrübung the issuesProbleme --
208
515000
3000
Dazu Gefühle, die Tatsachen verschleiern --
08:53
the cognitivekognitiv biasesVorurteile I talkedsprach about earliervorhin,
209
518000
2000
die kognitiven Verzerrungen über die ich vorher gesprochen habe,
08:55
fearsÄngste, folkFolk beliefsÜberzeugungen,
210
520000
3000
Ängste, verbreiteter Glaube
08:58
basicallyGrundsätzlich gilt an inadequateunzureichende modelModell- of realityWirklichkeit.
211
523000
3000
sind im Kern ein unpassendes Modell der Realität.
09:02
So let me complicateerschweren things.
212
527000
3000
Lassen Sie mich die Dinge verkomplizieren.
09:05
I have feelingGefühl and realityWirklichkeit.
213
530000
2000
Ich habe Gefühl und Realität
09:07
I want to addhinzufügen a thirddritte elementElement. I want to addhinzufügen modelModell-.
214
532000
3000
Ich möchte ein drittes Element hinzufügen: Modelle
09:10
FeelingGefühl and modelModell- in our headKopf,
215
535000
2000
Gefühle und Modelle sind in unserem Kopf
09:12
realityWirklichkeit is the outsidedraußen worldWelt.
216
537000
2000
Realität ist die Welt da draußen.
09:14
It doesn't changeVeränderung; it's realecht.
217
539000
3000
Es ändert sich nicht; es ist real.
09:17
So feelingGefühl is basedbasierend on our intuitionIntuition.
218
542000
2000
Gefühle basieren auf unserer Intuition.
09:19
ModelModell is basedbasierend on reasonGrund.
219
544000
2000
Modelle basieren auf Ursachen.
09:21
That's basicallyGrundsätzlich gilt the differenceUnterschied.
220
546000
3000
Das ist grundlegende Unterschied.
09:24
In a primitivePrimitive and simpleeinfach worldWelt,
221
549000
2000
In einer primitiven und einfachen Welt,
09:26
there's really no reasonGrund for a modelModell-
222
551000
3000
gibt es wirklich kein Grund für ein Modell.
09:29
because feelingGefühl is closeschließen to realityWirklichkeit.
223
554000
3000
Weil das Gefühl der Realität so nah ist,
09:32
You don't need a modelModell-.
224
557000
2000
brauchen sie kein Modell.
09:34
But in a modernmodern and complexKomplex worldWelt,
225
559000
2000
Aber in einer modernen und komplexen Welt
09:36
you need modelsModelle
226
561000
2000
brauchen sie Modelle
09:38
to understandverstehen a lot of the risksRisiken we faceGesicht.
227
563000
3000
um die vielen Risiken mit denen wir konfrontiert sind zu verstehen.
09:42
There's no feelingGefühl about germsKeime.
228
567000
2000
Es gibt kein Gefühl für Bakterien.
09:44
You need a modelModell- to understandverstehen them.
229
569000
3000
Sie brauchen ein Modell um sie zu verstehen.
09:47
So this modelModell-
230
572000
2000
Dieses Modell
09:49
is an intelligentintelligent representationDarstellung of realityWirklichkeit.
231
574000
3000
ist eine intelligente Darstellung der Realität.
09:52
It's, of courseKurs, limitedbegrenzt by scienceWissenschaft,
232
577000
3000
Es ist natürlich begrenzt durch Wissenschaft
09:55
by technologyTechnologie.
233
580000
2000
durch Technik.
09:57
We couldn'tkonnte nicht have a germKeim theoryTheorie of diseaseKrankheit
234
582000
3000
Wir konnten keine Theorie der Keime entwickeln
10:00
before we inventederfunden the microscopeMikroskop to see them.
235
585000
3000
bevor wir die Mikroskope erfunden hatten, um sie zu sehen.
10:04
It's limitedbegrenzt by our cognitivekognitiv biasesVorurteile.
236
589000
3000
Es ist begrenzt durch unsere kognitiven Verzerrungen,
10:07
But it has the abilityFähigkeit
237
592000
2000
hat aber die Fähigkeit,
10:09
to overrideaußer Kraft setzen our feelingsGefühle.
238
594000
2000
unsere Gefühle außer Kraft zu setzen.
10:11
Where do we get these modelsModelle? We get them from othersAndere.
239
596000
3000
Woher bekommen wir diese Modelle? Wir bekommen sie von anderen.
10:14
We get them from religionReligion, from cultureKultur,
240
599000
3000
Wir bekommen sie von Religion, Kultur,
10:17
teachersLehrer, eldersÄlteste.
241
602000
2000
Lehrern, Älteren.
10:19
A couplePaar yearsJahre agovor,
242
604000
2000
Vor einigen Jahren
10:21
I was in SouthSüden AfricaAfrika on safariSafari.
243
606000
2000
war ich auf Safari in Südafrika.
10:23
The trackerTracker I was with grewwuchs up in KrugerKruger NationalNationalen ParkPark.
244
608000
3000
Der Fährtenleser mit dem ich dort war, wuchs im Krüger Nationalpark auf.
10:26
He had some very complexKomplex modelsModelle of how to surviveüberleben.
245
611000
3000
Er hatte einige sehr komplizierte Modelle wie man überlebt.
10:29
And it dependedhing on if you were attackedangegriffen
246
614000
2000
Und es hing davon ab ob wir von einem Löwen, Leoparden,
10:31
by a lionLöwe or a leopardLeopard or a rhinoRhino or an elephantElefant --
247
616000
2000
Rhinozeros oder einem Elefanten angegriffen werden --
10:33
and when you had to runLauf away, and when you couldn'tkonnte nicht runLauf away, and when you had to climbsteigen a treeBaum --
248
618000
3000
und wann man weglaufen muss, und wann man auf einen Baum klettern muss --
10:36
when you could never climbsteigen a treeBaum.
249
621000
2000
wann mann niemals auf einen Baum klettern kann.
10:38
I would have diedist verstorben in a day,
250
623000
3000
Ich wäre innerhalb eines Tages gestorben,
10:41
but he was borngeboren there,
251
626000
2000
aber er war dort geboren
10:43
and he understoodverstanden how to surviveüberleben.
252
628000
2000
und verstand sich darauf zu überleben.
10:45
I was borngeboren in NewNeu YorkYork CityStadt.
253
630000
2000
Ich bin in New York City geboren.
10:47
I could have takengenommen him to NewNeu YorkYork, and he would have diedist verstorben in a day.
254
632000
3000
Ich hätte ihn mit nach New York nehmen können und er wäre innerhalb eines Tages gestorben.
10:50
(LaughterLachen)
255
635000
2000
(Gelächter)
10:52
Because we had differentanders modelsModelle
256
637000
2000
Weil wir verschiedene Modelle haben
10:54
basedbasierend on our differentanders experiencesErfahrungen.
257
639000
3000
basierend auf unseren unterschiedlichen Erfahrungen.
10:58
ModelsModelle can come from the mediaMedien,
258
643000
2000
Modelle können aus den Medien kommen,
11:00
from our electedgewählt officialsBeamte.
259
645000
3000
von unseren gewählten Vertretern.
11:03
Think of modelsModelle of terrorismTerrorismus,
260
648000
3000
Denken sie an Modelle über Terrorismus,
11:06
childKind kidnappingEntführung,
261
651000
3000
Kindesentführung
11:09
airlineFluggesellschaft safetySicherheit, carAuto safetySicherheit.
262
654000
2000
Sicherheit im Flugzeug, Sicherheit im Auto.
11:11
ModelsModelle can come from industryIndustrie.
263
656000
3000
Modelle können aus der Industrie kommen.
11:14
The two I'm followinges folgen are surveillanceÜberwachung camerasKameras,
264
659000
2000
Die beiden, die ich verfolge sind Überwachungskameras
11:16
IDID cardsKarten,
265
661000
2000
und Ausweise,
11:18
quiteganz a lot of our computerComputer securitySicherheit modelsModelle come from there.
266
663000
3000
etliche unserer Computersicherheitsmodelle kommen daher.
11:21
A lot of modelsModelle come from scienceWissenschaft.
267
666000
3000
Viele Modelle kommen aus der Wissenschaft.
11:24
HealthGesundheit modelsModelle are a great exampleBeispiel.
268
669000
2000
Gesundheitsmodelle sind ein tolles Beispiel.
11:26
Think of cancerKrebs, of birdVogel fluGrippe, swineSchweinegrippe fluGrippe, SARSSARS.
269
671000
3000
Denken sie an Krebs, Vogelgrippe, Schweinegrippe, SARS.
11:29
All of our feelingsGefühle of securitySicherheit
270
674000
3000
Alle unserer Gefühle von Sicherheit
11:32
about those diseasesKrankheiten
271
677000
2000
über diese Krankheiten
11:34
come from modelsModelle
272
679000
2000
kommen von Modellen
11:36
givengegeben to us, really, by scienceWissenschaft filteredgefiltert throughdurch the mediaMedien.
273
681000
3000
die uns, wirklich, von der Wissenschaft gefiltert durch die Medien gegeben werden.
11:40
So modelsModelle can changeVeränderung.
274
685000
3000
Modelle können sich ändern.
11:43
ModelsModelle are not staticstatische.
275
688000
2000
Modelle sind nicht statisch.
11:45
As we becomewerden more comfortablegemütlich in our environmentsUmgebungen,
276
690000
3000
Je wohler wir uns in einer Umgebung fühlen,
11:48
our modelModell- can moveBewegung closernäher to our feelingsGefühle.
277
693000
4000
desto eher stimmt unser Modell mit unserem Gefühl überein.
11:53
So an exampleBeispiel mightMacht be,
278
698000
2000
Ein Beispiel mag sein,
11:55
if you go back 100 yearsJahre agovor
279
700000
2000
wenn Sie 100 Jahre zurück gehen
11:57
when electricityElektrizität was first becomingWerden commonverbreitet,
280
702000
3000
als Elektrizität allmählich eingeführt wurde,
12:00
there were a lot of fearsÄngste about it.
281
705000
2000
gab es eine Menge Ängste.
12:02
I mean, there were people who were afraidAngst to pushdrücken doorbellsTürklingeln,
282
707000
2000
Ich meine, es gab Leute, die Angst hatten Türklingeln zu drücken,
12:04
because there was electricityElektrizität in there, and that was dangerousgefährlich.
283
709000
3000
weil sie mit Elektrizität betrieben wurden, und die war gefährlich.
12:07
For us, we're very facilefacile around electricityElektrizität.
284
712000
3000
Für uns ist Elektrizität einfach banal.
12:10
We changeVeränderung lightLicht bulbsGlühbirnen
285
715000
2000
Wir wechseln Glühbirnen
12:12
withoutohne even thinkingDenken about it.
286
717000
2000
ohne darüber nachzudenken.
12:14
Our modelModell- of securitySicherheit around electricityElektrizität
287
719000
4000
Unser Modell der Sicherheit um Elektrizität
12:18
is something we were borngeboren into.
288
723000
3000
ist etwas in das wir hineingeboren wurden.
12:21
It hasn'that nicht changedgeändert as we were growingwachsend up.
289
726000
3000
Es hat sich nicht geändert als wir aufwuchsen
12:24
And we're good at it.
290
729000
3000
und wir sind gut darin.
12:27
Or think of the risksRisiken
291
732000
2000
Oder denken sie an die Risiken
12:29
on the InternetInternet acrossüber generationsGenerationen --
292
734000
2000
des Internet über Generationen hinweg --
12:31
how your parentsEltern approachAnsatz InternetInternet securitySicherheit,
293
736000
2000
wie unsere Eltern Sicherheit im Internet herangehen,
12:33
versusgegen how you do,
294
738000
2000
und wie wir das tun,
12:35
versusgegen how our kidsKinder will.
295
740000
3000
oder unsere Kinder es tun werden.
12:38
ModelsModelle eventuallyschließlich fadeverblassen into the backgroundHintergrund.
296
743000
3000
Modelle verschwinden letztendlich in den Hintergrund.
12:42
IntuitiveIntuitive is just anotherein anderer wordWort for familiarfamiliär.
297
747000
3000
Intuitiv ist nur ein anderes Wort für vertraut.
12:45
So as your modelModell- is closeschließen to realityWirklichkeit,
298
750000
2000
Wenn Ihr Modell nah an der Realität ist
12:47
and it convergeskonvergiert with feelingsGefühle,
299
752000
2000
und es mit den Gefühlen verschmilzt,
12:49
you oftenhäufig don't know it's there.
300
754000
3000
wissen sie oft gar nicht dass es da ist.
12:52
So a nicenett exampleBeispiel of this
301
757000
2000
Ein schönes Beispiel dafür
12:54
camekam from last yearJahr and swineSchweinegrippe fluGrippe.
302
759000
3000
gab es letztes Jahr mit der Schweinegrippe.
12:57
When swineSchweinegrippe fluGrippe first appearederschienen,
303
762000
2000
Als die Schweinegrippe zuerst auftrat
12:59
the initialInitiale newsNachrichten causedverursacht a lot of overreactionÜberreaktion.
304
764000
4000
verursachten die ersten Nachrichten eine Menge Überreaktionen.
13:03
Now it had a nameName,
305
768000
2000
Jetzt hatte sie einen Namen
13:05
whichwelche madegemacht it scariergruseliger than the regularregulär fluGrippe,
306
770000
2000
was sie erschreckender machte als die gewöhnliche Grippe,
13:07
even thoughobwohl it was more deadlytötlich.
307
772000
2000
obwohl die mehr Tode auslöste.
13:09
And people thought doctorsÄrzte should be ablefähig to dealDeal with it.
308
774000
4000
Die Leute dachten, dass Ärzte in der Lage sein sollten damit umzugehen.
13:13
So there was that feelingGefühl of lackMangel of controlsteuern.
309
778000
2000
Es gab also ein Gefühl mangelnder Kontrolle.
13:15
And those two things
310
780000
2000
Diese beiden Dinge
13:17
madegemacht the riskRisiko more than it was.
311
782000
2000
ließen das Risiko größer erscheinen als es war.
13:19
As the noveltyNeuheit woretrug off, the monthsMonate wentging by,
312
784000
3000
Als die Neuartigkeit nachließ, die Monate vorbeigingen
13:22
there was some amountMenge of toleranceToleranz,
313
787000
2000
gab es ein Maß an Toleranz
13:24
people got used to it.
314
789000
2000
die Leute hatten sich daran gewöhnt.
13:26
There was no newneu dataDaten, but there was lessWeniger fearAngst.
315
791000
3000
Es gab keine neuen Erkenntnisse, aber weniger Angst.
13:29
By autumnHerbst,
316
794000
2000
Im Herbst
13:31
people thought
317
796000
2000
dachten die Leute
13:33
the doctorsÄrzte should have solvedgelöst this alreadybereits.
318
798000
2000
die Ärzte sollten mittlerweile das Problem gelöst haben.
13:35
And there's kindArt of a bifurcationGabelung --
319
800000
2000
Und es gab eine Art Zweiteilung --
13:37
people had to choosewählen
320
802000
2000
die Leute hatten zu wählen
13:39
betweenzwischen fearAngst and acceptanceAkzeptanz --
321
804000
4000
zwischen Angst und Akzeptanz --
13:43
actuallytatsächlich fearAngst and indifferenceGleichgültigkeit --
322
808000
2000
wirklicher Angst und Desinteresse --
13:45
they kindArt of chosewählte suspicionVerdacht.
323
810000
3000
sie wählten eine Art von Misstrauen.
13:48
And when the vaccineImpfstoff appearederschienen last winterWinter,
324
813000
3000
Als die Impfung letzten Winter verfügbar war,
13:51
there were a lot of people -- a surprisingüberraschend numberNummer --
325
816000
3000
gab es eine Menge Leute -- eine überraschende Anzahl --
13:54
who refusedabgelehnt to get it --
326
819000
3000
die sich weigerten sie zu nehmen. --
13:58
as a nicenett exampleBeispiel
327
823000
2000
ein schönes Beispiel
14:00
of how people'sMenschen feelingsGefühle of securitySicherheit changeVeränderung, how theirihr modelModell- changesÄnderungen,
328
825000
3000
wie das Gefühl der Sicherheit der Leute sich ändert, wie sich ihr Modell ändert,
14:03
sortSortieren of wildlyWild
329
828000
2000
irgendwie chaotisch
14:05
with no newneu informationInformation,
330
830000
2000
ohne neue Information,
14:07
with no newneu inputEingang.
331
832000
2000
ohne neuen Input.
14:09
This kindArt of thing happensdas passiert a lot.
332
834000
3000
So etwas ähnliches passiert häufig.
14:12
I'm going to give one more complicationKomplikation.
333
837000
3000
Ich werde ihnen eine weitere Komplikation zeigen.
14:15
We have feelingGefühl, modelModell-, realityWirklichkeit.
334
840000
3000
Wir haben Gefühl, Modell, Realität.
14:18
I have a very relativisticrelativistische viewAussicht of securitySicherheit.
335
843000
2000
Ich habe eine sehr relativistische Sicht auf Sicherheit.
14:20
I think it dependshängt davon ab on the observerBeobachter.
336
845000
3000
Ich denke es hängt vom Beobachter ab.
14:23
And mostdie meisten securitySicherheit decisionsEntscheidungen
337
848000
2000
Und die meisten Sicherheitsentscheidungen
14:25
have a varietyVielfalt of people involvedbeteiligt.
338
850000
4000
sind eine Vielzahl von Menschen involviert.
14:29
And stakeholdersInteressengruppen
339
854000
2000
Lobbyisten
14:31
with specificspezifisch trade-offsKompromisse
340
856000
3000
mit bestimmten Zielkonflikten
14:34
will try to influenceEinfluss the decisionEntscheidung.
341
859000
2000
werden versuchen die Entscheidung zu beeinflussen.
14:36
And I call that theirihr agendaAgenda.
342
861000
2000
Ich nenne das ihre Agenda.
14:38
And you see agendaAgenda --
343
863000
2000
Agenda, Sie wissen ja --
14:40
this is marketingMarketing, this is politicsPolitik --
344
865000
3000
das ist Marketing, das ist Politik --
14:43
tryingversuchen to convinceüberzeugen you to have one modelModell- versusgegen anotherein anderer,
345
868000
3000
der Versuch, Sie zu überzeugen, ein Modell gegen ein anderes zu stellen,
14:46
tryingversuchen to convinceüberzeugen you to ignoreignorieren a modelModell-
346
871000
2000
der Versuch, sie zu überzeugen, ein Modell zu ignorieren
14:48
and trustVertrauen your feelingsGefühle,
347
873000
3000
und ihren Gefühlen zu vertrauen.
14:51
marginalizingmarginalisiert people with modelsModelle you don't like.
348
876000
3000
Leute mit Modellen, die sie nicht mögen, an den Rand zu drängen.
14:54
This is not uncommonselten.
349
879000
3000
Das ist nicht ungewöhnlich.
14:57
An exampleBeispiel, a great exampleBeispiel, is the riskRisiko of smokingRauchen.
350
882000
3000
Ein Beispiel, ein tolles Beispiel, ist die Gefahr des Rauchens.
15:01
In the historyGeschichte of the pastVergangenheit 50 yearsJahre, the smokingRauchen riskRisiko
351
886000
3000
In der Geschichte der letzten 50 Jahre zeigt die Gefahr des Rauchens,
15:04
showszeigt an how a modelModell- changesÄnderungen,
352
889000
2000
wie sich ein Modell ändert,
15:06
and it alsoebenfalls showszeigt an how an industryIndustrie fightsKämpfe againstgegen
353
891000
3000
und es zeigt wie eine Industrie gegen
15:09
a modelModell- it doesn't like.
354
894000
2000
ein Modell ankämpft, welches sie nicht mögen.
15:11
CompareVergleichen that to the secondhandaus zweiter Hand smokeRauch debateDebatte --
355
896000
3000
Vergleichen Sie dazu die Mitraucherdebatte --
15:14
probablywahrscheinlich about 20 yearsJahre behindhinter.
356
899000
3000
die etwa zwanzig Jahre hinterher hinkt.
15:17
Think about seatSitz beltsGürtel.
357
902000
2000
Denken sie an Sicherheitsgurte.
15:19
When I was a kidKind, no one woretrug a seatSitz beltGürtel.
358
904000
2000
Als ich ein Kind war, trug niemand einen Sicherheitsgurt.
15:21
NowadaysHeute, no kidKind will let you driveFahrt
359
906000
2000
Heutzutage wird kein Kind Sie fahren lassen
15:23
if you're not wearingtragen a seatSitz beltGürtel.
360
908000
2000
wenn sie nicht einen Sicherheitsgurt tragen.
15:26
CompareVergleichen that to the airbagAirbag debateDebatte --
361
911000
2000
Vergleichen Sie dazu die Airbag-Debatte --
15:28
probablywahrscheinlich about 30 yearsJahre behindhinter.
362
913000
3000
die wahrscheinlich 30 Jahre hinten liegt.
15:31
All examplesBeispiele of modelsModelle changingÄndern.
363
916000
3000
Alles Beispiele der Veränderung von Modellen.
15:36
What we learnlernen is that changingÄndern modelsModelle is hardhart.
364
921000
3000
Was wir lernen ist, dass es schwer ist, Modelle zu ändern.
15:39
ModelsModelle are hardhart to dislodgezu verdrängen.
365
924000
2000
Modelle sind schwer abzuschütteln.
15:41
If they equalgleich your feelingsGefühle,
366
926000
2000
Wenn sie Ihren Gefühlen entsprechen,
15:43
you don't even know you have a modelModell-.
367
928000
3000
wissen Sie noch nicht einmal, dass Sie ein Modell haben.
15:46
And there's anotherein anderer cognitivekognitiv biasvorspannen
368
931000
2000
Und es gibt noch eine andere kognitive Verzerrung:
15:48
I'll call confirmationBestätigung biasvorspannen,
369
933000
2000
Ich nenne es Bestätigungsfehler,
15:50
where we tendneigen to acceptakzeptieren dataDaten
370
935000
3000
indem wir dazu tendieren Daten zu akzeptieren
15:53
that confirmsbestätigt our beliefsÜberzeugungen
371
938000
2000
die unseren Glaubensatz bestätigen
15:55
and rejectablehnen dataDaten that contradictswiderspricht our beliefsÜberzeugungen.
372
940000
3000
und Daten abzulehnen die unserem Glaubensatz widersprechen.
15:59
So evidenceBeweise againstgegen our modelModell-,
373
944000
2000
Also werden wir Beweise gegen unser Modell
16:01
we're likelywahrscheinlich to ignoreignorieren, even if it's compellingüberzeugende.
374
946000
3000
wahrscheinlich ignorieren sogar wenn sie zwingend sind.
16:04
It has to get very compellingüberzeugende before we'llGut payZahlen attentionAufmerksamkeit.
375
949000
3000
Es muss schon sehr zwingend sein, ehe wir aufmerksam werden.
16:08
NewNeu modelsModelle that extenderweitern long periodsZeiträume of time are hardhart.
376
953000
2000
Neue Modelle, die über längere Zeiträume reichen sind schwierig.
16:10
GlobalGlobale warmingErwärmen is a great exampleBeispiel.
377
955000
2000
Globale Erwärmung ist ein tolles Beispiel.
16:12
We're terriblefurchtbar
378
957000
2000
Wir sind schrecklich
16:14
at modelsModelle that spanSpanne 80 yearsJahre.
379
959000
2000
mit Modellen, die sich über 80 Jahre erstrecken.
16:16
We can do to the nextNächster harvestErnte.
380
961000
2000
Wir können die nächste Ernte machen.
16:18
We can oftenhäufig do untilbis our kidsKinder growgrößer werden up.
381
963000
3000
Wir können funktionieren solange bis unsere Kinder aufwachsen.
16:21
But 80 yearsJahre, we're just not good at.
382
966000
3000
Aber 80 Jahre, darin sind wir einfach nicht gut.
16:24
So it's a very hardhart modelModell- to acceptakzeptieren.
383
969000
3000
Es ist also ein sehr schwierig zu akzeptierendes Modell.
16:27
We can have bothbeide modelsModelle in our headKopf simultaneouslygleichzeitig,
384
972000
4000
Wir können beide Modell gleichzeitig in unserem Kopf haben
16:31
right, that kindArt of problemProblem
385
976000
3000
oder diese Art von Problem,
16:34
where we're holdingHalten bothbeide beliefsÜberzeugungen togetherzusammen,
386
979000
3000
wo wir beide Glaubenssätze zusammenhalten
16:37
right, the cognitivekognitiv dissonanceDissonanz.
387
982000
2000
oder die kognitive Dissonanz.
16:39
EventuallySchließlich,
388
984000
2000
Letztendlich
16:41
the newneu modelModell- will replaceersetzen the oldalt modelModell-.
389
986000
3000
wird das neue Modell das alte ersetzen
16:44
StrongStrong feelingsGefühle can createerstellen a modelModell-.
390
989000
3000
Starke Gefühle können ein Modell schaffen.
16:47
SeptemberSeptember 11thth createderstellt a securitySicherheit modelModell-
391
992000
3000
Der 11. September schaffte ein solches Sicherheitsmodell
16:50
in a lot of people'sMenschen headsKöpfe.
392
995000
2000
in den Köpfen vieler Leute.
16:52
AlsoAuch, personalpersönlich experiencesErfahrungen with crimeKriminalität can do it,
393
997000
3000
Auch eine persönliche Erfahrung mit einer Straftat kann dies tun,
16:55
personalpersönlich healthGesundheit scareSchrecken,
394
1000000
2000
persönliches Gesundheitsrisiko.
16:57
a healthGesundheit scareSchrecken in the newsNachrichten.
395
1002000
2000
ein Gesundheitsrisiko in den Nachrichten.
16:59
You'llDu wirst see these callednamens flashbulbBlitzlampe eventsVeranstaltungen
396
1004000
2000
Diese Momente werden von Psychiatern
17:01
by psychiatristsPsychiater.
397
1006000
2000
Blitzlichtmomente genannt.
17:03
They can createerstellen a modelModell- instantaneouslyaugenblicklich,
398
1008000
3000
Sie können unmittelbar ein Modell schaffen,
17:06
because they're very emotiveemotional.
399
1011000
3000
weil sie sehr gefühlsgeladen sind.
17:09
So in the technologicaltechnologisch worldWelt,
400
1014000
2000
In der technisierten Welt
17:11
we don't have experienceErfahrung
401
1016000
2000
haben wir nicht die Erfahrung
17:13
to judgeRichter modelsModelle.
402
1018000
2000
Modelle zu beurteilen.
17:15
And we relyverlassen on othersAndere. We relyverlassen on proxiesProxys.
403
1020000
2000
Und wir sind auf andere angewiesen. Wir sind auf Stellvertreter angewiesen.
17:17
I mean, this worksWerke as long as it's to correctrichtig othersAndere.
404
1022000
4000
Ich meine dies funktioniert so lange es darum geht, andere zu korrigieren.
17:21
We relyverlassen on governmentRegierung agenciesAgenturen
405
1026000
2000
Wir vertrauen auf staatliche Vertretungen,
17:23
to tell us what pharmaceuticalsArzneimittel are safeSafe.
406
1028000
5000
uns mitzuteilen welche Arzneimittel sicher sind.
17:28
I flewgeflogen here yesterdaygestern.
407
1033000
2000
Ich bin gestern her geflogen.
17:30
I didn't checkprüfen the airplaneFlugzeug.
408
1035000
2000
Ich habe das Flugzeug nicht überprüft.
17:32
I reliedverlassen on some other groupGruppe
409
1037000
2000
Ich vertraute einer anderen Gruppe,
17:34
to determinebestimmen whetherob my planeEbene was safeSafe to flyFliege.
410
1039000
3000
festzustellen ob mein Flugzeug sicher war um damit zu fliegen.
17:37
We're here, nonekeiner of us fearAngst the roofDach is going to collapseZusammenbruch on us,
411
1042000
3000
Wir sind hier, niemand von uns fürchtet, dass uns das Dach auf den Kopf fällt,
17:40
not because we checkedgeprüft,
412
1045000
3000
nicht weil wir es überprüft haben,
17:43
but because we're prettyziemlich sure
413
1048000
2000
sondern weil wir ziemlich sicher sind,
17:45
the buildingGebäude codesCodes here are good.
414
1050000
3000
dass die Gebäudevorschriften hier sehr gut sind.
17:48
It's a modelModell- we just acceptakzeptieren
415
1053000
2000
Es ist ein Modell, dass wir einfach akzeptieren
17:50
prettyziemlich much by faithGlauben.
416
1055000
2000
größtenteils durch Glauben.
17:52
And that's okay.
417
1057000
3000
Und das ist in Ordnung.
17:57
Now, what we want
418
1062000
2000
Was wir wollen
17:59
is people to get familiarfamiliär enoughgenug
419
1064000
2000
ist das Leute sich mit besseren
18:01
with better modelsModelle --
420
1066000
2000
Modellen anfreuden --
18:03
have it reflectedreflektiert in theirihr feelingsGefühle --
421
1068000
2000
sie mit ihren Gefühlen reflektiert haben --
18:05
to allowzulassen them to make securitySicherheit trade-offsKompromisse.
422
1070000
4000
um ihnen zu erlauben Sicherheitsabwägungen zu machen.
18:09
Now when these go out of whackSchlag,
423
1074000
2000
Wenn diese aus dem Gleichgewicht geraten,
18:11
you have two optionsOptionen.
424
1076000
2000
dann haben sie zwei Optionen.
18:13
One, you can fixFix people'sMenschen feelingsGefühle,
425
1078000
2000
Erstens, sie können die Gefühle der Leute richten,
18:15
directlydirekt appealBeschwerde to feelingsGefühle.
426
1080000
2000
direkt an Gefühle appelieren.
18:17
It's manipulationManipulation, but it can work.
427
1082000
3000
Es ist Manipulation, aber es kann funktionieren.
18:20
The secondzweite, more honestehrlich way
428
1085000
2000
Zweitens, der ehrlichere Weg ist,
18:22
is to actuallytatsächlich fixFix the modelModell-.
429
1087000
3000
das Modell direkt in Ordnung zu bringen.
18:26
ChangeÄnderung happensdas passiert slowlylangsam.
430
1091000
2000
Veränderungen passieren langsam.
18:28
The smokingRauchen debateDebatte tookdauerte 40 yearsJahre,
431
1093000
3000
Die Raucherdebatte brauchte 40 Jahre,
18:31
and that was an easyeinfach one.
432
1096000
3000
und das war eine einfache.
18:34
Some of this stuffSachen is hardhart.
433
1099000
2000
Einige dieser Dinge sind schwer.
18:36
I mean really thoughobwohl,
434
1101000
2000
Ich meine richtig schwer,
18:38
informationInformation seemsscheint like our bestBeste hopeHoffnung.
435
1103000
2000
Information scheint unsere beste Hoffnung zu sein.
18:40
And I liedgelogen.
436
1105000
2000
Und ich habe gelogen.
18:42
RememberDenken Sie daran I said feelingGefühl, modelModell-, realityWirklichkeit;
437
1107000
2000
Erinnern sie sich, als ich Gefühl, Modell, Realität sagte.
18:44
I said realityWirklichkeit doesn't changeVeränderung. It actuallytatsächlich does.
438
1109000
3000
Ich sagte Realität verändert sich nicht. Tatsächlich ändert sie sich.
18:47
We liveLeben in a technologicaltechnologisch worldWelt;
439
1112000
2000
Wir leben in einer technisierten Welt;
18:49
realityWirklichkeit changesÄnderungen all the time.
440
1114000
3000
Realität verändert sich die ganze Zeit.
18:52
So we mightMacht have -- for the first time in our speciesSpezies --
441
1117000
3000
Wir mögen -- zum ersten Mal für unsere Art -- folgende Situation haben
18:55
feelingGefühl chasesVerfolgungsjagden modelModell-, modelModell- chasesVerfolgungsjagden realityWirklichkeit, reality'sder Realität movingbewegend --
442
1120000
3000
Gefühl jagt Modell, Modell jagt Realität, Realität ist in Bewegung --
18:58
they mightMacht never catchFang up.
443
1123000
3000
sie mögen nie aufschließen.
19:02
We don't know.
444
1127000
2000
Wir wissen es nicht.
19:04
But in the long-termlangfristig,
445
1129000
2000
Aber langfristig
19:06
bothbeide feelingGefühl and realityWirklichkeit are importantwichtig.
446
1131000
3000
sind sowohl Gefühl als auch Realität wichtig.
19:09
And I want to closeschließen with two quickschnell storiesGeschichten to illustrateveranschaulichen this.
447
1134000
3000
Und ich möchte mit zwei kurzen Geschichten schließen um dies hervorzuheben.
19:12
1982 -- I don't know if people will remembermerken this --
448
1137000
2000
1982 -- ich weiß nicht ob die Leute sich daran erinnern --
19:14
there was a shortkurz epidemicEpidemie
449
1139000
3000
gab es eine kurze Epidemie
19:17
of TylenolTylenol poisoningsVergiftungen in the UnitedVereinigte StatesStaaten.
450
1142000
2000
von Tylenol Vergiftungen in den Vereinigten Staaten.
19:19
It's a horrificschrecklich storyGeschichte. SomeoneJemand tookdauerte a bottleFlasche of TylenolTylenol,
451
1144000
3000
Es ist eine schreckliche Geschichte. Irgendjemand nahm eine Flasche Tylenol,
19:22
put poisonGift in it, closedabgeschlossen it up, put it back on the shelfRegal.
452
1147000
3000
füllte Gift hinein, verschloss sie und stellte sie wieder ins Regal.
19:25
SomeoneJemand elsesonst boughtgekauft it and diedist verstorben.
453
1150000
2000
Irgendjemand anderes kaufte die Flasche und starb.
19:27
This terrifiedAngst und Schrecken versetzt people.
454
1152000
2000
Dies ängstigte die Leute.
19:29
There were a couplePaar of copycatNachahmer attacksAnschläge.
455
1154000
2000
Es gab einige Nachahmungsfälle.
19:31
There wasn'twar nicht any realecht riskRisiko, but people were scarederschrocken.
456
1156000
3000
Es gab kein reales Risiko, aber die Leute fürchteten sich.
19:34
And this is how
457
1159000
2000
Und dies ist wie
19:36
the tamper-proofTamper Resistant drugDroge industryIndustrie was inventederfunden.
458
1161000
2000
die fälschungssichere Pharmaindustrie erfunden wurde.
19:38
Those tamper-proofTamper Resistant capsKappen, that camekam from this.
459
1163000
2000
Diese fälschungssichere Verschlüsse gingen daraus hervor.
19:40
It's completekomplett securitySicherheit theaterTheater.
460
1165000
2000
Es ist ein komplettes Sicherheitstheater.
19:42
As a homeworkHausaufgaben assignmentZuordnung, think of 10 waysWege to get around it.
461
1167000
2000
Als Hausaufgabe denken Sie sich 10 Wege aus, diese zu umgehen.
19:44
I'll give you one, a syringeSpritze.
462
1169000
3000
Ich nenne ihnen einen Weg, eine Spritze.
19:47
But it madegemacht people feel better.
463
1172000
3000
Aber die Leute fühlen sich besser.
19:50
It madegemacht theirihr feelingGefühl of securitySicherheit
464
1175000
2000
Es glich ihr Gefühl der Sicherheit an
19:52
more matchSpiel the realityWirklichkeit.
465
1177000
2000
die Realität an.
19:54
Last storyGeschichte, a fewwenige yearsJahre agovor, a friendFreund of mineBergwerk gavegab birthGeburt.
466
1179000
3000
Letzte Geschichte, einige Jahre her, gebar eine Freundin von mir ein Kind.
19:57
I visitBesuch her in the hospitalKrankenhaus.
467
1182000
2000
Ich besuchte sie im Krankenhaus.
19:59
It turnswendet sich out when a baby'sdes Babys borngeboren now,
468
1184000
2000
Es stellte sich heraus, wenn heutzutage ein Kind geboren wird,
20:01
they put an RFIDRFID braceletArmband on the babyBaby,
469
1186000
2000
bringen sie am Kind ein RFID Armband
20:03
put a correspondingdazugehörigen one on the motherMutter,
470
1188000
2000
mit einem dazugehörigen für die Mutter an,
20:05
so if anyonejemand other than the motherMutter takes the babyBaby out of the maternityMutterschaft wardStation,
471
1190000
2000
Wenn irgendjemand anderes als die Mutter das Baby aus der Entbindungsstation nimmt,
20:07
an alarmAlarm goesgeht off.
472
1192000
2000
geht ein Alarm los.
20:09
I said, "Well, that's kindArt of neatordentlich.
473
1194000
2000
Ich sagte: "Das ist irgendwie klasse.
20:11
I wonderWunder how rampantweit verbreitet babyBaby snatchingRiß is
474
1196000
2000
Ich wundere mich wie grassierend Kinderklau
20:13
out of hospitalsKrankenhäuser."
475
1198000
2000
aus Krankenhäusern ist."
20:15
I go home, I look it up.
476
1200000
2000
Ich ging nach Haus und guckte es nach.
20:17
It basicallyGrundsätzlich gilt never happensdas passiert.
477
1202000
2000
Es passiert so gut wie nie.
20:19
But if you think about it,
478
1204000
2000
Aber wenn Sie darüber nachdenken,
20:21
if you are a hospitalKrankenhaus,
479
1206000
2000
wenn Sie im Krankenhaus sind,
20:23
and you need to take a babyBaby away from its motherMutter,
480
1208000
2000
und Sie müssen ein Baby von seiner Mutter
20:25
out of the roomZimmer to runLauf some testsTests,
481
1210000
2000
für einige Tests aus dem Raum bringen,
20:27
you better have some good securitySicherheit theaterTheater,
482
1212000
2000
haben Sie besser ein ziemlich gutes Sicherheitstheater,
20:29
or she's going to ripRuhe in Frieden your armArm off.
483
1214000
2000
oder sie wird ihnen einen Arm ausreißen.
20:31
(LaughterLachen)
484
1216000
2000
(Gelächter)
20:33
So it's importantwichtig for us,
485
1218000
2000
Es ist also wichtig für uns,
20:35
those of us who designEntwurf securitySicherheit,
486
1220000
2000
für solche von uns, die Sicherheit gestalten,
20:37
who look at securitySicherheit policyPolitik,
487
1222000
3000
auf die Sicherheitsregelung zu schauen
20:40
or even look at publicÖffentlichkeit policyPolitik
488
1225000
2000
oder sogar auf die öffentliche Regelung,
20:42
in waysWege that affectbeeinflussen securitySicherheit.
489
1227000
2000
die in Ihrer Art Einfluss auf die Sicherheit haben.
20:44
It's not just realityWirklichkeit; it's feelingGefühl and realityWirklichkeit.
490
1229000
3000
Es ist nicht nur Realität, es ist Gefühl und Realität.
20:47
What's importantwichtig
491
1232000
2000
Was wichtig ist,
20:49
is that they be about the samegleich.
492
1234000
2000
ist dass sie ungefähr gleich sein müssen.
20:51
It's importantwichtig that, if our feelingsGefühle matchSpiel realityWirklichkeit,
493
1236000
2000
Es ist wichtig, dass wenn unsere Gefühle mit der Realität übereinstimmen,
20:53
we make better securitySicherheit trade-offsKompromisse.
494
1238000
2000
wir bessere Sicherheitsabwägungen machen.
20:55
Thank you.
495
1240000
2000
Vielen Dank.
20:57
(ApplauseApplaus)
496
1242000
2000
(Applaus)
Translated by Jan Weidner
Reviewed by Lex Asobo

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com