ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Bruce Schneier: le mirage de la sécurité

Filmed:
958,315 views

L'impression de sécurité et la sécurité réelle ne correspondent pas toujours, dit Bruce Schneier, expert en sécurité informatique . A TEDxPSU, il explique pourquoi nous dépensons des milliards pour faire face aux risques évoqués dans les informations, comme le "théâtre de sécurité" qui se joue maintenant à votre aéroport local, tout en négligeant les risques plus probables - et comment nous pouvons briser ce modèle.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securitySécurité is two differentdifférent things:
0
0
2000
La sécurité, c'est donc deux choses différentes:
00:17
it's a feelingsentiment, and it's a realityréalité.
1
2000
2000
c'est une impression et c'est une réalité.
00:19
And they're differentdifférent.
2
4000
2000
Et c'est différent.
00:21
You could feel securegarantir
3
6000
2000
Vous pouvez vous sentir en sécurité
00:23
even if you're not.
4
8000
2000
même si vous ne l'êtes pas.
00:25
And you can be securegarantir
5
10000
2000
Et vous pouvez être en sécurité
00:27
even if you don't feel it.
6
12000
2000
même si vous n'en avez pas l'impression.
00:29
Really, we have two separateséparé conceptsconcepts
7
14000
2000
Nous avons vraiment deux concepts distincts
00:31
mappedmappé ontosur the sameMême wordmot.
8
16000
2000
rattachés au même terme.
00:33
And what I want to do in this talk
9
18000
2000
Et ce que je veux faire pendant cette conférence,
00:35
is to splitDivisé them apartune part --
10
20000
2000
c'est les séparer --
00:37
figuringfigurer out when they divergediverger
11
22000
2000
comprendre quand ils diverent
00:39
and how they convergeconvergent.
12
24000
2000
et comment ils convergent.
00:41
And languagela langue is actuallyréellement a problemproblème here.
13
26000
2000
Et le langage est en fait un problème ici
00:43
There aren'tne sont pas a lot of good wordsmots
14
28000
2000
Il n'y a pas beaucoup de mots adéquats
00:45
for the conceptsconcepts we're going to talk about.
15
30000
3000
pour les concepts dont nous allons parler ici.
00:48
So if you look at securitySécurité
16
33000
2000
Alors si vous regardez la sécurité
00:50
from economicéconomique termstermes,
17
35000
2000
en termes économiques,
00:52
it's a trade-offTrade-OFF.
18
37000
2000
c'est un échannge.
00:54
EveryChaque time you get some securitySécurité,
19
39000
2000
Chaque fois que vous obtenez une certaine sécurité,
00:56
you're always tradingcommerce off something.
20
41000
2000
vous donnez toujours quelque chose en échange.
00:58
WhetherQue ce soit this is a personalpersonnel decisiondécision --
21
43000
2000
Que ce soit une décision personnelle --
01:00
whetherqu'il s'agisse you're going to installinstaller a burglarcambrioleur alarmalarme in your home --
22
45000
2000
que vous installiez une alarme chez vous --
01:02
or a nationalnationale decisiondécision -- where you're going to invadeenvahir some foreignétranger countryPays --
23
47000
3000
ou une décision nationale -- où vous allez envahir un pays étranger --
01:05
you're going to tradeCommerce off something,
24
50000
2000
vous allez donner quelque chose en échange,
01:07
eithernon plus moneyargent or time, convenienceplus de commodité, capabilitiescapacités,
25
52000
3000
que ce soit de l'argent ou du temps, des commodités, des compétences,
01:10
maybe fundamentalfondamental libertieslibertés.
26
55000
3000
peut-être des libertés fondamentales.
01:13
And the questionquestion to askdemander when you look at a securitySécurité anything
27
58000
3000
Et la question à poser quand on considère la sécurité de quelque chose
01:16
is not whetherqu'il s'agisse this makesfait du us saferplus sûr,
28
61000
3000
n'est pas de savoir si ça nous protège mieux,
01:19
but whetherqu'il s'agisse it's worthvaut the trade-offTrade-OFF.
29
64000
3000
mais si oui ou non l'échange vaut la peine.
01:22
You've heardentendu in the pastpassé severalnombreuses yearsannées,
30
67000
2000
Ces dernières années, vous avez entendu dire
01:24
the worldmonde is saferplus sûr because SaddamSaddam HusseinHussein is not in powerPuissance.
31
69000
2000
que le monde est plus sûr parce que Saddam Hussein n'est pas au pouvoir.
01:26
That mightpourrait be truevrai, but it's not terriblyterriblement relevantpertinent.
32
71000
3000
il se pourrait que ce soit vrai, mais ce n'est pas terriblement pertinent.
01:29
The questionquestion is, was it worthvaut it?
33
74000
3000
La question est, est-ce que ça valait le coup?
01:32
And you can make your ownposséder decisiondécision,
34
77000
3000
Et vous pouvez décider par vous-même,
01:35
and then you'lltu vas decidedécider whetherqu'il s'agisse the invasioninvasion was worthvaut it.
35
80000
2000
et ensuite vous déciderez si l'invasion en valait la peine.
01:37
That's how you think about securitySécurité --
36
82000
2000
C'est de cette façon qu'on réfléchit à la sécurité --
01:39
in termstermes of the trade-offTrade-OFF.
37
84000
2000
en termes d'échange.
01:41
Now there's oftensouvent no right or wrongfaux here.
38
86000
3000
Maintenant c'est souvent qu'il n'i a ni raison ni tort ici.
01:44
Some of us have a burglarcambrioleur alarmalarme systemsystème at home,
39
89000
2000
Certains d'entre nous ont des système d'alarme chez eux,
01:46
and some of us don't.
40
91000
2000
et d'autres non.
01:48
And it'llça va dependdépendre on where we livevivre,
41
93000
2000
Et ça dépend de là où nous habitons,
01:50
whetherqu'il s'agisse we livevivre aloneseul or have a familyfamille,
42
95000
2000
si nous habitons seul ou en famille,
01:52
how much coolcool stuffdes trucs we have,
43
97000
2000
de la quantité de trucs chouettes que nous avons,
01:54
how much we're willingprêt to acceptAcceptez
44
99000
2000
du degré de risque de vol
01:56
the riskrisque of theftvol.
45
101000
2000
que nous acceptons.
01:58
In politicspolitique alsoaussi,
46
103000
2000
En politique aussi,
02:00
there are differentdifférent opinionsdes avis.
47
105000
2000
il y a des opinions différentes.
02:02
A lot of timesfois, these trade-offscompromis
48
107000
2000
Souvent, ces échanges
02:04
are about more than just securitySécurité,
49
109000
2000
concernent plus que la sécurité,
02:06
and I think that's really importantimportant.
50
111000
2000
et je pense que c'est vraiment important.
02:08
Now people have a naturalNaturel intuitionintuition
51
113000
2000
Et les gens ont une intuition naturelle
02:10
about these trade-offscompromis.
52
115000
2000
envers ces échanges.
02:12
We make them everychaque day --
53
117000
2000
Nous en faisons tous les jours --
02:14
last night in my hotelun hôtel roomchambre,
54
119000
2000
la nuit dernière, dans ma chambre d'hôtel,
02:16
when I decideddécidé to double-lockdouble verrouillage the doorporte,
55
121000
2000
quand j'ai décidé de fermer la porte à double tour,
02:18
or you in your carvoiture when you drovea conduit here,
56
123000
2000
ou vous dans votre voiture en venant ici,
02:20
when we go eatmanger lunchle déjeuner
57
125000
2000
quand nous allons déjeuner et que nous estimons
02:22
and decidedécider the food'sde nourriture not poisonpoison and we'llbien eatmanger it.
58
127000
3000
que la nourriture n'est pas du poison et que nous la mangeons.
02:25
We make these trade-offscompromis again and again,
59
130000
2000
Nous faisons sans cesse ces échanges
02:27
multipleplusieurs timesfois a day.
60
132000
2000
plusieurs fois par jour.
02:29
We oftensouvent won'thabitude even noticeremarquer them.
61
134000
2000
Souvent nous ne le remarquons même pas.
02:31
They're just partpartie of beingétant alivevivant; we all do it.
62
136000
2000
lls font partie de la vie; nous le faisons tous
02:33
EveryChaque speciesespèce does it.
63
138000
3000
Toutes les espèces le font.
02:36
ImagineImaginez a rabbitlapin in a fieldchamp, eatingen mangeant grassherbe,
64
141000
2000
Imaginez un lapin dans un champ, qui mange de l'herbe,
02:38
and the rabbit'sde lapin going to see a foxRenard.
65
143000
3000
et le lapin va voir un renard.
02:41
That rabbitlapin will make a securitySécurité trade-offTrade-OFF:
66
146000
2000
Ce lapin fera un échange de sécurité:
02:43
"Should I stayrester, or should I fleefuir?"
67
148000
2000
"Je reste ou je m'enfuis?"
02:45
And if you think about it,
68
150000
2000
Et si vous y réfléchissez,
02:47
the rabbitslapins that are good at makingfabrication that trade-offTrade-OFF
69
152000
3000
les lapins qui sont bons avec les échanges,
02:50
will tendtendre to livevivre and reproducereproduire,
70
155000
2000
auront tendance à vivre et à se reproduire,
02:52
and the rabbitslapins that are badmal at it
71
157000
2000
et les lapins qui sont mauvais
02:54
will get eatenmangé or starvemourir de faim.
72
159000
2000
seront mangés ou mourront de faim.
02:56
So you'dtu aurais think
73
161000
2000
Alors vous pourriez penser
02:58
that us, as a successfulréussi speciesespèce on the planetplanète --
74
163000
3000
que nous, en tant qu'espèce prospère sur la planète --
03:01
you, me, everybodyTout le monde --
75
166000
2000
vous, moi, tout le monde --
03:03
would be really good at makingfabrication these trade-offscompromis.
76
168000
3000
nous sommes vraiment bons en ce qui concerne ces genres d'échanges.
03:06
YetEncore it seemssemble, again and again,
77
171000
2000
Pourtant il semblerait, encore et encore,
03:08
that we're hopelesslydésespérément badmal at it.
78
173000
3000
que nous soyons désespérément mauvais à cela.
03:11
And I think that's a fundamentallyfondamentalement interestingintéressant questionquestion.
79
176000
3000
Et je pense que c'est une question fondamentalement intéressante.
03:14
I'll give you the shortcourt answerrépondre.
80
179000
2000
Je vous donnerai la réponse courte.
03:16
The answerrépondre is, we respondrépondre to the feelingsentiment of securitySécurité
81
181000
2000
La réponse est, nous réagissons à l'impression de sécurité
03:18
and not the realityréalité.
82
183000
3000
et pas à la réalité.
03:21
Now mostles plus of the time, that workstravaux.
83
186000
3000
Et la plupart du temps, ça marche.
03:25
MostPlupart of the time,
84
190000
2000
La plupart du temps,
03:27
feelingsentiment and realityréalité are the sameMême.
85
192000
3000
l'impression et la réalité sont la même chose.
03:30
CertainlyCertainement that's truevrai
86
195000
2000
C'est certainement vrai
03:32
for mostles plus of humanHumain prehistorypréhistoire.
87
197000
3000
pendant la plus grande partie de la préhistoire.
03:35
We'veNous avons developeddéveloppé this abilitycapacité
88
200000
3000
Nous avons développé cette capacité
03:38
because it makesfait du evolutionaryévolutionniste sensesens.
89
203000
2000
parce qu'elle a du sens du point de vue de l'évolution.
03:40
One way to think of it
90
205000
2000
Une manière de considérer ça
03:42
is that we're highlytrès optimizedoptimisé
91
207000
2000
est que nous sommes grandement optimisés
03:44
for riskrisque decisionsles décisions
92
209000
2000
pour les prises de risques
03:46
that are endemicespèce endémique to livingvivant in smallpetit familyfamille groupsgroupes
93
211000
3000
qui sont endémiques à la vie en petits groupes familaux
03:49
in the EastEast AfricanAfricain highlandshautes-terres in 100,000 B.C.
94
214000
3000
sur les plateaux de l'Afrique de l'Est en 100 000 avant J.-C. --
03:52
2010 NewNouveau YorkYork, not so much.
95
217000
3000
en 2010 à New York, pas tellement.
03:56
Now there are severalnombreuses biasesbiais in riskrisque perceptionla perception.
96
221000
3000
Maintenant, il y a plusieurs tendances dans la prise de risque.
03:59
A lot of good experimentsexpériences in this.
97
224000
2000
Beaucoup de bonnes expériences là dedans.
04:01
And you can see certaincertain biasesbiais that come up again and again.
98
226000
3000
Et vous pouvez voir que certaines tendances reviennent sans cesse.
04:04
So I'll give you fourquatre.
99
229000
2000
Alors je vais vous en donner quatre.
04:06
We tendtendre to exaggerateexagérer spectacularspectaculaire and rarerare risksrisques
100
231000
3000
Nous avons tendance à exagérer les risques rares et spectaculaires
04:09
and downplayminimiser commoncommun risksrisques --
101
234000
2000
et à minimiser les risques courants --
04:11
so flyingen volant versuscontre drivingau volant.
102
236000
3000
donc prendre l'avion par rapport à conduire.
04:14
The unknowninconnu is perceivedperçue
103
239000
2000
L'inconnu est perçu
04:16
to be riskierplus risqués than the familiarfamilier.
104
241000
3000
comme étant plus risqué que le familier.
04:20
One exampleExemple would be,
105
245000
2000
On pourrait citer comme exemple
04:22
people fearpeur kidnappingenlèvement by strangersétrangers
106
247000
3000
les gens qui ont peur d'être kidnappé par des inconnus,
04:25
when the dataLes données supportsprend en charge kidnappingenlèvement by relativesmembres de la famille is much more commoncommun.
107
250000
3000
alors que les données montrent que les enlèvements par des parents sont bien plus courants.
04:28
This is for childrenles enfants.
108
253000
2000
Il s'agit des enfants.
04:30
ThirdTierce, personifiedpersonnifiée risksrisques
109
255000
3000
Troisièmement, les risques personnifiés
04:33
are perceivedperçue to be greaterplus grand than anonymousanonyme risksrisques --
110
258000
3000
sont perçus comme étant plus grands que les risques anonymes --
04:36
so BinBin LadenLaden is scarierplus effrayant because he has a nameprénom.
111
261000
3000
donc Ben Laden fait plus peur parce qu'il a un nom.
04:39
And the fourthQuatrième
112
264000
2000
Et le quatrième
04:41
is people underestimatesous-estimer risksrisques
113
266000
2000
est que les gens sous-estiment les risques
04:43
in situationssituations they do controlcontrôle
114
268000
2000
dans les situations qu'ils contrôlent
04:45
and overestimatesurestimation them in situationssituations they don't controlcontrôle.
115
270000
4000
et les surestiment dans les situations qu'ils ne contrôlent pas.
04:49
So onceune fois que you take up skydivingparachutisme or smokingfumeur,
116
274000
3000
Donc une fois que vous vous mettez à faire du parachute ou à fumer,
04:52
you downplayminimiser the risksrisques.
117
277000
2000
vous minimisez les risques.
04:54
If a riskrisque is thrustpoussée uponsur you -- terrorismterrorisme was a good exampleExemple --
118
279000
3000
Si un risque vous tombe dessus -- le terrorisme était un bon exemple --
04:57
you'lltu vas overplayexagérer it because you don't feel like it's in your controlcontrôle.
119
282000
3000
vous le surévaluerez, parce que vous n'avez pas l'impression de le contrôler.
05:02
There are a bunchbouquet of other of these biasesbiais, these cognitivecognitif biasesbiais,
120
287000
3000
il y a un tas d'autre tendances, ces tendances cognitives,
05:05
that affectaffecter our riskrisque decisionsles décisions.
121
290000
3000
qui affectent nos prises de risque.
05:08
There's the availabilitydisponibilité heuristicheuristique,
122
293000
2000
il y a l'heuristique de disponibilité,
05:10
whichlequel basicallyen gros meansveux dire
123
295000
2000
ce qui signifie en gros
05:12
we estimateestimation the probabilityprobabilité of something
124
297000
3000
que nous estimons la probabilité de quelque chose
05:15
by how easyfacile it is to bringapporter instancesinstances of it to mindesprit.
125
300000
4000
en fonction de la facilité d'en concevoir des exemples.
05:19
So you can imagineimaginer how that workstravaux.
126
304000
2000
Vous pouvez donc imaginer comment ça fonctionne.
05:21
If you hearentendre a lot about tigerTigre attacksattaques, there mustdoit be a lot of tigerstigres around.
127
306000
3000
Si vus entendez beaucoup parler d'attaques de tigres, il doit y avoir beaucoup de tigres dans le coin.
05:24
You don't hearentendre about lionLion attacksattaques, there aren'tne sont pas a lot of lionsles Lions around.
128
309000
3000
Vous n'etendez pas beaucoup parler d'attaques de lions, il n'y a pas beaucoup de lions dans le coin.
05:27
This workstravaux untiljusqu'à you inventinventer newspapersjournaux.
129
312000
3000
Ça fonctionne jusqu'à ce qu'on invente les journaux
05:30
Because what newspapersjournaux do
130
315000
2000
Parce que ce que font les journaux
05:32
is they repeatrépéter again and again
131
317000
2000
est qu'ils répètent encore et encore
05:34
rarerare risksrisques.
132
319000
2000
des risques rares.
05:36
I tell people, if it's in the newsnouvelles, don't worryinquiéter about it.
133
321000
2000
je dis aux gens, si c'est dans les infos, ne vous en inquiétez pas.
05:38
Because by definitiondéfinition,
134
323000
2000
Parce que par définition,
05:40
newsnouvelles is something that almostpresque never happensarrive.
135
325000
3000
les informations sont des choses qui n'arrivent presque jamais.
05:43
(LaughterRires)
136
328000
2000
(Rires)
05:45
When something is so commoncommun, it's no longerplus long newsnouvelles --
137
330000
3000
Quand quelque chose est si courant, ce n'est plus de l'information --
05:48
carvoiture crashesdes accidents, domesticnational violencela violence --
138
333000
2000
les accidents de voiture, la violence domestique --
05:50
those are the risksrisques you worryinquiéter about.
139
335000
3000
voilà les risques dont on se préoccupe.
05:53
We're alsoaussi a speciesespèce of storytellersconteurs.
140
338000
2000
Nous sommes aussi une espèce de conteurs.
05:55
We respondrépondre to storieshistoires more than dataLes données.
141
340000
3000
Nous réagissons aux histoires plus qu'aux données.
05:58
And there's some basicde base innumeracyillettrisme going on.
142
343000
2000
Et ce qu'il se passe, c'est une ignorance numérique élémentaire.
06:00
I mean, the jokeblague "One, Two, ThreeTrois, ManyDe nombreux" is kindgentil of right.
143
345000
3000
Je veux dire, la plaisanterie "Un, Deux, Trois, Beaucoup" est assez vraie.
06:03
We're really good at smallpetit numbersNombres.
144
348000
3000
Nous sommes vraiment bons avec les petits chiffres.
06:06
One mangomangue, two mangoesmangues, threeTrois mangoesmangues,
145
351000
2000
Une mangue, deux mangues, trois mangues,
06:08
10,000 mangoesmangues, 100,000 mangoesmangues --
146
353000
2000
10 000 mangues, 100 000 mangues --
06:10
it's still more mangoesmangues you can eatmanger before they rotpourriture.
147
355000
3000
c'est toujours plus de mangues que vous ne pouvez manger avant qu'elles pourrissent.
06:13
So one halfmoitié, one quartertrimestre, one fifthcinquième -- we're good at that.
148
358000
3000
Donc un demi, un quart, un cinquième -- là nous sommes bons.
06:16
One in a millionmillion, one in a billionmilliard --
149
361000
2000
Un sur un million, un sur un milliard --
06:18
they're bothtous les deux almostpresque never.
150
363000
3000
dans les deux cas, c'est presque jamais.
06:21
So we have troubledifficulté with the risksrisques
151
366000
2000
Donc nous avons du mal avec les risques
06:23
that aren'tne sont pas very commoncommun.
152
368000
2000
qui ne sont pas très courants.
06:25
And what these cognitivecognitif biasesbiais do
153
370000
2000
Et ce que ces tendances cognitives font,
06:27
is they actacte as filtersfiltres betweenentre us and realityréalité.
154
372000
3000
est qu'elles agissent comme des filtres entre la réalité et nous.
06:30
And the resultrésultat
155
375000
2000
Et le résultat
06:32
is that feelingsentiment and realityréalité get out of whackbattre,
156
377000
2000
est que l'impression et la réalité ne collent pas,
06:34
they get differentdifférent.
157
379000
3000
ils diffèrent.
06:37
Now you eithernon plus have a feelingsentiment -- you feel more securegarantir than you are.
158
382000
3000
Et vous avez soit une impression -- vous vous sentez plus en sécurité que vous ne l'êtes.
06:40
There's a falsefaux sensesens of securitySécurité.
159
385000
2000
C'est une fausse impression de sécurité.
06:42
Or the other way,
160
387000
2000
Ou le contraire,
06:44
and that's a falsefaux sensesens of insecurityinsécurité.
161
389000
2000
et c'est une fausse impression d'insécurité.
06:46
I writeécrire a lot about "securitySécurité theaterthéâtre,"
162
391000
3000
J'écris beaucoup sur "le théâtre de la sécurité",
06:49
whichlequel are productsdes produits that make people feel securegarantir,
163
394000
3000
et ce sont les produits qui rassurent les gens,
06:52
but don't actuallyréellement do anything.
164
397000
2000
mais qui en fait ne font rien.
06:54
There's no realréal wordmot for stuffdes trucs that makesfait du us securegarantir,
165
399000
2000
Il n'y a pas de monde réel pour les choses qui nous mettent en sécurité,
06:56
but doesn't make us feel securegarantir.
166
401000
2000
mais ne nous en donnent pas l'impression.
06:58
Maybe it's what the CIA'sCIA supposedsupposé to do for us.
167
403000
3000
C'est peut-être ce que la CIA est sensée faire pour nous.
07:03
So back to economicséconomie.
168
408000
2000
Revenons donc à l'économie.
07:05
If economicséconomie, if the marketmarché, drivesdisques securitySécurité,
169
410000
4000
Si l'économie, si le marché conduit la sécurité,
07:09
and if people make trade-offscompromis
170
414000
2000
et si les gens font des échanges
07:11
basedbasé on the feelingsentiment of securitySécurité,
171
416000
3000
d'après l'impression de sécurité,
07:14
then the smartintelligent thing for companiesentreprises to do
172
419000
2000
alors la chose intelligente à faire pour les entreprises
07:16
for the economicéconomique incentivesmesures incitatives
173
421000
2000
pour que les motivations économiques
07:18
are to make people feel securegarantir.
174
423000
3000
permettent aux gens de se sentir plus en sécurité.
07:21
And there are two waysfaçons to do this.
175
426000
3000
Et il y a deux manières de le faire.
07:24
One, you can make people actuallyréellement securegarantir
176
429000
2000
Une, vous pouvez mettre vraiment les gens plus en sécurité
07:26
and hopeespérer they noticeremarquer.
177
431000
2000
et espérer qu'ils le remarquent.
07:28
Or two, you can make people just feel securegarantir
178
433000
3000
Ou deux, vous pouvez donner aux gens seulement une impression de sécurité
07:31
and hopeespérer they don't noticeremarquer.
179
436000
3000
et espérer qu'ils ne s'en aperçoivent pas.
07:35
So what makesfait du people noticeremarquer?
180
440000
3000
Alors qu'est-ce qui fait que les gens le remarquent?
07:38
Well a couplecouple of things:
181
443000
2000
Et bien deux ou trois choses :
07:40
understandingcompréhension of the securitySécurité,
182
445000
2000
comprendre la sécurité,
07:42
of the risksrisques, the threatsmenaces,
183
447000
2000
les risques, les menaces
07:44
the countermeasurescontre-mesures, how they work.
184
449000
3000
des contre-mesures, comment elles fonctionnent.
07:47
But if you know stuffdes trucs,
185
452000
2000
Mais si vous savez des trucs,
07:49
you're more likelyprobable to have your feelingssentiments matchrencontre realityréalité.
186
454000
3000
vos impressions sont plus susceptibles de coller à la réalité.
07:52
EnoughAssez realréal worldmonde examplesexemples helpsaide.
187
457000
3000
Avoir assez d'exemples dans le monde réel vous aide.
07:55
Now we all know the crimela criminalité ratetaux in our neighborhoodquartier,
188
460000
3000
Et nous connaissons tous le taux de criminalité dans notre quartier,
07:58
because we livevivre there, and we get a feelingsentiment about it
189
463000
3000
parce que nous y vivons, et que nous en avons une impression
08:01
that basicallyen gros matchescorrespond à realityréalité.
190
466000
3000
qui en gros colle à la réalité.
08:04
SecuritySécurité theater'sdu théâtre exposedexposé
191
469000
3000
Le théâtre de sécurité est exposé
08:07
when it's obviousévident that it's not workingtravail properlycorrectement.
192
472000
3000
quand il est évident qu'il ne fonctionne pas correctement.
08:10
Okay, so what makesfait du people not noticeremarquer?
193
475000
4000
Bon, alors qu'est-ce qui fait que les gens ne remarquent pas?
08:14
Well, a poorpauvre understandingcompréhension.
194
479000
2000
Et bien une mauvaise compréhension.
08:16
If you don't understandcomprendre the risksrisques, you don't understandcomprendre the costsfrais,
195
481000
3000
Si vous ne comprenez pas les risques, vous ne comprenez pas les coûts,
08:19
you're likelyprobable to get the trade-offTrade-OFF wrongfaux,
196
484000
2000
vous êtes susceptibles de ne pas faire les bons échanges,
08:21
and your feelingsentiment doesn't matchrencontre realityréalité.
197
486000
3000
et votre impression ne colle pas à la réalité.
08:24
Not enoughassez examplesexemples.
198
489000
2000
Pas assez d'exemples
08:26
There's an inherentinhérent problemproblème
199
491000
2000
C'est un problème inhérent
08:28
with lowfaible probabilityprobabilité eventsévénements.
200
493000
2000
aux évènements de faible probabilité.
08:30
If, for exampleExemple,
201
495000
2000
Si, par exemple,
08:32
terrorismterrorisme almostpresque never happensarrive,
202
497000
2000
le terrorisme ne se produit presque jamais,
08:34
it's really harddifficile to judgejuge
203
499000
2000
il est vraiment difficile de juger
08:36
the efficacyefficacité of counter-terroristcontre-terroriste measuresles mesures.
204
501000
3000
l'efficacité de nos mesures anti-terrorisme.
08:40
This is why you keep sacrificingsacrifier virginsvierges,
205
505000
3000
C'est pourquoi on continue à sacrifier des vierges,
08:43
and why your unicornLicorne defensesdéfenses are workingtravail just great.
206
508000
3000
et pourquoi vos défenses de licorne fonctionnent parfaitement.
08:46
There aren'tne sont pas enoughassez examplesexemples of failuresles échecs.
207
511000
3000
Il n'y a pas assez d'exemples d'échecs.
08:50
AlsoAussi, feelingssentiments that are cloudingopacification the issuesproblèmes --
208
515000
3000
Aussi, les impressions qui rendent les problèmes confus --
08:53
the cognitivecognitif biasesbiais I talkeda parlé about earlierplus tôt,
209
518000
2000
les tendances cognitives dont j'ai parlé plus tôt,
08:55
fearscraintes, folkfolk beliefscroyances,
210
520000
3000
les peurs, les croyances populaires,
08:58
basicallyen gros an inadequateinadéquate modelmaquette of realityréalité.
211
523000
3000
en gros un modèle inadéquat de réalité.
09:02
So let me complicatecompliquer things.
212
527000
3000
Alors permettez-moi de compliquer les choses.
09:05
I have feelingsentiment and realityréalité.
213
530000
2000
J'ai l'impression et la réalité.
09:07
I want to addajouter a thirdtroisième elementélément. I want to addajouter modelmaquette.
214
532000
3000
Je veux ajouter un troisième élément. Je veux ajouter un modèle.
09:10
FeelingSentiment and modelmaquette in our headtête,
215
535000
2000
L'impression et le modèle dans nos têtes,
09:12
realityréalité is the outsideà l'extérieur worldmonde.
216
537000
2000
la réalité c'est le monde extérieur.
09:14
It doesn't changechangement; it's realréal.
217
539000
3000
Il ne change pas: il est réel.
09:17
So feelingsentiment is basedbasé on our intuitionintuition.
218
542000
2000
Donc l'impression se fonde sur notre intuition.
09:19
ModelModèle is basedbasé on reasonraison.
219
544000
2000
Le modèle se fonde sur la raison.
09:21
That's basicallyen gros the differencedifférence.
220
546000
3000
C'est en gros la différence.
09:24
In a primitiveprimitif and simplesimple worldmonde,
221
549000
2000
Dans un monde primitif et simple,
09:26
there's really no reasonraison for a modelmaquette
222
551000
3000
il n'y a pas de raison pour un modèle.
09:29
because feelingsentiment is closeFermer to realityréalité.
223
554000
3000
Parce que l'impression est proche de la réalité.
09:32
You don't need a modelmaquette.
224
557000
2000
On n'a pas besoin d'un modèle.
09:34
But in a modernmoderne and complexcomplexe worldmonde,
225
559000
2000
Mais dans un monde moderne et complexe,
09:36
you need modelsdes modèles
226
561000
2000
on a besoin de modèles
09:38
to understandcomprendre a lot of the risksrisques we facevisage.
227
563000
3000
pour comprendre bon nombre des risques auxquels nous sommes confrontés.
09:42
There's no feelingsentiment about germsgermes.
228
567000
2000
Il n'y a pas d'impression vis à vis des microbes.
09:44
You need a modelmaquette to understandcomprendre them.
229
569000
3000
Il vous faut un modèle pour les comprendre.
09:47
So this modelmaquette
230
572000
2000
Donc ce modèle
09:49
is an intelligentintelligent representationreprésentation of realityréalité.
231
574000
3000
est une représentation intelligente de la réalité.
09:52
It's, of coursecours, limitedlimité by sciencescience,
232
577000
3000
Il est bien sûr limité par la science,
09:55
by technologyLa technologie.
233
580000
2000
par la technologie.
09:57
We couldn'tne pouvait pas have a germgerme theorythéorie of diseasemaladie
234
582000
3000
Nous ne pouvions pas écrire une théorie microbienne de la maladie
10:00
before we inventeda inventé the microscopemicroscope to see them.
235
585000
3000
avant d'avoir inventé le microscope pour les voir.
10:04
It's limitedlimité by our cognitivecognitif biasesbiais.
236
589000
3000
Il est limité par nos tendances cognitives.
10:07
But it has the abilitycapacité
237
592000
2000
Mais il a la capacité
10:09
to overrideSubstituez our feelingssentiments.
238
594000
2000
de l'emporter sur nos impressions.
10:11
Where do we get these modelsdes modèles? We get them from othersautres.
239
596000
3000
Où trouvons-nous ces modèles? Nous les trouvons chez les autres.
10:14
We get them from religionreligion, from cultureCulture,
240
599000
3000
Nous les trouvons dans la religion, la culture,
10:17
teachersenseignants, eldersaînés.
241
602000
2000
chez les enseignants, chez nos aînés.
10:19
A couplecouple yearsannées agodepuis,
242
604000
2000
Il y a deux ans,
10:21
I was in SouthSud AfricaL’Afrique on safariSafari.
243
606000
2000
j'étais en Afrique du Sud en safari.
10:23
The trackerTracker I was with grewgrandi up in KrugerKruger NationalNational ParkParc.
244
608000
3000
Le pisteur avec qui j'étais a grandi dans le parc national Kruger.
10:26
He had some very complexcomplexe modelsdes modèles of how to survivesurvivre.
245
611000
3000
Il avait des modèles très complexes de façon de survivre.
10:29
And it dependeddépendu on if you were attackedattaqué
246
614000
2000
Et ça dépendait de si vous étiez attaqué
10:31
by a lionLion or a leopardléopard or a rhinoRhino or an elephantl'éléphant --
247
616000
2000
par un lion, ou un léopard, ou un rhinocéros, ou un éléphant --
10:33
and when you had to runcourir away, and when you couldn'tne pouvait pas runcourir away, and when you had to climbmontée a treearbre --
248
618000
3000
et quand vous deviez fuir, et quand vous deviez grimper à un arbre --
10:36
when you could never climbmontée a treearbre.
249
621000
2000
quand vous pouviez ne jamais grimper à un arbre.
10:38
I would have dieddécédés in a day,
250
623000
3000
Je serais mort dans la journée,
10:41
but he was bornnée there,
251
626000
2000
mais il était né là,
10:43
and he understoodcompris how to survivesurvivre.
252
628000
2000
et il comprenait comment survivre.
10:45
I was bornnée in NewNouveau YorkYork CityVille.
253
630000
2000
Je suis né à New York City.
10:47
I could have takenpris him to NewNouveau YorkYork, and he would have dieddécédés in a day.
254
632000
3000
J'aurais pu l'emmener à New York, et il serait mort dans la journée.
10:50
(LaughterRires)
255
635000
2000
(Rires)
10:52
Because we had differentdifférent modelsdes modèles
256
637000
2000
Parce que nous avions différents modèles
10:54
basedbasé on our differentdifférent experiencesexpériences.
257
639000
3000
fondés sur nos différentes expériences.
10:58
ModelsModèles can come from the mediamédias,
258
643000
2000
Les modèles peuvent venir des medias,
11:00
from our electedélu officialsfonctionnaires.
259
645000
3000
de nos élus.
11:03
Think of modelsdes modèles of terrorismterrorisme,
260
648000
3000
Pensez aux modèles de terrorisme,
11:06
childenfant kidnappingenlèvement,
261
651000
3000
d'enlèvement d'enfant,
11:09
airlineCompagnie aérienne safetysécurité, carvoiture safetysécurité.
262
654000
2000
de sécurité aérienne, de sécurité automobile.
11:11
ModelsModèles can come from industryindustrie.
263
656000
3000
Les modèles peuvent venir de l'industrie.
11:14
The two I'm followingSuivant are surveillancesurveillance camerasappareils photo,
264
659000
2000
Les deux que je suis sont les caméras de surveillance,
11:16
IDID cardscartes,
265
661000
2000
les cartes d'identités,
11:18
quiteassez a lot of our computerordinateur securitySécurité modelsdes modèles come from there.
266
663000
3000
un bon nombre de nos modèles de sécurité informatique viennent de là.
11:21
A lot of modelsdes modèles come from sciencescience.
267
666000
3000
Beaucoup de modèles viennent de la science.
11:24
HealthSanté modelsdes modèles are a great exampleExemple.
268
669000
2000
Les modèles de santé sont un excellent exemple.
11:26
Think of cancercancer, of birdoiseau flugrippe, swineporcine flugrippe, SARSSRAS.
269
671000
3000
Pensez au cancer, à la grippe aviaire, la grippe porcine, le SRAS.
11:29
All of our feelingssentiments of securitySécurité
270
674000
3000
Toutes nos impressions de sécurité
11:32
about those diseasesmaladies
271
677000
2000
vis à vis de ces maladies
11:34
come from modelsdes modèles
272
679000
2000
viennent de modèles
11:36
givendonné to us, really, by sciencescience filteredfiltrée throughpar the mediamédias.
273
681000
3000
qu'on nous donne, vraiment, par la science filtrée par les médias.
11:40
So modelsdes modèles can changechangement.
274
685000
3000
Donc les modèles changent.
11:43
ModelsModèles are not staticpublic static.
275
688000
2000
Les modèles ne sont pas statiques.
11:45
As we becomedevenir more comfortableconfortable in our environmentsenvironnements,
276
690000
3000
Alors que nous sommes plus à l'aise avec nos environnements,
11:48
our modelmaquette can movebouge toi closerplus proche to our feelingssentiments.
277
693000
4000
notre modèle peut se rapprocher de nos impressions.
11:53
So an exampleExemple mightpourrait be,
278
698000
2000
Et on pourrait prendre pour exemple
11:55
if you go back 100 yearsannées agodepuis
279
700000
2000
si on remonte à 100 en arrière
11:57
when electricityélectricité was first becomingdevenir commoncommun,
280
702000
3000
quand l'électricité est devenue courante pour la première fois,
12:00
there were a lot of fearscraintes about it.
281
705000
2000
elle a généré beaucoup de peurs.
12:02
I mean, there were people who were afraidpeur to pushpousser doorbellssonnettes,
282
707000
2000
Je veux dire qu'il y avait des gens qui avaient peur de sonner aux portes ;
12:04
because there was electricityélectricité in there, and that was dangerousdangereux.
283
709000
3000
parce qu'il y avait de l'électricité dans les sonnettes, et que c'était dangereux.
12:07
For us, we're very facilefacile around electricityélectricité.
284
712000
3000
Pour nous, nous sommes à l'aise avec l'électricité.
12:10
We changechangement lightlumière bulbsampoules
285
715000
2000
Nous changeons les ampoules
12:12
withoutsans pour autant even thinkingen pensant about it.
286
717000
2000
sans même y réfléchir.
12:14
Our modelmaquette of securitySécurité around electricityélectricité
287
719000
4000
Notre modèle de sécurité vis à vis de l'électricité
12:18
is something we were bornnée into.
288
723000
3000
est une chose dans laquelle nous sommes nés.
12:21
It hasn'tn'a pas changedmodifié as we were growingcroissance up.
289
726000
3000
Il n'a pas changé alors que nous grandissions.
12:24
And we're good at it.
290
729000
3000
Et nous sommes bons là-dedans.
12:27
Or think of the risksrisques
291
732000
2000
Ou sinon, pensez aux risques
12:29
on the InternetInternet acrossà travers generationsgénérations --
292
734000
2000
sur internet entre générations --
12:31
how your parentsParents approachapproche InternetInternet securitySécurité,
293
736000
2000
comment vos parents abordent la sécurité d'internet,
12:33
versuscontre how you do,
294
738000
2000
par rapport à ce que vous faites,
12:35
versuscontre how our kidsdes gamins will.
295
740000
3000
par rapport à comment vos enfants le feront.
12:38
ModelsModèles eventuallyfinalement fadefondu into the backgroundContexte.
296
743000
3000
Les modèles finissent par se fondre dans le décor.
12:42
IntuitiveIntuitive is just anotherun autre wordmot for familiarfamilier.
297
747000
3000
Intuitif est synonyme de familier.
12:45
So as your modelmaquette is closeFermer to realityréalité,
298
750000
2000
Donc quand notre modèle est proche de la réalité,
12:47
and it convergesconverge with feelingssentiments,
299
752000
2000
et qu'il converge avec les impressions,
12:49
you oftensouvent don't know it's there.
300
754000
3000
vous ignorez souvent qu'il est là.
12:52
So a niceagréable exampleExemple of this
301
757000
2000
Et un bon exemple nous est venu
12:54
camevenu from last yearan and swineporcine flugrippe.
302
759000
3000
l'an dernier avec la grippe porcine.
12:57
When swineporcine flugrippe first appearedest apparu,
303
762000
2000
Quand la grippe porcine est apparue pour la première fois,
12:59
the initialinitiale newsnouvelles causedcausé a lot of overreactionréaction excessive.
304
764000
4000
l'information initiale a provoqué beaucoup de réactions excessives.
13:03
Now it had a nameprénom,
305
768000
2000
D'abord la maladie avait un nom,
13:05
whichlequel madefabriqué it scarierplus effrayant than the regularordinaire flugrippe,
306
770000
2000
ce qui la rendait plus effrayante que la grippe traditionnelle,
13:07
even thoughbien que it was more deadlymortel.
307
772000
2000
même si elle était plus mortelle.
13:09
And people thought doctorsmédecins should be ablecapable to dealtraiter with it.
308
774000
4000
Et les gens pensaient que les médecins devraient pouvoir s'en occuper.
13:13
So there was that feelingsentiment of lackmanquer de of controlcontrôle.
309
778000
2000
Il y a donc eu un sentiment de manque de contrôle.
13:15
And those two things
310
780000
2000
Et ces deux choses
13:17
madefabriqué the riskrisque more than it was.
311
782000
2000
ont fait que le risque semblait plus important qu'il n'était.
13:19
As the noveltynouveauté woreportait off, the monthsmois wentest allé by,
312
784000
3000
Quand l'effet de nouveauté s'est estompé et que les mois ont passé,
13:22
there was some amountmontant of tolerancetolérance,
313
787000
2000
il y a eu une une certaine tolérance,
13:24
people got used to it.
314
789000
2000
les gens s'y sont habitués.
13:26
There was no newNouveau dataLes données, but there was lessMoins fearpeur.
315
791000
3000
Il n'y a pas eu de nouvelles données, mais il y a eu moins de peur.
13:29
By autumnautomne,
316
794000
2000
En automne,
13:31
people thought
317
796000
2000
les gens pensaient
13:33
the doctorsmédecins should have solvedrésolu this alreadydéjà.
318
798000
2000
que les médecins auraient déjà dû résoudre le problème.
13:35
And there's kindgentil of a bifurcationbifurcation --
319
800000
2000
Et il y a eu un genre de tournant --
13:37
people had to choosechoisir
320
802000
2000
les gens devaient choisir
13:39
betweenentre fearpeur and acceptanceacceptation --
321
804000
4000
entre la peur et l'acceptation --
13:43
actuallyréellement fearpeur and indifferenceindifférence --
322
808000
2000
en fait entre la peur et l'indifférence --
13:45
they kindgentil of chosechoisi suspicionsoupçons.
323
810000
3000
ils ont choisi la méfiance.
13:48
And when the vaccinevaccin appearedest apparu last winterhiver,
324
813000
3000
Et quand le vaccin est apparu l'hiver dernier,
13:51
there were a lot of people -- a surprisingsurprenant numbernombre --
325
816000
3000
il y a eu beaucoup de gens -- un nombre surprenant --
13:54
who refuseda refusé to get it --
326
819000
3000
qui ont refusé de se faire vacciner --
13:58
as a niceagréable exampleExemple
327
823000
2000
et c'est un bon exemple
14:00
of how people'sles gens feelingssentiments of securitySécurité changechangement, how theirleur modelmaquette changeschangements,
328
825000
3000
de la façon dont les impressions de sécurité des gens changent,
14:03
sortTrier of wildlysauvagement
329
828000
2000
comment leurs modèles changent, de façon irraisonnée
14:05
with no newNouveau informationinformation,
330
830000
2000
sans nouvelles informations,
14:07
with no newNouveau inputcontribution.
331
832000
2000
sans nouvel apport.
14:09
This kindgentil of thing happensarrive a lot.
332
834000
3000
Ce genre de chose se produit souvent.
14:12
I'm going to give one more complicationcomplication.
333
837000
3000
Et je vais apporter une complication supplémentaire.
14:15
We have feelingsentiment, modelmaquette, realityréalité.
334
840000
3000
Nous avons l'impression, le modèle, la réalité.
14:18
I have a very relativisticrelativiste viewvue of securitySécurité.
335
843000
2000
J'ai une vision très réaliste de la sécurité.
14:20
I think it dependsdépend on the observerobservateur.
336
845000
3000
Je pense qu'elle dépend de l'observateur.
14:23
And mostles plus securitySécurité decisionsles décisions
337
848000
2000
Et la plupart des décisions de sécurité
14:25
have a varietyvariété of people involvedimpliqué.
338
850000
4000
ont des gens impliqués très différents .
14:29
And stakeholdersles parties prenantes
339
854000
2000
Et les actionnaires
14:31
with specificspécifique trade-offscompromis
340
856000
3000
qui ont des échanges spécifiques
14:34
will try to influenceinfluence the decisiondécision.
341
859000
2000
essaieront d'influencer la décision.
14:36
And I call that theirleur agendaordre du jour.
342
861000
2000
Et j'appelle ça leur programme.
14:38
And you see agendaordre du jour --
343
863000
2000
Et vous voyez un programme --
14:40
this is marketingcommercialisation, this is politicspolitique --
344
865000
3000
c'est du marketing, c'est de la politique --
14:43
tryingen essayant to convinceconvaincre you to have one modelmaquette versuscontre anotherun autre,
345
868000
3000
essayez de vous convaincre que vous avez un modèle par rapport à un autre,
14:46
tryingen essayant to convinceconvaincre you to ignoreignorer a modelmaquette
346
871000
2000
essayez de vous convaincre d'ignorer un modèle
14:48
and trustconfiance your feelingssentiments,
347
873000
3000
et de vous fier à vos impressions,
14:51
marginalizingmarginaliser people with modelsdes modèles you don't like.
348
876000
3000
marginaliser les gens qui ont des modèles que vous n'aimez pas.
14:54
This is not uncommonrare.
349
879000
3000
Ce n'est pas rare,
14:57
An exampleExemple, a great exampleExemple, is the riskrisque of smokingfumeur.
350
882000
3000
Un exemple, un très bon exemple, c'est le risque du tabac.
15:01
In the historyhistoire of the pastpassé 50 yearsannées, the smokingfumeur riskrisque
351
886000
3000
Dans l'histoire de ces 50 dernières années, le risque du tabac
15:04
showsmontre how a modelmaquette changeschangements,
352
889000
2000
montre comment un modèle change,
15:06
and it alsoaussi showsmontre how an industryindustrie fightscombats againstcontre
353
891000
3000
et il montre aussi comment une industrie combat
15:09
a modelmaquette it doesn't like.
354
894000
2000
un modèle qu'elle n'aime aps.
15:11
CompareComparer that to the secondhandbrocante smokefumée debatedébat --
355
896000
3000
Comparez ça au débat sur le tabagisme passif --
15:14
probablyProbablement about 20 yearsannées behindderrière.
356
899000
3000
probablement avec 20 ans de retard.
15:17
Think about seatsiège beltsceintures.
357
902000
2000
Pensez aux ceintures de sécurité.
15:19
When I was a kidenfant, no one woreportait a seatsiège beltceinture.
358
904000
2000
Quand j'étais enfant, personne ne mettait de ceinture de sécurité.
15:21
NowadaysDe nos jours, no kidenfant will let you driveconduire
359
906000
2000
Aujourd'hui, pas un enfant ne vous laissera conduire
15:23
if you're not wearingportant a seatsiège beltceinture.
360
908000
2000
si vous n'attachez pas votre ceinture de sécurité.
15:26
CompareComparer that to the airbagcoussin gonflable debatedébat --
361
911000
2000
Comparez ça au débat sur l'airbag --
15:28
probablyProbablement about 30 yearsannées behindderrière.
362
913000
3000
probablement avec 30 ans de retard.
15:31
All examplesexemples of modelsdes modèles changingen changeant.
363
916000
3000
Ce sont tous des exemples de modèles qui changent.
15:36
What we learnapprendre is that changingen changeant modelsdes modèles is harddifficile.
364
921000
3000
Ce que nous apprenons c'est qu'il est difficile de changer les modèles.
15:39
ModelsModèles are harddifficile to dislodgedéloger.
365
924000
2000
Les modèles sont difficiles à déloger.
15:41
If they equalégal your feelingssentiments,
366
926000
2000
S'ils correspondent à vos impressions,
15:43
you don't even know you have a modelmaquette.
367
928000
3000
vous ne savez même pas que vous avez un modèle.
15:46
And there's anotherun autre cognitivecognitif biasbiais
368
931000
2000
Et il y a une autre tendance cognitive
15:48
I'll call confirmationconfirmation biasbiais,
369
933000
2000
que j'appellerais une tendance de confirmation,
15:50
where we tendtendre to acceptAcceptez dataLes données
370
935000
3000
quand nous tendons à accepter des données
15:53
that confirmsconfirme our beliefscroyances
371
938000
2000
qui confirment ce que nous croyons
15:55
and rejectrejeter dataLes données that contradictsva à l’encontre our beliefscroyances.
372
940000
3000
et à rejeter des données qui contredisent ce que nous croyons.
15:59
So evidencepreuve againstcontre our modelmaquette,
373
944000
2000
Donc nous sommes susceptibles
16:01
we're likelyprobable to ignoreignorer, even if it's compellingimpérieuses.
374
946000
3000
d'ignorer les preuves qui contredisent notre modèle, même si elles sont flagrantes.
16:04
It has to get very compellingimpérieuses before we'llbien payPayer attentionattention.
375
949000
3000
Elle doivent être vraiment flagrantes avant que nous y prêtions attention.
16:08
NewNouveau modelsdes modèles that extendétendre long periodspériodes of time are harddifficile.
376
953000
2000
Les nouveaux modèles qui durent sur de longues périodes sont difficiles.
16:10
GlobalGlobal warmingéchauffement is a great exampleExemple.
377
955000
2000
Le réchauffement planétaire est un excellent exemple.
16:12
We're terribleterrible
378
957000
2000
Nous sommes très mauvais
16:14
at modelsdes modèles that spanenvergure 80 yearsannées.
379
959000
2000
avec les modèles qui couvrent 80 ans.
16:16
We can do to the nextprochain harvestrécolte.
380
961000
2000
Nous pouvons aller jusqu'à la prochaine récolte.
16:18
We can oftensouvent do untiljusqu'à our kidsdes gamins growcroître up.
381
963000
3000
Nous pouvons souvent aller jusqu'à ce que nos enfants grandissent.
16:21
But 80 yearsannées, we're just not good at.
382
966000
3000
Mais 80 ans, nous ne sommes pas bons avec ça.
16:24
So it's a very harddifficile modelmaquette to acceptAcceptez.
383
969000
3000
C'est donc un modèle très difficile à accepter.
16:27
We can have bothtous les deux modelsdes modèles in our headtête simultaneouslysimultanément,
384
972000
4000
Nous pouvons avoir les deux modèles simultanément en tête,
16:31
right, that kindgentil of problemproblème
385
976000
3000
ou ce genre de problème
16:34
where we're holdingen portant bothtous les deux beliefscroyances togetherensemble,
386
979000
3000
où nous prenons ensemble ces deux choses en quoi nous croyons,
16:37
right, the cognitivecognitif dissonancedissonance.
387
982000
2000
ou la dissonance cognitive.
16:39
EventuallyPar la suite,
388
984000
2000
Au final,
16:41
the newNouveau modelmaquette will replaceremplacer the oldvieux modelmaquette.
389
986000
3000
le nouveau modèle remplacera l'ancien.
16:44
StrongStrong feelingssentiments can createcréer a modelmaquette.
390
989000
3000
Des impressions fortes peuvent créer un modèle.
16:47
SeptemberSeptembre 11thth createdcréé a securitySécurité modelmaquette
391
992000
3000
Le 11 septembre a créé un modèle de sécurité
16:50
in a lot of people'sles gens headstêtes.
392
995000
2000
dans la tête de beaucoup de gens.
16:52
AlsoAussi, personalpersonnel experiencesexpériences with crimela criminalité can do it,
393
997000
3000
Aussi, les expériences personnelles avec le crime peuvent le faire,
16:55
personalpersonnel healthsanté scareeffrayer,
394
1000000
2000
les peurs pour la santé personnelle,
16:57
a healthsanté scareeffrayer in the newsnouvelles.
395
1002000
2000
une alerte de santé dans les informations.
16:59
You'llVous aurez see these calledappelé flashbulbFlash eventsévénements
396
1004000
2000
Vous verrez que les psychiatres
17:01
by psychiatristspsychiatres.
397
1006000
2000
les appellent des évènements flash.
17:03
They can createcréer a modelmaquette instantaneouslyinstantanément,
398
1008000
3000
ils peuvent créer un modèle instantannément,
17:06
because they're very emotiveémotive.
399
1011000
3000
parce qu'ils génèrent beaucoup d'émotion.
17:09
So in the technologicaltechnologique worldmonde,
400
1014000
2000
Donc dans le monde technologique,
17:11
we don't have experienceexpérience
401
1016000
2000
nous n'avons pas l'expérience
17:13
to judgejuge modelsdes modèles.
402
1018000
2000
pour juger les modèles.
17:15
And we relycompter on othersautres. We relycompter on proxiesprocurations.
403
1020000
2000
Et nous comptons sur les autres. Nous comptons sur des intermédiaires.
17:17
I mean, this workstravaux as long as it's to correctcorrect othersautres.
404
1022000
4000
Je veux dire, ça marche tant qu'il s'agit de corriger les autres.
17:21
We relycompter on governmentgouvernement agenciesagences
405
1026000
2000
Nous comptons sur les agences gouvernementales
17:23
to tell us what pharmaceuticalsproduits pharmaceutiques are safesûr.
406
1028000
5000
pour nous dire quels produits pharmaceutiques sont sûrs.
17:28
I flewa volé here yesterdayhier.
407
1033000
2000
Je suis venu en avion ici hier,
17:30
I didn't checkvérifier the airplaneavion.
408
1035000
2000
je n'ai pas vérifié l'avion.
17:32
I relieds’est appuyé on some other groupgroupe
409
1037000
2000
j'ai compté sur un autre groupe
17:34
to determinedéterminer whetherqu'il s'agisse my planeavion was safesûr to flymouche.
410
1039000
3000
pour déterminer si mon avion était sûr pour voler.
17:37
We're here, noneaucun of us fearpeur the rooftoit is going to collapseeffondrer on us,
411
1042000
3000
Nous sommes ici, aucun de nous n'a peur que le toit s'effondre sur nous,
17:40
not because we checkedvérifié,
412
1045000
3000
pas parce que nous avons vérifié,
17:43
but because we're prettyjoli sure
413
1048000
2000
mais parce que nous sommes sûrs
17:45
the buildingbâtiment codescodes here are good.
414
1050000
3000
que les codes de constructions sont bons ici.
17:48
It's a modelmaquette we just acceptAcceptez
415
1053000
2000
C'est un modèle que nous nous contentons d'accepter
17:50
prettyjoli much by faithFoi.
416
1055000
2000
plutôt par foi.
17:52
And that's okay.
417
1057000
3000
Et c'est bien.
17:57
Now, what we want
418
1062000
2000
Maintenant, ce que nous voulons
17:59
is people to get familiarfamilier enoughassez
419
1064000
2000
c'est que les gens se familiarisent suffisemment
18:01
with better modelsdes modèles --
420
1066000
2000
avec de meilleurs modèles --
18:03
have it reflectedreflété in theirleur feelingssentiments --
421
1068000
2000
qui reflètent leurs impressions --
18:05
to allowpermettre them to make securitySécurité trade-offscompromis.
422
1070000
4000
pour leur permettre de faire des échanges de sécurité.
18:09
Now when these go out of whackbattre,
423
1074000
2000
Et quand ils ne collent pas,
18:11
you have two optionsoptions.
424
1076000
2000
vous avez deux options.
18:13
One, you can fixréparer people'sles gens feelingssentiments,
425
1078000
2000
La première, vous pouvez changer les impressions des gens,
18:15
directlydirectement appealcharme to feelingssentiments.
426
1080000
2000
un appel direct aux impressions.
18:17
It's manipulationmanipulation, but it can work.
427
1082000
3000
C'est de la manipulation, mais ça peut marcher.
18:20
The secondseconde, more honesthonnête way
428
1085000
2000
La deuxième, plus honnête,
18:22
is to actuallyréellement fixréparer the modelmaquette.
429
1087000
3000
est en fait de modifier le modèle.
18:26
ChangeChangement happensarrive slowlylentement.
430
1091000
2000
Le changement se produit lentement.
18:28
The smokingfumeur debatedébat tooka pris 40 yearsannées,
431
1093000
3000
Le débat sur le tabac a pris 40 ans,
18:31
and that was an easyfacile one.
432
1096000
3000
et c'était facile.
18:34
Some of this stuffdes trucs is harddifficile.
433
1099000
2000
Certains de ces trucs sont difficiles.
18:36
I mean really thoughbien que,
434
1101000
2000
Je veux dire
18:38
informationinformation seemssemble like our bestmeilleur hopeespérer.
435
1103000
2000
que les informations semblent être notre meilleur espoir.
18:40
And I liedmenti.
436
1105000
2000
Et j'ai menti.
18:42
RememberN’oubliez pas I said feelingsentiment, modelmaquette, realityréalité;
437
1107000
2000
Rappelez-vous quand j'ai dit impression, modèle, réalité.
18:44
I said realityréalité doesn't changechangement. It actuallyréellement does.
438
1109000
3000
J'ai dit que la réalité ne change pas. En fait, si.
18:47
We livevivre in a technologicaltechnologique worldmonde;
439
1112000
2000
Nous vivons dans u monde technologique ;
18:49
realityréalité changeschangements all the time.
440
1114000
3000
la réalité change tout le temps.
18:52
So we mightpourrait have -- for the first time in our speciesespèce --
441
1117000
3000
Il se pourrait donc que nous ayons -- pour la première fois dans l'histoire de notre espèce --
18:55
feelingsentiment chasescourses-poursuites modelmaquette, modelmaquette chasescourses-poursuites realityréalité, reality'sde la réalité movingen mouvement --
442
1120000
3000
l'impression qui court derrière le modèle, le modèle derrière la réalité, la réalité bouge --
18:58
they mightpourrait never catchcapture up.
443
1123000
3000
ils pourraient ne jamais se rattrapper.
19:02
We don't know.
444
1127000
2000
Nous ne le savons pas.
19:04
But in the long-termlong terme,
445
1129000
2000
Mais sur le long terme,
19:06
bothtous les deux feelingsentiment and realityréalité are importantimportant.
446
1131000
3000
l'impression et la réalité sont toutes deux importantes.
19:09
And I want to closeFermer with two quickrapide storieshistoires to illustrateillustrer this.
447
1134000
3000
Et je veut conclure avec deux histoires courtes pour illustrer cela.
19:12
1982 -- I don't know if people will rememberrappelles toi this --
448
1137000
2000
1982 -- je ne sais pas si les gens se souviendront de ça --
19:14
there was a shortcourt epidemicépidémie
449
1139000
3000
il y a eu un épidémie de courte durée
19:17
of TylenolTylenol poisoningsempoisonnements in the UnitedUnie StatesÉtats.
450
1142000
2000
d'empoisonnements au Tylenol aux Etats-Unis.
19:19
It's a horrifichorrible storyrécit. SomeoneQuelqu'un tooka pris a bottlebouteille of TylenolTylenol,
451
1144000
3000
C'est une histoire horrible. Quelqu'un a pris une bouteille de Tylenol,
19:22
put poisonpoison in it, closedfermé it up, put it back on the shelfplateau.
452
1147000
3000
a mis du poison dedans, l'a refermée, l'a remise dans le rayon.
19:25
SomeoneQuelqu'un elseautre boughtacheté it and dieddécédés.
453
1150000
2000
Quelqu'un d'autre l'a acheté et est mort.
19:27
This terrifiedterrifié people.
454
1152000
2000
Ça a terrifié les gens.
19:29
There were a couplecouple of copycatCopycat attacksattaques.
455
1154000
2000
Il y a eu deux ou trois attaques par des imitateurs.
19:31
There wasn'tn'était pas any realréal riskrisque, but people were scaredeffrayé.
456
1156000
3000
Il n'y avait pas vraiment de risque réel, mais les gens étaient terrifiés.
19:34
And this is how
457
1159000
2000
Et c'est comme ça
19:36
the tamper-proofinviolable drugdrogue industryindustrie was inventeda inventé.
458
1161000
2000
que l'industrie du médicament scellé a été inventée.
19:38
Those tamper-proofinviolable capscasquettes, that camevenu from this.
459
1163000
2000
Ces bouchons scellés, c'est de là qu'ils viennent.
19:40
It's completeAchevée securitySécurité theaterthéâtre.
460
1165000
2000
C'est du théâtre de sécurité complet.
19:42
As a homeworkdevoirs assignmentaffectation, think of 10 waysfaçons to get around it.
461
1167000
2000
Et en guise de devoir à la maison, réfléchissez à 10 manières de le contourner.
19:44
I'll give you one, a syringeseringue.
462
1169000
3000
Je vous en donne un, une seringue.
19:47
But it madefabriqué people feel better.
463
1172000
3000
Mais ça a rassuré les gens.
19:50
It madefabriqué theirleur feelingsentiment of securitySécurité
464
1175000
2000
Ça a rapproché leur impression de sécurité
19:52
more matchrencontre the realityréalité.
465
1177000
2000
de la réalité.
19:54
Last storyrécit, a fewpeu yearsannées agodepuis, a friendami of minemien gavea donné birthnaissance.
466
1179000
3000
La dernière histoire, il y a quelques années, une de mes amies a eu un bébé.
19:57
I visitvisite her in the hospitalhôpital.
467
1182000
2000
Je suis allé la voir à l'hôpital.
19:59
It turnsse tourne out when a baby'sbébé bornnée now,
468
1184000
2000
Il s'avère que maintenant, quand un bébé naît,
20:01
they put an RFIDRFID braceletbracelet on the babybébé,
469
1186000
2000
ils lui mettent un bracelet avec une puce RFID,
20:03
put a correspondingcorrespondant one on the mothermère,
470
1188000
2000
en mettent un qui correspond à la mère,
20:05
so if anyonen'importe qui other than the mothermère takes the babybébé out of the maternitymaternité wardquartier,
471
1190000
2000
pour que si quelqu'un d'autre que la mère emmène le bébé hors de la maternité,
20:07
an alarmalarme goesva off.
472
1192000
2000
un alarme se déclenche.
20:09
I said, "Well, that's kindgentil of neatsoigné.
473
1194000
2000
J'ai dit, "C'est chouette.
20:11
I wondermerveille how rampantrampant babybébé snatchingl’arraché is
474
1196000
2000
Je me demande à quel point l'enlèvement de bébés est en augmentation
20:13
out of hospitalshôpitaux."
475
1198000
2000
en dehors des hôpitaux."
20:15
I go home, I look it up.
476
1200000
2000
Je rentre chez moi, je vérifie.
20:17
It basicallyen gros never happensarrive.
477
1202000
2000
Ça n'arrive quasiment jamais.
20:19
But if you think about it,
478
1204000
2000
Mais si vous y réfléchissez,
20:21
if you are a hospitalhôpital,
479
1206000
2000
si vous êtes un hôpital,
20:23
and you need to take a babybébé away from its mothermère,
480
1208000
2000
et que nous devez enlever un bébé à sa mère,
20:25
out of the roomchambre to runcourir some teststests,
481
1210000
2000
le sortir de la pièce pour faire des examens,
20:27
you better have some good securitySécurité theaterthéâtre,
482
1212000
2000
il vaut mieux que vous ayez un bon théâtre de sécurité,
20:29
or she's going to ripdéchirure your armbras off.
483
1214000
2000
ou elle va vous arracher le bras.
20:31
(LaughterRires)
484
1216000
2000
(Rires)
20:33
So it's importantimportant for us,
485
1218000
2000
C'est donc important pour nous,
20:35
those of us who designconception securitySécurité,
486
1220000
2000
qui concevons des systèmes de sécurité,
20:37
who look at securitySécurité policypolitique,
487
1222000
3000
qui examinons la politique de sécurité,
20:40
or even look at publicpublic policypolitique
488
1225000
2000
ou même la politique publique
20:42
in waysfaçons that affectaffecter securitySécurité.
489
1227000
2000
de manières qui affectent la sécurité.
20:44
It's not just realityréalité; it's feelingsentiment and realityréalité.
490
1229000
3000
Il ne s'agit pas que de sécurité, il s'agit d'impression et de réalité.
20:47
What's importantimportant
491
1232000
2000
Ce qui est important
20:49
is that they be about the sameMême.
492
1234000
2000
est qu'elles soient en gros équivalentes,
20:51
It's importantimportant that, if our feelingssentiments matchrencontre realityréalité,
493
1236000
2000
il est important que, si nos impressions collent à la réalité,
20:53
we make better securitySécurité trade-offscompromis.
494
1238000
2000
nous faisons de meilleurs échanges de sécurité.
20:55
Thank you.
495
1240000
2000
Merci.
20:57
(ApplauseApplaudissements)
496
1242000
2000
(Applaudissements)
Translated by Elisabeth Buffard
Reviewed by Timothée Parrique

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee