ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Bruce Schneier: El miratge de la seguretat

Filmed:
958,315 views

La sensació de seguretat i la realitat de seguretat no sempre van junts, afirma en Bruce Schneier, expert en seguretat informàtica. A la TEDxPSU, explica per què gastem milers de milions per protegir-nos dels riscos que apareixen a les notícies (com el teatre de seguretat que es presenta a l'aeroport local) i, en canvi, ignorem riscos molt més probables. També ens explica com podem trencar aquest patró.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securityseguretat is two differentdiferent things:
0
0
2000
La seguretat és dues coses diferents:
00:17
it's a feelingsensació, and it's a realityrealitat.
1
2000
2000
és una sensació i és una realitat.
00:19
And they're differentdiferent.
2
4000
2000
I són diferents.
00:21
You could feel securesegura
3
6000
2000
Ens podem sentir segurs
00:23
even if you're not.
4
8000
2000
fins i tot quan no és així.
00:25
And you can be securesegura
5
10000
2000
I podem ser-ho,
00:27
even if you don't feel it.
6
12000
2000
fins i tot quan no ho sentim.
00:29
Really, we have two separateseparat conceptsconceptes
7
14000
2000
Tenim dos conceptes separats
00:31
mappedassignada ontosobre the samemateix wordparaula.
8
16000
2000
dins la mateixa paraula.
00:33
And what I want to do in this talk
9
18000
2000
El que vull fer en aquesta xerrada
00:35
is to splitdividir them aparta part --
10
20000
2000
és separar-los,
00:37
figuringfigurant out when they divergedivergeix
11
22000
2000
descobrint quan divergeixen
00:39
and how they convergeconvergeixen.
12
24000
2000
and com convergeixen.
00:41
And languagellenguatge is actuallyen realitat a problemproblema here.
13
26000
2000
I la llengua és un problema real en aquest cas.
00:43
There aren'tno ho són a lot of good wordsparaules
14
28000
2000
No hi ha gaires paraules
00:45
for the conceptsconceptes we're going to talk about.
15
30000
3000
pels conceptes dels quals parlarem.
00:48
So if you look at securityseguretat
16
33000
2000
Si mirem la seguretat
00:50
from economiceconòmic termstermes,
17
35000
2000
en termes econòmics,
00:52
it's a trade-offintercanvi.
18
37000
2000
es tracta d'un intercanvi.
00:54
EveryCada time you get some securityseguretat,
19
39000
2000
Cada vegada que aconseguim certa seguretat,
00:56
you're always tradingnegociació off something.
20
41000
2000
estem sacrificant quelcom.
00:58
WhetherSi this is a personalpersonal decisiondecisió --
21
43000
2000
Tant si es tracta d'una decisió personal,
01:00
whetherja sigui you're going to installinstal·lar a burglarantirobatori alarmalarma in your home --
22
45000
2000
per exemple, instal·lar una alarma contra lladres a casa,
01:02
or a nationalnacional decisiondecisió -- where you're going to invadeenvair some foreignestranger countrypaís --
23
47000
3000
o una decisió nacional, envair un altre país;
01:05
you're going to tradecomerç off something,
24
50000
2000
sacrificarem alguna cosa:
01:07
eithertampoc moneydiners or time, convenienceconveniència, capabilitiescapacitats,
25
52000
3000
o diners o temps, comoditat, capacitats,
01:10
maybe fundamentalfonamental libertiesllibertats.
26
55000
3000
potser llibertats fonamentals.
01:13
And the questionpregunta to askpreguntar when you look at a securityseguretat anything
27
58000
3000
La pregunta que hem de fer-nos quan estem davant d'una cosa relacionada amb la seguretat
01:16
is not whetherja sigui this makesfa us safermés segur,
28
61000
3000
no és si ens fa sentir més segurs,
01:19
but whetherja sigui it's worthval la pena the trade-offintercanvi.
29
64000
3000
sinó si val la pena el sacrifici.
01:22
You've heardescoltat in the pastpassat severaldiversos yearsanys,
30
67000
2000
Heu sentit a dir en els últims anys
01:24
the worldmón is safermés segur because SaddamSaddam HusseinHussein is not in powerpoder.
31
69000
2000
que el món és un lloc més segur perquè en Saddam Hussein no és al poder.
01:26
That mightpotser be trueveritat, but it's not terriblyterriblement relevantrellevant.
32
71000
3000
Potser és cert, però no és tan rellevant.
01:29
The questionpregunta is, was it worthval la pena it?
33
74000
3000
La pregunta és: va valer la pena?
01:32
And you can make your ownpropi decisiondecisió,
34
77000
3000
Podeu prendre les vostres decisions
01:35
and then you'llho faràs decidedecideixi whetherja sigui the invasioninvasió was worthval la pena it.
35
80000
2000
i després decidir si la invasió va valer o no la pena.
01:37
That's how you think about securityseguretat --
36
82000
2000
Així és com es pensa sobre seguretat;
01:39
in termstermes of the trade-offintercanvi.
37
84000
2000
en termes de sacrifici.
01:41
Now there's oftensovint no right or wrongmal here.
38
86000
3000
En moltes ocasions, no hi ha bé o malament.
01:44
Some of us have a burglarantirobatori alarmalarma systemsistema at home,
39
89000
2000
Algunes persones tenen una alarma contra lladres a casa
01:46
and some of us don't.
40
91000
2000
i d'altres no en tenen.
01:48
And it'llho farà dependdepenen on where we liveen directe,
41
93000
2000
Depèn d'on viuen,
01:50
whetherja sigui we liveen directe alonesol or have a familyfamília,
42
95000
2000
de si tenen o no família,
01:52
how much coolguai stuffcoses we have,
43
97000
2000
de la quantitat de coses valuoses que tenen,
01:54
how much we're willingdisposat to acceptacceptar
44
99000
2000
de fins a quin punt estan disposats a acceptar
01:56
the riskrisc of theftrobatori.
45
101000
2000
el risc de que els entrin a casa.
01:58
In politicspolítica alsotambé,
46
103000
2000
En política,
02:00
there are differentdiferent opinionsopinions.
47
105000
2000
hi ha diferents opinions.
02:02
A lot of timestemps, these trade-offscompensacions
48
107000
2000
Moltes vegades, aquests sacrificis
02:04
are about more than just securityseguretat,
49
109000
2000
van més enllà de la seguretat:
02:06
and I think that's really importantimportant.
50
111000
2000
crec que això és realment important.
02:08
Now people have a naturalnatural intuitionintuïció
51
113000
2000
La gent té una intuició natural
02:10
about these trade-offscompensacions.
52
115000
2000
per aquests sacrificis.
02:12
We make them everycada day --
53
117000
2000
Els fem cada dia;
02:14
last night in my hotelhotel roomhabitació,
54
119000
2000
ahir a la nit a l'habitació de l'hotel
02:16
when I decidedva decidir to double-lockPany doble the doorporta,
55
121000
2000
quan vaig decidir tancar la porta amb doble clau,
02:18
or you in your carcotxe when you droveconduir here,
56
123000
2000
o vosaltres al cotxe quan conduíeu per arribar aquí,
02:20
when we go eatmenjar lunchdinar
57
125000
2000
quan anem a dinar
02:22
and decidedecideixi the food'sde menjar not poisonverí and we'll eatmenjar it.
58
127000
3000
i decidim que el menjar no està en males condicions i ens el mengem.
02:25
We make these trade-offscompensacions again and again,
59
130000
2000
Prenem aquest tipus de decisions constantment,
02:27
multiplemúltiple timestemps a day.
60
132000
2000
moltes vegades al dia.
02:29
We oftensovint won'tno ho farà even noticeavís them.
61
134000
2000
Sovint ni tan sols ens adonem.
02:31
They're just partpart of beingser aliveviu; we all do it.
62
136000
2000
Forma part de ser viu; tothom ho fa.
02:33
EveryCada speciesespècie does it.
63
138000
3000
Totes les espècies ho fan.
02:36
ImagineImaginar a rabbitconill in a fieldcamp, eatingmenjant grassherba,
64
141000
2000
Imagineu-vos un conill al camp que està menjant
02:38
and the rabbit'sde conill going to see a foxguineu.
65
143000
3000
i que veu una guineu.
02:41
That rabbitconill will make a securityseguretat trade-offintercanvi:
66
146000
2000
El conill pendrà un decisió de seguretat:
02:43
"Should I stayquedar-se, or should I fleefugir?"
67
148000
2000
"Em quedo o me'n vaig?"
02:45
And if you think about it,
68
150000
2000
I si ho penseu bé,
02:47
the rabbitsconills that are good at makingelaboració that trade-offintercanvi
69
152000
3000
els conills que són bons prenent aquest tipus de decisió
02:50
will tendtendeix to liveen directe and reproducereproduir,
70
155000
2000
tendeixen a viure i reproduir-se
02:52
and the rabbitsconills that are baddolent at it
71
157000
2000
i els que no ho són
02:54
will get eatenmenjat or starvefam.
72
159000
2000
moriran de gana o bé se'ls menjaran.
02:56
So you'dho faria think
73
161000
2000
Seria d'esperar
02:58
that us, as a successfulreeixit speciesespècie on the planetplaneta --
74
163000
3000
que, com espècie triomfadora del planeta,
03:01
you, me, everybodytothom --
75
166000
2000
vosaltres, jo, tothom
03:03
would be really good at makingelaboració these trade-offscompensacions.
76
168000
3000
siguéssim realment bons a l'hora de prendre aquestes decisions.
03:06
YetEncara it seemssembla, again and again,
77
171000
2000
Per contra, sembla ser
03:08
that we're hopelesslyirremeiablement baddolent at it.
78
173000
3000
que som terriblement dolents.
03:11
And I think that's a fundamentallyfonamentalment interestinginteressant questionpregunta.
79
176000
3000
Crec que és una qüestió realment interessant.
03:14
I'll give you the shortcurt answerresposta.
80
179000
2000
Us donaré la resposta curta.
03:16
The answerresposta is, we respondrespon to the feelingsensació of securityseguretat
81
181000
2000
La resposta és que responem a la sensació de seguretat
03:18
and not the realityrealitat.
82
183000
3000
i no pas a la realitat.
03:21
Now mostla majoria of the time, that worksfunciona.
83
186000
3000
La majoria de vegades, funciona.
03:25
MostMajoria of the time,
84
190000
2000
La majoria de vegades,
03:27
feelingsensació and realityrealitat are the samemateix.
85
192000
3000
sensació i realitat són el mateix.
03:30
CertainlyCertament that's trueveritat
86
195000
2000
Certament, això és veritat
03:32
for mostla majoria of humanhumà prehistoryPrehistòria.
87
197000
3000
en gran part de la prehistòria humana.
03:35
We'veHem developeddesenvolupat this abilityhabilitat
88
200000
3000
Hem desenvolupat aquesta habilitat
03:38
because it makesfa evolutionaryevolutiu sensesentit.
89
203000
2000
perquè té sentit evolutiu.
03:40
One way to think of it
90
205000
2000
Una manera de veure-ho
03:42
is that we're highlymolt optimizedoptimitzat
91
207000
2000
és que estem realment optimitzats
03:44
for riskrisc decisionsdecisions
92
209000
2000
per prendre decisions sobre riscos propis
03:46
that are endemicendèmiques to livingvivent in smallpetit familyfamília groupsgrups
93
211000
3000
de la gent que viu en grups familiars reduïts
03:49
in the EastEst AfricanAfricà highlandsterres altes in 100,000 B.C.
94
214000
3000
a les terres altes de l'Àfrica oriental l'any 100.000 a.C.
03:52
2010 NewNou YorkYork, not so much.
95
217000
3000
però no tant per Nova York l'any 2010.
03:56
Now there are severaldiversos biasesbiaixos in riskrisc perceptionpercepció.
96
221000
3000
Hi ha diversos biaixos en la percepció de riscos.
03:59
A lot of good experimentsexperiments in this.
97
224000
2000
Hi ha molts experiments bons sobre això.
04:01
And you can see certaincert biasesbiaixos that come up again and again.
98
226000
3000
I es veu com certs biaixos apareixen de forma constant.
04:04
So I'll give you fourquatre.
99
229000
2000
Us en donaré quatre.
04:06
We tendtendeix to exaggerateexagerar spectacularespectacular and rarepoc comú risksriscos
100
231000
3000
Tenim tendència a exagerar riscos extraordinaris i poc freqüents
04:09
and downplayrestar commoncomú risksriscos --
101
234000
2000
i a minimitzar els riscos corrents:
04:11
so flyingvolant versuscontra drivingconduir.
102
236000
3000
volar enfront conduir.
04:14
The unknowndesconeguda is perceivedpercep
103
239000
2000
Allò desconegut es percep
04:16
to be riskierels than the familiarfamiliar.
104
241000
3000
més arriscat que allò que és familiar.
04:20
One exampleexemple would be,
105
245000
2000
Per exemple,
04:22
people fearpor kidnappingsegrest by strangersdesconeguts
106
247000
3000
les persones tener por de que els segresti un desconegut,
04:25
when the datadades supportssuports kidnappingsegrest by relativesfamiliars is much more commoncomú.
107
250000
3000
però hi ha dades que demostren que és molt més comú que el segrest el faci un familiar.
04:28
This is for childrennens.
108
253000
2000
Això pel que fa els nens.
04:30
ThirdTercera, personifiedpersonificada risksriscos
109
255000
3000
En tercer lloc, els riscos personificats
04:33
are perceivedpercep to be greatermajor than anonymousanònim risksriscos --
110
258000
3000
es valoren més que els riscs anònims.
04:36
so BinGalleda LadenCarregat is scariermés por because he has a namenom.
111
261000
3000
Així, Bin Laden fa més por perquè té nom.
04:39
And the fourthquart
112
264000
2000
I, per últim,
04:41
is people underestimatesubestimar risksriscos
113
266000
2000
la gent infravalora els riscos
04:43
in situationssituacions they do controlcontrol
114
268000
2000
en situacions on tenen el control
04:45
and overestimatesobrevalorar them in situationssituacions they don't controlcontrol.
115
270000
4000
i els sobreestima en situacions on no el tenen.
04:49
So onceun cop you take up skydivingparacaigudisme or smokingfumar,
116
274000
3000
Així doncs, quan comencem a fumar o a fer paracaigudisme,
04:52
you downplayrestar the risksriscos.
117
277000
2000
minimitzem els riscos.
04:54
If a riskrisc is thrustempenta upondamunt you -- terrorismterrorisme was a good exampleexemple --
118
279000
3000
Si se'ns imposa un risc (el terrorisme és un bon exemple),
04:57
you'llho faràs overplayoverplay it because you don't feel like it's in your controlcontrol.
119
282000
3000
l'exagerarem perquè no tenim la sensació de tenir-ne el control.
05:02
There are a bunchgrup of other of these biasesbiaixos, these cognitivecognitiu biasesbiaixos,
120
287000
3000
Hi ha un grapat d'altres biaixos cognitius
05:05
that affectafectar our riskrisc decisionsdecisions.
121
290000
3000
que afecten la pressa de decisions de riscos.
05:08
There's the availabilityDisponibilitat heuristicheurístic,
122
293000
2000
Està l'heurística de la disponibilitat,
05:10
whichquin basicallybàsicament meanssignifica
123
295000
2000
que significa
05:12
we estimateestimació the probabilityprobabilitat of something
124
297000
3000
que s'estima la probabilitat d'alguna cosa
05:15
by how easyfàcil it is to bringportar instancesinstàncies of it to mindment.
125
300000
4000
segons com sigui de fàcil trobar-ne exemples.
05:19
So you can imagineimaginar how that worksfunciona.
126
304000
2000
Sabeu com funciona.
05:21
If you hearescoltar a lot about tigertigre attacksatacs, there musthaver de be a lot of tigersTigres around.
127
306000
3000
Si sentim molt a parlar d'atacs de tigre, hi ha d'haver molts tigres a prop.
05:24
You don't hearescoltar about lionLleó attacksatacs, there aren'tno ho són a lot of lionslleons around.
128
309000
3000
Si no sentim a parlar d'atacs de lleó, és que no n'hi ha gaires a prop.
05:27
This worksfunciona untilfins a you inventinventar newspapersdiaris.
129
312000
3000
Això va funcionar fins que es van inventir els diaris.
05:30
Because what newspapersdiaris do
130
315000
2000
El que fan els diaris
05:32
is they repeatrepetir again and again
131
317000
2000
és repetir una vegada i una altra
05:34
rarepoc comú risksriscos.
132
319000
2000
els riscos poc freqüents.
05:36
I tell people, if it's in the newsnotícies, don't worrypreocupació about it.
133
321000
2000
Jo sovint dic: "Si és als diaris, no t'hi preocupis".
05:38
Because by definitiondefinició,
134
323000
2000
Per definició,
05:40
newsnotícies is something that almostgairebé never happenspassa.
135
325000
3000
una noticia és quelcom que gairebé mai passa.
05:43
(LaughterRiure)
136
328000
2000
(Rialles)
05:45
When something is so commoncomú, it's no longermés llarg newsnotícies --
137
330000
3000
Quan una cosa és freqüent, deixa de ser notícia;
05:48
carcotxe crasheses bloqueja, domesticintern violenceviolència --
138
333000
2000
accidents de cotxe, violència de gènere:
05:50
those are the risksriscos you worrypreocupació about.
139
335000
3000
aquests són els riscos que us han de preocupar.
05:53
We're alsotambé a speciesespècie of storytellersnarradors.
140
338000
2000
Som també una espècie de grans narradors.
05:55
We respondrespon to storieshistòries more than datadades.
141
340000
3000
Responem més a les històries que no pas a les dades.
05:58
And there's some basicbàsic innumeracyinnumeracy going on.
142
343000
2000
Estem incapacitats per a l'aritmètica bàsica.
06:00
I mean, the jokebroma "One, Two, ThreeTres, ManyMolts" is kindamable of right.
143
345000
3000
L'acudit "Un, dos, tres, molts" és encertat.
06:03
We're really good at smallpetit numbersnúmeros.
144
348000
3000
Som bons amb números petits.
06:06
One mangomànec, two mangoesmànecs, threetres mangoesmànecs,
145
351000
2000
Una poma, dues pomes, tres pomes,
06:08
10,000 mangoesmànecs, 100,000 mangoesmànecs --
146
353000
2000
10.000 pomes, 100.000 pomes...
06:10
it's still more mangoesmànecs you can eatmenjar before they rotpodridura.
147
355000
3000
són moltes més pomes de les que podem menjar abans no es facin malbé.
06:13
So one halfla meitat, one quarterquart, one fifthcinquè -- we're good at that.
148
358000
3000
Som bons quan es tracta d'un mig, un quart, una cinquena part.
06:16
One in a millionmilions, one in a billionmil milions --
149
361000
2000
un entre un milió, un entre deu mil milions,
06:18
they're bothtots dos almostgairebé never.
150
363000
3000
no passen gaire sovint.
06:21
So we have troubleproblemes with the risksriscos
151
366000
2000
Tenim problemes amb els riscos
06:23
that aren'tno ho són very commoncomú.
152
368000
2000
que no són gaire freqüents.
06:25
And what these cognitivecognitiu biasesbiaixos do
153
370000
2000
El que fan aquests biaixos cognitius
06:27
is they actactuar as filtersfiltres betweenentre us and realityrealitat.
154
372000
3000
és fer de filtres entre nosaltres i la realitat.
06:30
And the resultresultat
155
375000
2000
El resultat
06:32
is that feelingsensació and realityrealitat get out of whackcolpejar,
156
377000
2000
és que sensació i realitat es desequilibren,
06:34
they get differentdiferent.
157
379000
3000
són diferents.
06:37
Now you eithertampoc have a feelingsensació -- you feel more securesegura than you are.
158
382000
3000
O bé, teniu la sensació de sentir-vos més segurs del que sou realment
06:40
There's a falsefals sensesentit of securityseguretat.
159
385000
2000
i es tracta d'un fals sentiment de seguretat;
06:42
Or the other way,
160
387000
2000
o bé, al contrari,
06:44
and that's a falsefals sensesentit of insecurityinseguretat.
161
389000
2000
i és una falsa sensació d'inseguretat.
06:46
I writeescriure a lot about "securityseguretat theaterteatre,"
162
391000
3000
Escric sovint sobre "el teatre de la seguretat",
06:49
whichquin are productsproductes that make people feel securesegura,
163
394000
3000
que són productes que fan que la gent se senti segura,
06:52
but don't actuallyen realitat do anything.
164
397000
2000
però que no fan res en realitat.
06:54
There's no realreal wordparaula for stuffcoses that makesfa us securesegura,
165
399000
2000
No hi ha cap paraula realment per anomenar les coses que es fan sentir segurs,
06:56
but doesn't make us feel securesegura.
166
401000
2000
però que no fan res per donar-nos aquesta seguretat.
06:58
Maybe it's what the CIA'sDe CIA supposedsuposat to do for us.
167
403000
3000
Potser és el que se suposa que ha de fer la CIA.
07:03
So back to economicseconomia.
168
408000
2000
Però tornem al tema econòmic.
07:05
If economicseconomia, if the marketmercat, drivesunitats securityseguretat,
169
410000
4000
Si l'economia, si el mercat, dóna seguretat,
07:09
and if people make trade-offscompensacions
170
414000
2000
i si la gent fa sacrificis
07:11
basedbasat on the feelingsensació of securityseguretat,
171
416000
3000
basant-se en la sensació de seguretat,
07:14
then the smartintel·ligent thing for companiesempreses to do
172
419000
2000
aleshores el que les empreses han de fer
07:16
for the economiceconòmic incentivesincentius
173
421000
2000
d'acord amb l'incentiu econòmic
07:18
are to make people feel securesegura.
174
423000
3000
és fer que la gent se senti segura.
07:21
And there are two waysmaneres to do this.
175
426000
3000
Hi ha dues formes de fer-ho.
07:24
One, you can make people actuallyen realitat securesegura
176
429000
2000
D'una banda, es pot fer que la gent sigui segura de debó
07:26
and hopeesperança they noticeavís.
177
431000
2000
i esperar que se n'adonin.
07:28
Or two, you can make people just feel securesegura
178
433000
3000
O bé, fer que la gent se senti segura
07:31
and hopeesperança they don't noticeavís.
179
436000
3000
i esperar que no se n'adonin.
07:35
So what makesfa people noticeavís?
180
440000
3000
Què fa que la gent se n'adoni?
07:38
Well a coupleparella of things:
181
443000
2000
Un parell de coses:
07:40
understandingcomprensió of the securityseguretat,
182
445000
2000
entendre la seguretat,
07:42
of the risksriscos, the threatsamenaces,
183
447000
2000
els riscos, les amenaces,
07:44
the countermeasurescontramesures, how they work.
184
449000
3000
les contramesures, com funciona tot això.
07:47
But if you know stuffcoses,
185
452000
2000
Si sabem coses,
07:49
you're more likelyprobablement to have your feelingssentiments matchpartit realityrealitat.
186
454000
3000
és més probable que les nostres sensacions i la realitat siguin iguals.
07:52
EnoughProu realreal worldmón examplesexemples helpsajuda.
187
457000
3000
Es veurà més clar amb exemples.
07:55
Now we all know the crimecrim ratetaxa in our neighborhoodbarri,
188
460000
3000
Tots sabem fins a quin punt el nostre barri és segur,
07:58
because we liveen directe there, and we get a feelingsensació about it
189
463000
3000
perquè hi vivim i tenim una sensació de la seguretat
08:01
that basicallybàsicament matchespartits realityrealitat.
190
466000
3000
que bàsicament és la realitat.
08:04
SecuritySeguretat theater'sde teatre exposedexposat
191
469000
3000
El teatre de la seguretat queda al descobert
08:07
when it's obviousobvi that it's not workingtreball properlycorrectament.
192
472000
3000
quan està clar que no funciona de la manera correcta.
08:10
Okay, so what makesfa people not noticeavís?
193
475000
4000
I bé, què fa que la gent no se n'adoni?
08:14
Well, a poorpobre understandingcomprensió.
194
479000
2000
Doncs, un entendiment limitat.
08:16
If you don't understandentendre the risksriscos, you don't understandentendre the costscostos,
195
481000
3000
Si no s'entenen els riscos, no s'entenen els costos,
08:19
you're likelyprobablement to get the trade-offintercanvi wrongmal,
196
484000
2000
les probabilitats de que el sacrifici no sigui correcte augmenten
08:21
and your feelingsensació doesn't matchpartit realityrealitat.
197
486000
3000
i la sensació no és igual a la realitat.
08:24
Not enoughsuficient examplesexemples.
198
489000
2000
No són prou exemples.
08:26
There's an inherentinherent problemproblema
199
491000
2000
Hi ha un problema inherent
08:28
with lowbaix probabilityprobabilitat eventsesdeveniments.
200
493000
2000
amb els aconteixements de probabilitat baixa.
08:30
If, for exampleexemple,
201
495000
2000
Si, per exemple,
08:32
terrorismterrorisme almostgairebé never happenspassa,
202
497000
2000
gairebé mai hi ha actes terroristes,
08:34
it's really harddur to judgejutge
203
499000
2000
és molt difícil de valorar
08:36
the efficacyeficàcia of counter-terroristlluita contra el terrorisme measuresmesures.
204
501000
3000
l'eficàcia de les mesures antiterroriestes.
08:40
This is why you keep sacrificingsacrificar virginsVerges,
205
505000
3000
És per això que seguim sacrificant verges
08:43
and why your unicornUnicorn defensesdefenses are workingtreball just great.
206
508000
3000
i que ens funcionin tan bé les defenses d'unicorn.
08:46
There aren'tno ho són enoughsuficient examplesexemples of failuresfracassos.
207
511000
3000
No hi ha prou exemples de fracasos.
08:50
AlsoTambé, feelingssentiments that are cloudingNuvolositat the issuesproblemes --
208
515000
3000
També hi ha sensacions que ennuvolen els temes;
08:53
the cognitivecognitiu biasesbiaixos I talkedva parlar about earlierabans,
209
518000
2000
els biaixos cognitius de què us parlava abans,
08:55
fearstemors, folkfolk beliefscreences,
210
520000
3000
pors, creences populars,
08:58
basicallybàsicament an inadequateinsuficient modelmodel of realityrealitat.
211
523000
3000
fonamentalment un model de realitat inadequat.
09:02
So let me complicatecomplicar things.
212
527000
3000
Permetèu-me que compliqui les coses.
09:05
I have feelingsensació and realityrealitat.
213
530000
2000
Tinc la sensació i la realitat.
09:07
I want to addafegir a thirdtercer elementelement. I want to addafegir modelmodel.
214
532000
3000
Vull afegir un altre element. El model.
09:10
FeelingSensació and modelmodel in our headcap,
215
535000
2000
La sensació i el model estan a la nostra ment,
09:12
realityrealitat is the outsidefora worldmón.
216
537000
2000
però la realitat és el món exterior.
09:14
It doesn't changecanviar; it's realreal.
217
539000
3000
No canvia; és real.
09:17
So feelingsensació is basedbasat on our intuitionintuïció.
218
542000
2000
La sensació es basa en la intuició.
09:19
ModelModel de is basedbasat on reasonraó.
219
544000
2000
El model es basa en la raó.
09:21
That's basicallybàsicament the differencediferència.
220
546000
3000
Aquesta és bàsicament la diferència.
09:24
In a primitiveprimitiu and simplesenzill worldmón,
221
549000
2000
En un món primitiu i simple,
09:26
there's really no reasonraó for a modelmodel
222
551000
3000
no hi ha cap motiu per a que hi hagi un model
09:29
because feelingsensació is closea prop to realityrealitat.
223
554000
3000
perquè la sensació està molt a prop de la realitat.
09:32
You don't need a modelmodel.
224
557000
2000
No és necessari cap model.
09:34
But in a modernmodern and complexcomplex worldmón,
225
559000
2000
Però en un món modern i complex,
09:36
you need modelsmodels
226
561000
2000
els models són necessaris
09:38
to understandentendre a lot of the risksriscos we facecara.
227
563000
3000
per entendre molts dels riscos als que ens enfrontem.
09:42
There's no feelingsensació about germsgèrmens.
228
567000
2000
No hi ha cap sensació sobre els gèrmens.
09:44
You need a modelmodel to understandentendre them.
229
569000
3000
És necessari tenir un model per entendre'ls.
09:47
So this modelmodel
230
572000
2000
El model
09:49
is an intelligentintel · ligent representationrepresentació of realityrealitat.
231
574000
3000
és una representació intel·ligent de la realitat.
09:52
It's, of coursecurs, limitedlimitat by scienceciència,
232
577000
3000
És obvi que està limitat per la ciència,
09:55
by technologytecnologia.
233
580000
2000
per la tecnologia.
09:57
We couldn'tno podia have a germgermen theoryteoria of diseasemalaltia
234
582000
3000
No era possible tenir una teoria d'enfermetat causada per gèrmens
10:00
before we inventedinventat the microscopemicroscopi to see them.
235
585000
3000
abans de que s'inventés el microscopi que ens permetria veure'ls.
10:04
It's limitedlimitat by our cognitivecognitiu biasesbiaixos.
236
589000
3000
Està limitat pels biaixos cognitius.
10:07
But it has the abilityhabilitat
237
592000
2000
Té l'habilitat
10:09
to overrideinvalidació our feelingssentiments.
238
594000
2000
d'anular les sensacions.
10:11
Where do we get these modelsmodels? We get them from othersaltres.
239
596000
3000
D'on treiem els models? D'altres llocs.
10:14
We get them from religionreligió, from culturecultura,
240
599000
3000
De la religió, la cultura,
10:17
teachersprofessors, eldersancians.
241
602000
2000
els professors, les persones grans.
10:19
A coupleparella yearsanys agofa,
242
604000
2000
Fa un parell d'anys,
10:21
I was in SouthSud AfricaÀfrica on safariSafari.
243
606000
2000
vaig fer un safari a Sudàfrica.
10:23
The trackerrastrejador I was with grewva créixer up in KrugerKruger NationalNacional ParkParc.
244
608000
3000
El rastrejador amb qui anava va críxer al Kruger National Park.
10:26
He had some very complexcomplex modelsmodels of how to survivesobreviure.
245
611000
3000
Tenia alguns models força complexos sobre com sobreviure.
10:29
And it dependeddepenia on if you were attackedatacat
246
614000
2000
En funció de si t'atacava
10:31
by a lionLleó or a leopardLleopard or a rhinorinoceront or an elephantelefant --
247
616000
2000
un lleó, un lleopard, un rinoceront o un elefant,
10:33
and when you had to runcorrer away, and when you couldn'tno podia runcorrer away, and when you had to climbescalar a treearbre --
248
618000
3000
s'havia de córrer o enfilar-se a un arbre
10:36
when you could never climbescalar a treearbre.
249
621000
2000
o no enfilar-s'hi mai.
10:38
I would have diedva morir in a day,
250
623000
3000
Jo no hauria sobreviscut ni un dia,
10:41
but he was bornnascut there,
251
626000
2000
però ell va néixer allà
10:43
and he understoodentès how to survivesobreviure.
252
628000
2000
i entenia com sobreviure-hi.
10:45
I was bornnascut in NewNou YorkYork CityCiutat.
253
630000
2000
Jo vaig néixer a Nova York.
10:47
I could have takenpresa him to NewNou YorkYork, and he would have diedva morir in a day.
254
632000
3000
Si l'hagués dut a Nova York, no hauria sobreviscut ni un dia.
10:50
(LaughterRiure)
255
635000
2000
(Rialles)
10:52
Because we had differentdiferent modelsmodels
256
637000
2000
La raó és que teníem diferents models
10:54
basedbasat on our differentdiferent experiencesexperiències.
257
639000
3000
que es basaven en experiències diferents.
10:58
ModelsModels de can come from the mediamitjans de comunicació,
258
643000
2000
Models que provenen dels mitjans de comunicació,
11:00
from our electedescollit officialsfuncionaris.
259
645000
3000
dels funcionaris electes.
11:03
Think of modelsmodels of terrorismterrorisme,
260
648000
3000
Models de terrorisme,
11:06
childnen kidnappingsegrest,
261
651000
3000
de segrest de nens,
11:09
airlineaerolínia safetyseguretat, carcotxe safetyseguretat.
262
654000
2000
de seguretat aèria, de seguretat en carretera.
11:11
ModelsModels de can come from industryindústria.
263
656000
3000
Els models poden tenir l'origen a la indústria.
11:14
The two I'm followingsegüent are surveillancevigilància camerascàmeres,
264
659000
2000
Per exemple, les càmeres de vigilància
11:16
IDID cardstargetes,
265
661000
2000
o els carnets d'identitat,
11:18
quitebastant a lot of our computerordinador securityseguretat modelsmodels come from there.
266
663000
3000
molts dels nostres models de seguretat computeritzats provenen d'aquí.
11:21
A lot of modelsmodels come from scienceciència.
267
666000
3000
Molts models provenen de la ciència.
11:24
HealthSalut modelsmodels are a great exampleexemple.
268
669000
2000
Els models de salut són un bon exemple.
11:26
Think of cancercàncer, of birdau flugrip, swineporcina flugrip, SARSSARS.
269
671000
3000
Penseu en el càncer, en la grip aviària, la grip porcina o la síndrome respiratòria aguda greu.
11:29
All of our feelingssentiments of securityseguretat
270
674000
3000
La sensació de seguretat que tenim
11:32
about those diseasesmalalties
271
677000
2000
enfront aquestes malalties
11:34
come from modelsmodels
272
679000
2000
venen de models
11:36
givendonat to us, really, by scienceciència filteredfiltrat througha través the mediamitjans de comunicació.
273
681000
3000
que ens ha donat la ciència a través dels mitjans de comunicació.
11:40
So modelsmodels can changecanviar.
274
685000
3000
Els models poden canviar.
11:43
ModelsModels de are not staticestàtica.
275
688000
2000
No són estàtics.
11:45
As we becomeconvertir-se en more comfortablecòmode in our environmentsentorns,
276
690000
3000
A mida que es sentim més còmodes en un medi,
11:48
our modelmodel can movemoure's closermés a prop to our feelingssentiments.
277
693000
4000
el model s'apropa a les sensacions.
11:53
So an exampleexemple mightpotser be,
278
698000
2000
Un exemple podria ser el següent:
11:55
if you go back 100 yearsanys agofa
279
700000
2000
pensen en fa 100 anys,
11:57
when electricityelectricitat was first becomingconvertint-se commoncomú,
280
702000
3000
en el moment en què l'electricitat començava a estendre's;
12:00
there were a lot of fearstemors about it.
281
705000
2000
hi havia molts temors al voltant d'aquest descobriment.
12:02
I mean, there were people who were afraidté por to pushempènyer doorbellsdoorbells,
282
707000
2000
Hi havia gent que tenia por de prémer el timbre
12:04
because there was electricityelectricitat in there, and that was dangerousperillós.
283
709000
3000
perque hi havia electricitat i era perillosa.
12:07
For us, we're very facilesimple around electricityelectricitat.
284
712000
3000
Nosaltres ens sentim còmodes amb l'electricitat.
12:10
We changecanviar lightllum bulbsbombetes
285
715000
2000
Canviem bombetes
12:12
withoutsense even thinkingpensant about it.
286
717000
2000
sense ni tan sols pensar-hi.
12:14
Our modelmodel of securityseguretat around electricityelectricitat
287
719000
4000
Hem nascut dins d'aquest model
12:18
is something we were bornnascut into.
288
723000
3000
de seguretat pel que fa a l'electricitat.
12:21
It hasn'tno ho ha fet changedha canviat as we were growingcreixent up.
289
726000
3000
No ha canviat mentre ens feiem grans.
12:24
And we're good at it.
290
729000
3000
Som bons fent-lo servir.
12:27
Or think of the risksriscos
291
732000
2000
Un altre exemple: penseu en els riscos
12:29
on the InternetInternet acrossa través de generationsgeneracions --
292
734000
2000
d'Internet al llarg de generacions
12:31
how your parentspares approachenfocament InternetInternet securityseguretat,
293
736000
2000
com els vostres pares enfoquen la seguretat pel que fa a Internet
12:33
versuscontra how you do,
294
738000
2000
enfront a com ho feu vosaltres,
12:35
versuscontra how our kidsnens will.
295
740000
3000
enfront a com ho faran els vostres fills.
12:38
ModelsModels de eventuallyeventualment fadeesvaeix into the backgroundfons.
296
743000
3000
Els models acaben per esvair-se.
12:42
IntuitiveIntuïtiva is just anotherun altre wordparaula for familiarfamiliar.
297
747000
3000
La intuició és un sinòmin de familiar.
12:45
So as your modelmodel is closea prop to realityrealitat,
298
750000
2000
Quan el model està a prop de la realitat
12:47
and it convergesconvergeix with feelingssentiments,
299
752000
2000
i s'uneix a les sensacions,
12:49
you oftensovint don't know it's there.
300
754000
3000
no sabem que hi és.
12:52
So a niceagradable exampleexemple of this
301
757000
2000
Un bon exemple d'això
12:54
cameva venir from last yearcurs and swineporcina flugrip.
302
759000
3000
és la grip porcina.
12:57
When swineporcina flugrip first appearedva aparèixer,
303
762000
2000
Quan va aparèixer per primera vegada,
12:59
the initialinicial newsnotícies causedcausat a lot of overreactionreacció exagerada.
304
764000
4000
les notícies van provocar reaccions desmesurades.
13:03
Now it had a namenom,
305
768000
2000
Era una enfermetat amb nom,
13:05
whichquin madefet it scariermés por than the regularregular flugrip,
306
770000
2000
la qual cosa que tinguéssim més por que no pas per la grip normal,
13:07
even thoughperò it was more deadlymortal.
307
772000
2000
tot i que aquesta última és més mortal.
13:09
And people thought doctorsmetges should be ablecapaç to dealacord with it.
308
774000
4000
I la gent pensava que els metges havien de ser capaços de tractar-la.
13:13
So there was that feelingsensació of lackfalta of controlcontrol.
309
778000
2000
Hi havia, doncs, una sensació de falta de control.
13:15
And those two things
310
780000
2000
Aquests dos fets
13:17
madefet the riskrisc more than it was.
311
782000
2000
feien que el risc fos més gran del que era real.
13:19
As the noveltynovetat woreportava off, the monthsmesos wentva anar by,
312
784000
3000
A mida que la novetat desapareixia i que passaven els mesos,
13:22
there was some amountquantitat of tolerancetolerància,
313
787000
2000
va aparèixer una certa tolerància
13:24
people got used to it.
314
789000
2000
i la gent s'hi va acostumar.
13:26
There was no newnou datadades, but there was lessmenys fearpor.
315
791000
3000
No hi havia nova informació, però hi havia menys por.
13:29
By autumntardor,
316
794000
2000
A la tardor,
13:31
people thought
317
796000
2000
la gent creia
13:33
the doctorsmetges should have solvedresolt this alreadyja.
318
798000
2000
que els metges havien de tenir ja una solució.
13:35
And there's kindamable of a bifurcationbifurcació --
319
800000
2000
És una mena de bifurcació:
13:37
people had to choosetriar
320
802000
2000
la gent havia d'escollir
13:39
betweenentre fearpor and acceptancel'acceptació --
321
804000
4000
entre por i acceptació;
13:43
actuallyen realitat fearpor and indifferenceindiferència --
322
808000
2000
bé, millor dit, entre por i indiferència,
13:45
they kindamable of chosetriar suspicionsospita.
323
810000
3000
i van escollir més aviat la sospita.
13:48
And when the vaccinevacuna appearedva aparèixer last winterhivern,
324
813000
3000
I quan, a l'hivern, va aparèixer la vacuna
13:51
there were a lot of people -- a surprisingsorprenent numbernúmero --
325
816000
3000
va haver-hi molta gent (de fet, un nombre realment alt)
13:54
who refusedes va negar to get it --
326
819000
3000
que s'hi va negar.
13:58
as a niceagradable exampleexemple
327
823000
2000
És un bon exemple
14:00
of how people'spersones feelingssentiments of securityseguretat changecanviar, how theirels seus modelmodel changescanvis,
328
825000
3000
de com les sensacions de seguretat i els models canvien,
14:03
sortordenar of wildlysalvatgement
329
828000
2000
de forma un tant descontrolada,
14:05
with no newnou informationinformació,
330
830000
2000
sense nova informació,
14:07
with no newnou inputentrada.
331
832000
2000
sense noves dades.
14:09
This kindamable of thing happenspassa a lot.
332
834000
3000
Coses com aquesta passen sovint.
14:12
I'm going to give one more complicationcomplicació.
333
837000
3000
Ho complicaré una mica més.
14:15
We have feelingsensació, modelmodel, realityrealitat.
334
840000
3000
Tenim la sensació, el model, la realitat.
14:18
I have a very relativisticrelativista viewveure of securityseguretat.
335
843000
2000
Tinc una visió molt relativista de la seguretat.
14:20
I think it dependsdepèn on the observerobservador.
336
845000
3000
Crec que depén de l'observador.
14:23
And mostla majoria securityseguretat decisionsdecisions
337
848000
2000
Moltes decisions de seguretat
14:25
have a varietyvarietat of people involvedimplicat.
338
850000
4000
comporten que hi hagi diferents persones involucrades.
14:29
And stakeholdersels interessats
339
854000
2000
I els interessats
14:31
with specificespecífic trade-offscompensacions
340
856000
3000
que tenen sacrificis determinats
14:34
will try to influenceinfluència the decisiondecisió.
341
859000
2000
intentaran influir en la decisió.
14:36
And I call that theirels seus agendaagenda.
342
861000
2000
És el que anomeno la seva agenda.
14:38
And you see agendaagenda --
343
863000
2000
Podem veure en aquestes agendes,
14:40
this is marketingmàrqueting, this is politicspolítica --
344
865000
3000
(en màrqueting, en política)
14:43
tryingintentant to convinceconvencer you to have one modelmodel versuscontra anotherun altre,
345
868000
3000
que intenten convèncer-vos d'un model enfront un altre,
14:46
tryingintentant to convinceconvencer you to ignoreignorar a modelmodel
346
871000
2000
que intenten convèncer-vos d'ignorar un model
14:48
and trustconfiança your feelingssentiments,
347
873000
3000
i confiar en les vostres sensacions,
14:51
marginalizingmarginalizing people with modelsmodels you don't like.
348
876000
3000
aillant la gent que té models que no us agraden.
14:54
This is not uncommonpoc freqüents.
349
879000
3000
No és gens estrany.
14:57
An exampleexemple, a great exampleexemple, is the riskrisc of smokingfumar.
350
882000
3000
Un bon exemple és el risc del tabaquisme.
15:01
In the historyhistòria of the pastpassat 50 yearsanys, the smokingfumar riskrisc
351
886000
3000
En els últims 50 anys, el risc del tabaquisme
15:04
showsespectacles how a modelmodel changescanvis,
352
889000
2000
mostra com canvia un model
15:06
and it alsotambé showsespectacles how an industryindústria fightslluites againsten contra
353
891000
3000
i com la indústria lluita
15:09
a modelmodel it doesn't like.
354
894000
2000
contra un model que no li agrada.
15:11
CompareComparar that to the secondhandsegona mà smokefum debatedebat --
355
896000
3000
Ho podem comparar al debat sobre el tabaquisme passiu,
15:14
probablyProbablement about 20 yearsanys behinddarrere.
356
899000
3000
fa uns 20 anys aproximadament.
15:17
Think about seatseient beltscinturons.
357
902000
2000
Penseu en els cinturons de seguretat.
15:19
When I was a kidnoi, no one woreportava a seatseient beltcinturó.
358
904000
2000
Quan era petit, ningú no portava el cinturó de seguretat.
15:21
NowadaysAvui en dia, no kidnoi will let you driveconduir
359
906000
2000
Ara, cap nen no us deixarà conduir
15:23
if you're not wearingportant a seatseient beltcinturó.
360
908000
2000
a menys que us poseu el cinturó.
15:26
CompareComparar that to the airbagcoixí de seguretat debatedebat --
361
911000
2000
Ho podem comparar al debat sobre l'airbag,
15:28
probablyProbablement about 30 yearsanys behinddarrere.
362
913000
3000
fa uns 30 anys aproximadament.
15:31
All examplesexemples of modelsmodels changingcanviant.
363
916000
3000
Són exemples de models que canvien.
15:36
What we learnaprendre is that changingcanviant modelsmodels is harddur.
364
921000
3000
I el que aprenem és que és difícil canviar un model.
15:39
ModelsModels de are harddur to dislodgedesallotjar.
365
924000
2000
És difícil desplaçar un model.
15:41
If they equaligual your feelingssentiments,
366
926000
2000
Si model i sensació és el mateix,
15:43
you don't even know you have a modelmodel.
367
928000
3000
ni tan sols ens adonem que tenim un model.
15:46
And there's anotherun altre cognitivecognitiu biasparcialitat
368
931000
2000
Hi ha un altre biaix cognitiu,
15:48
I'll call confirmationconfirmació biasparcialitat,
369
933000
2000
que anomeno biaix de confirmació,
15:50
where we tendtendeix to acceptacceptar datadades
370
935000
3000
i és que tenim tendència a aceptar la informació
15:53
that confirmsconfirma our beliefscreences
371
938000
2000
que confirma les nostres creences
15:55
and rejectrebutjar datadades that contradictscontradiu our beliefscreences.
372
940000
3000
i a rebutjar la informació que les contradiu.
15:59
So evidenceevidència againsten contra our modelmodel,
373
944000
2000
És probable que no fem cas a la informació
16:01
we're likelyprobablement to ignoreignorar, even if it's compellingconvincent.
374
946000
3000
en contra del nostre model, encara que sigui molt persuasiva.
16:04
It has to get very compellingconvincent before we'll paypagar attentionatenció.
375
949000
3000
Haurà de ser molt i molt persuasiva per a que hi parem atenció.
16:08
NewNou modelsmodels that extendestendre long periodsperíodes of time are harddur.
376
953000
2000
Els models nous que s'estenen llargs períodes són difícils.
16:10
GlobalGlobal warmingescalfament is a great exampleexemple.
377
955000
2000
L'escalfament global és un bon exemple.
16:12
We're terribleterrible
378
957000
2000
Som molt dolents
16:14
at modelsmodels that spanabast 80 yearsanys.
379
959000
2000
amb models que abasten 80 anys.
16:16
We can do to the nextPròxim harvestcollita.
380
961000
2000
Podem ser-hi per a la propera collita.
16:18
We can oftensovint do untilfins a our kidsnens growcréixer up.
381
963000
3000
Podem ser-hi fins que els fills són grans.
16:21
But 80 yearsanys, we're just not good at.
382
966000
3000
Però 80 anys, és massa temps per a nosaltres.
16:24
So it's a very harddur modelmodel to acceptacceptar.
383
969000
3000
És un model molt difícil d'acceptar.
16:27
We can have bothtots dos modelsmodels in our headcap simultaneouslysimultàniament,
384
972000
4000
Podem tenir dos models al cap de forma simultània,
16:31
right, that kindamable of problemproblema
385
976000
3000
com el tipus de problema
16:34
where we're holdingtenint bothtots dos beliefscreences togetherjunts,
386
979000
3000
on tenim dues creences al mateix temps;
16:37
right, the cognitivecognitiu dissonancedissonància.
387
982000
2000
la dissonància cognitiva.
16:39
EventuallyFinalment,
388
984000
2000
Al final,
16:41
the newnou modelmodel will replacereemplaçar the oldvell modelmodel.
389
986000
3000
el nou model substituirà l'antic.
16:44
StrongFort feelingssentiments can createcrear a modelmodel.
390
989000
3000
Les sensacions fortes poden crear un model.
16:47
SeptemberSetembre 11thth createdcreat a securityseguretat modelmodel
391
992000
3000
L'onze de setembre va crear un model de seguretat
16:50
in a lot of people'spersones headscaps.
392
995000
2000
a les ments de moltes persones.
16:52
AlsoTambé, personalpersonal experiencesexperiències with crimecrim can do it,
393
997000
3000
Les experiències personals relacionades amb delictes també en poden crear:
16:55
personalpersonal healthsalut scareespantar,
394
1000000
2000
un problema de salut personal,
16:57
a healthsalut scareespantar in the newsnotícies.
395
1002000
2000
un problema de salut a les notícies.
16:59
You'llVostè ' ll see these calledanomenat flashbulbFlashbulb eventsesdeveniments
396
1004000
2000
Són el que els psiquiatres anomenen
17:01
by psychiatristspsiquiatres.
397
1006000
2000
esdeveniments flash.
17:03
They can createcrear a modelmodel instantaneouslyinstantàniament,
398
1008000
3000
Poden crear un model de forma instantània
17:06
because they're very emotiveemotiu.
399
1011000
3000
perquè són esdeveniments molt emotius.
17:09
So in the technologicaltecnològic worldmón,
400
1014000
2000
En el món tecnològic,
17:11
we don't have experienceexperiència
401
1016000
2000
no tenim experiència
17:13
to judgejutge modelsmodels.
402
1018000
2000
per jutjar els models.
17:15
And we relyconfieu on othersaltres. We relyconfieu on proxiesapoderats.
403
1020000
2000
Confiem en altres. Confiem en intermediaris.
17:17
I mean, this worksfunciona as long as it's to correctcorrecte othersaltres.
404
1022000
4000
És a dir, això funciona mentre sigui per corregir altres.
17:21
We relyconfieu on governmentgovern agenciesagències
405
1026000
2000
Confiem que les agències gubernamentals
17:23
to tell us what pharmaceuticalsproductes farmacèutics are safesegur.
406
1028000
5000
ens diguin quins medicaments són segurs.
17:28
I flewva volar here yesterdayahir.
407
1033000
2000
Vaig arribar aquí ahir en avió.
17:30
I didn't checkcomprovar the airplaneavió.
408
1035000
2000
No vaig examinar l'aparell.
17:32
I reliedes va basar on some other groupgrup
409
1037000
2000
Vaig confiar en un altre grup
17:34
to determinedeterminar whetherja sigui my planeavió was safesegur to flyvolar.
410
1039000
3000
perquè decidís si era segur volar en aquell avió.
17:37
We're here, nonecap of us fearpor the roofsostre is going to collapsecol.lapse on us,
411
1042000
3000
Estem aquí; ningú no té por que el sostre caigui,
17:40
not because we checkedcomprovat,
412
1045000
3000
no perquè ho hem inspeccionat
17:43
but because we're prettybonic sure
413
1048000
2000
sinó perquè estem força segurs
17:45
the buildingedifici codescodis here are good.
414
1050000
3000
que els codis de construcció són bons.
17:48
It's a modelmodel we just acceptacceptar
415
1053000
2000
És un model que acceptem
17:50
prettybonic much by faithfe.
416
1055000
2000
quasi per fe.
17:52
And that's okay.
417
1057000
3000
I està bé.
17:57
Now, what we want
418
1062000
2000
El que volem
17:59
is people to get familiarfamiliar enoughsuficient
419
1064000
2000
és que la gent es familiaritzi
18:01
with better modelsmodels --
420
1066000
2000
amb models millors
18:03
have it reflectedreflecteix in theirels seus feelingssentiments --
421
1068000
2000
(que siguin un reflex de les seves sensacions)
18:05
to allowpermetre'l them to make securityseguretat trade-offscompensacions.
422
1070000
4000
que els permetin fer sacrificis de seguretat.
18:09
Now when these go out of whackcolpejar,
423
1074000
2000
Quan aquests es desequilibren,
18:11
you have two optionsopcions.
424
1076000
2000
tenim dues opcions.
18:13
One, you can fixcorregir people'spersones feelingssentiments,
425
1078000
2000
En primer lloc, podem arreglar les sensacions de la gent,
18:15
directlydirectament appealapel·lació to feelingssentiments.
426
1080000
2000
apel·lant directament a les seves sensacions.
18:17
It's manipulationmanipulació, but it can work.
427
1082000
3000
És manipulatiu, però pot funcionar.
18:20
The secondsegon, more honesthonesta way
428
1085000
2000
L'altra manera, més honesta,
18:22
is to actuallyen realitat fixcorregir the modelmodel.
429
1087000
3000
és realment arreglar el model.
18:26
ChangeCanvi happenspassa slowlylentament.
430
1091000
2000
Els canvis són lents.
18:28
The smokingfumar debatedebat tookva prendre 40 yearsanys,
431
1093000
3000
El debat sobre el tabac va durar 40 anys
18:31
and that was an easyfàcil one.
432
1096000
3000
i es tractava d'un model fàcil.
18:34
Some of this stuffcoses is harddur.
433
1099000
2000
Alguns són complicats.
18:36
I mean really thoughperò,
434
1101000
2000
El que vull dir és que
18:38
informationinformació seemssembla like our bestmillor hopeesperança.
435
1103000
2000
sembla que la informació és la millor esperança.
18:40
And I liedlied.
436
1105000
2000
He dit una mentida.
18:42
RememberRecordar I said feelingsensació, modelmodel, realityrealitat;
437
1107000
2000
Recordeu quan he parlat de sensació, model i realitat?
18:44
I said realityrealitat doesn't changecanviar. It actuallyen realitat does.
438
1109000
3000
He dit que la realitat no canvia. De fet, sí que ho fa.
18:47
We liveen directe in a technologicaltecnològic worldmón;
439
1112000
2000
Vivim en un món tecnològic;
18:49
realityrealitat changescanvis all the time.
440
1114000
3000
la realitat canvia constantment.
18:52
So we mightpotser have -- for the first time in our speciesespècie --
441
1117000
3000
Per primera vegada en la història de la nostra espècie, podem trobar-nos amb el cas
18:55
feelingsensació chasespersecucions modelmodel, modelmodel chasespersecucions realityrealitat, reality'sde la realitat movingen moviment --
442
1120000
3000
en què la sensació persegueix el model, el model persegueix la realitat,
18:58
they mightpotser never catchatrapar up.
443
1123000
3000
la realitat es mou; potser mai no s'enxamparan.
19:02
We don't know.
444
1127000
2000
No ho sabem.
19:04
But in the long-termllarg termini,
445
1129000
2000
Però a la llarga,
19:06
bothtots dos feelingsensació and realityrealitat are importantimportant.
446
1131000
3000
tant la sensació com la realitat són importants.
19:09
And I want to closea prop with two quickràpid storieshistòries to illustrateil·lustrar this.
447
1134000
3000
Vull acabar amb dues breus històries per il·lustrar això.
19:12
1982 -- I don't know if people will rememberrecorda this --
448
1137000
2000
1982. No sé si recordeu
19:14
there was a shortcurt epidemicepidèmia
449
1139000
3000
que hi va haver una epidèmia curta
19:17
of TylenolTylenol poisoningsintoxicacions in the UnitedRegne StatesUnits.
450
1142000
2000
d'enverinament de Tylenol als Estats Units.
19:19
It's a horrifichorrible storyhistòria. SomeoneAlgú tookva prendre a bottleampolla of TylenolTylenol,
451
1144000
3000
És una història terrible: algú va prendre una ampolla de Tylenol,
19:22
put poisonverí in it, closedtancat it up, put it back on the shelfprestatge.
452
1147000
3000
hi va posar verí, la va tancar i la va deixar a la prestatgeria.
19:25
SomeoneAlgú elsealtra cosa boughtva comprar it and diedva morir.
453
1150000
2000
Una altra persona la va comprar i va morir.
19:27
This terrifiedaterrit people.
454
1152000
2000
La gent estqava aterrida.
19:29
There were a coupleparella of copycatCopycat attacksatacs.
455
1154000
2000
Hi va haver un parell d'imitacions.
19:31
There wasn'tno ho era any realreal riskrisc, but people were scaredespantat.
456
1156000
3000
No hi havia cap risc real, però la gent estava espantada.
19:34
And this is how
457
1159000
2000
Així és com va aparèixer
19:36
the tamper-proofmanipulacions drugdroga industryindústria was inventedinventat.
458
1161000
2000
la indústria de segellament de medicaments.
19:38
Those tamper-proofmanipulacions capsgorres, that cameva venir from this.
459
1163000
2000
Així és com van aparèixer els taps segellats.
19:40
It's completecomplet securityseguretat theaterteatre.
460
1165000
2000
És el teatre de seguretat complet.
19:42
As a homeworkdeures assignmentcessió, think of 10 waysmaneres to get around it.
461
1167000
2000
Us posaré deures: penseu en 10 maneres de d'evitar-los.
19:44
I'll give you one, a syringexeringa.
462
1169000
3000
Un en diré una: una xeringa.
19:47
But it madefet people feel better.
463
1172000
3000
Però va fer que la gent se sentís millor.
19:50
It madefet theirels seus feelingsensació of securityseguretat
464
1175000
2000
Va fer que la sensació de seguretat
19:52
more matchpartit the realityrealitat.
465
1177000
2000
s'apropés a la realitat.
19:54
Last storyhistòria, a fewpocs yearsanys agofa, a friendamic of minemeu gaveva donar birthnaixement.
466
1179000
3000
L'última història, fa uns anys. Una amiga meva té un fill.
19:57
I visitvisita her in the hospitalhospital.
467
1182000
2000
La vaig anar a veure a l'hospital.
19:59
It turnsgirs out when a baby'sde nadó bornnascut now,
468
1184000
2000
Ara quan neix un nen,
20:01
they put an RFIDRFID braceletpolsera on the babybebè,
469
1186000
2000
li posen una pulsera RFID al nadó
20:03
put a correspondingcorresponent one on the mothermare,
470
1188000
2000
i una altra a la mare,
20:05
so if anyoneningú other than the mothermare takes the babybebè out of the maternitymaternitat wardsala,
471
1190000
2000
de manera que si algú que no és la mare prova de treure el nen de l'àrea de maternitat,
20:07
an alarmalarma goesva off.
472
1192000
2000
es dispara l'alarma.
20:09
I said, "Well, that's kindamable of neatnet.
473
1194000
2000
Vaig dir, "Això és força ingeniós.
20:11
I wondermeravella how rampantdesenfrenada babybebè snatchingarrabassant-li is
474
1196000
2000
Em pregunto
20:13
out of hospitalshospitals."
475
1198000
2000
fora dels hospitals".
20:15
I go home, I look it up.
476
1200000
2000
Quan vaig arribar a casa, ho vaig mirar.
20:17
It basicallybàsicament never happenspassa.
477
1202000
2000
No passa gairebé mai.
20:19
But if you think about it,
478
1204000
2000
Però penseu-ho bé:
20:21
if you are a hospitalhospital,
479
1206000
2000
si esteu a l'hospital
20:23
and you need to take a babybebè away from its mothermare,
480
1208000
2000
i heu de prendre el nadó lluny de la seva mare
20:25
out of the roomhabitació to runcorrer some testsproves,
481
1210000
2000
i fora de la sala per fer-li proves,
20:27
you better have some good securityseguretat theaterteatre,
482
1212000
2000
és millor tenir un bon teatre de seguretat
20:29
or she's going to ripdescansi en pau your armbraç off.
483
1214000
2000
o la mare us arrencarà el braç.
20:31
(LaughterRiure)
484
1216000
2000
(Rialles)
20:33
So it's importantimportant for us,
485
1218000
2000
És important per aquells de nosaltres
20:35
those of us who designdisseny securityseguretat,
486
1220000
2000
que dissenyem la seguretat,
20:37
who look at securityseguretat policypolítica,
487
1222000
3000
que observem les polítiques de seguretat
20:40
or even look at publicpúblic policypolítica
488
1225000
2000
o fins i tot les polítiques públiques
20:42
in waysmaneres that affectafectar securityseguretat.
489
1227000
2000
en formes que afecten la seguretat.
20:44
It's not just realityrealitat; it's feelingsensació and realityrealitat.
490
1229000
3000
No és només realitat, és sensació i realitat.
20:47
What's importantimportant
491
1232000
2000
El que és important
20:49
is that they be about the samemateix.
492
1234000
2000
és que són pràcticament el mateix.
20:51
It's importantimportant that, if our feelingssentiments matchpartit realityrealitat,
493
1236000
2000
Si les nostres sensacions són iguals a la realitat,
20:53
we make better securityseguretat trade-offscompensacions.
494
1238000
2000
és important que fem prenem bones decisions de seguretat.
20:55
Thank you.
495
1240000
2000
Gràcies.
20:57
(ApplauseAplaudiments)
496
1242000
2000
(Aplaudiments)
Translated by Marta Jimenez
Reviewed by TED Open Translation

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com