ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Bruce Schneier: El espejismo de la seguridad

Filmed:
958,315 views

El experto en seguridad informática Bruce Schneier dice que la sensación de seguridad no siempre calza con la realidad de la seguridad. En TEDxPSU, explica por qué gastamos billones protegiéndonos de riesgos que salen en las noticias -como el "teatro de seguridad" que se está presentando en su aeropuerto local- mientras ignoramos riesgos más probables; y cómo podemos no seguir haciéndolo.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securityseguridad is two differentdiferente things:
0
0
2000
La seguridad es dos cosas diferentes:
00:17
it's a feelingsensación, and it's a realityrealidad.
1
2000
2000
es una sensación, y es una realidad.
00:19
And they're differentdiferente.
2
4000
2000
Y son diferentes.
00:21
You could feel secureseguro
3
6000
2000
Podrían sentirse seguros
00:23
even if you're not.
4
8000
2000
aun cuando no lo estén.
00:25
And you can be secureseguro
5
10000
2000
Y pueden estar seguros
00:27
even if you don't feel it.
6
12000
2000
aun cuando no se sientan seguros.
00:29
Really, we have two separateseparar conceptsconceptos
7
14000
2000
En realidad, tenemos dos conceptos distintos
00:31
mappedmapeado ontosobre the samemismo wordpalabra.
8
16000
2000
asignados a la misma palabra.
00:33
And what I want to do in this talk
9
18000
2000
Y lo que quiero hacer en esta charla
00:35
is to splitdivisión them apartaparte --
10
20000
2000
es separar el uno del otro
00:37
figuringfigurando out when they divergedivergir
11
22000
2000
y darnos cuenta de cuándo divergen
00:39
and how they convergeconverger.
12
24000
2000
y de cómo convergen.
00:41
And languageidioma is actuallyactualmente a problemproblema here.
13
26000
2000
Y en realidad el lenguaje es un problema para esto.
00:43
There aren'tno son a lot of good wordspalabras
14
28000
2000
No hay muchas palabras útiles
00:45
for the conceptsconceptos we're going to talk about.
15
30000
3000
para los conceptos que vamos a describir.
00:48
So if you look at securityseguridad
16
33000
2000
Así que si miran la seguridad
00:50
from economiceconómico termscondiciones,
17
35000
2000
del punto de vista económico,
00:52
it's a trade-offcompensación.
18
37000
2000
se trata de intercambiar una cosa por otra.
00:54
EveryCada time you get some securityseguridad,
19
39000
2000
Cada vez que obtienen un poco de seguridad,
00:56
you're always tradingcomercio off something.
20
41000
2000
siempre están intercambiándola por otra cosa.
00:58
WhetherSi this is a personalpersonal decisiondecisión --
21
43000
2000
Sea esta es una decisión personal
01:00
whethersi you're going to installinstalar a burglarladrón alarmalarma in your home --
22
45000
2000
-si van a instalar una alarma antirrobo en su hogar-
01:02
or a nationalnacional decisiondecisión -- where you're going to invadeinvadir some foreignexterior countrypaís --
23
47000
3000
o una decisión nacional -si van a invadir otro país-
01:05
you're going to tradecomercio off something,
24
50000
2000
van a sacrificar algo,
01:07
eitherya sea moneydinero or time, convenienceconveniencia, capabilitiescapacidades,
25
52000
3000
ya sea dinero o tiempo, comodidad, capacidad,
01:10
maybe fundamentalfundamental libertieslibertades.
26
55000
3000
quizás libertades fundamentales.
01:13
And the questionpregunta to askpedir when you look at a securityseguridad anything
27
58000
3000
Y lo que deben preguntarse cuando miran algo de seguridad
01:16
is not whethersi this makeshace us safermás seguro,
28
61000
3000
no es si esto nos hace más seguros,
01:19
but whethersi it's worthvalor the trade-offcompensación.
29
64000
3000
sino que si vale la pena el sacrificio.
01:22
You've heardoído in the pastpasado severalvarios yearsaños,
30
67000
2000
Han escuchado durante los últimos años que
01:24
the worldmundo is safermás seguro because SaddamSaddam HusseinHussein is not in powerpoder.
31
69000
2000
el mundo es más seguro porque Saddam Hussein no gobierna Irak.
01:26
That mightpodría be truecierto, but it's not terriblyterriblemente relevantpertinente.
32
71000
3000
Eso puede ser cierto, pero no es terriblemente relevante.
01:29
The questionpregunta is, was it worthvalor it?
33
74000
3000
La pregunta es: ¿Valió la pena?
01:32
And you can make your ownpropio decisiondecisión,
34
77000
3000
Y pueden tomar su propia decisión
01:35
and then you'lltu vas a decidedecidir whethersi the invasioninvasión was worthvalor it.
35
80000
2000
y con eso decidir si la invasión valió la pena.
01:37
That's how you think about securityseguridad --
36
82000
2000
Así se piensa acerca de la seguridad;
01:39
in termscondiciones of the trade-offcompensación.
37
84000
2000
en términos de decidirse por algo en desmedro de otra cosa.
01:41
Now there's oftena menudo no right or wrongincorrecto here.
38
86000
3000
A menudo no hay buenas o malas decisiones en esto.
01:44
Some of us have a burglarladrón alarmalarma systemsistema at home,
39
89000
2000
Algunos de nosotros tenemos alarmas antirrobo en la casa
01:46
and some of us don't.
40
91000
2000
y otros no lo tenemos.
01:48
And it'llva a dependdepender on where we livevivir,
41
93000
2000
Y dependerá de donde vivimos,
01:50
whethersi we livevivir alonesolo or have a familyfamilia,
42
95000
2000
si es que vivimos solos o tenemos familia,
01:52
how much coolguay stuffcosas we have,
43
97000
2000
la cantidad de cosas preciadas que tengamos,
01:54
how much we're willingcomplaciente to acceptaceptar
44
99000
2000
cuánto riesgo de robo
01:56
the riskriesgo of theftrobo.
45
101000
2000
estemos dispuestos a aceptar.
01:58
In politicspolítica alsoademás,
46
103000
2000
En la política también
02:00
there are differentdiferente opinionsopiniones.
47
105000
2000
hay diferentes opiniones.
02:02
A lot of timesveces, these trade-offscompensaciones
48
107000
2000
Muchas veces, estos sacrificios
02:04
are about more than just securityseguridad,
49
109000
2000
son sobre más que sólo seguridad,
02:06
and I think that's really importantimportante.
50
111000
2000
y creo que eso es muy importante.
02:08
Now people have a naturalnatural intuitionintuición
51
113000
2000
Ahora, la gente tiene una intuición natural
02:10
about these trade-offscompensaciones.
52
115000
2000
sobre estos sacrificios.
02:12
We make them everycada day --
53
117000
2000
Los hacemos todos los días;
02:14
last night in my hotelhotel roomhabitación,
54
119000
2000
anoche en mi habitación de hotel,
02:16
when I decideddecidido to double-lockdoble bloqueo the doorpuerta,
55
121000
2000
cuando decidí cerrar la puerta con doble llave,
02:18
or you in your carcoche when you drovecondujo here,
56
123000
2000
o cuando ustedes conducían para acá en su automóvil,
02:20
when we go eatcomer lunchalmuerzo
57
125000
2000
cuando vamos a almorzar
02:22
and decidedecidir the food'scomida not poisonveneno and we'llbien eatcomer it.
58
127000
3000
y decidimos que la comida no tiene veneno y la comemos.
02:25
We make these trade-offscompensaciones again and again,
59
130000
2000
Tomamos estas decisiones una y otra vez
02:27
multiplemúltiple timesveces a day.
60
132000
2000
muchas veces al día.
02:29
We oftena menudo won'tcostumbre even noticedarse cuenta them.
61
134000
2000
A menudo ni siquiera nos damos cuenta.
02:31
They're just partparte of beingsiendo aliveviva; we all do it.
62
136000
2000
Son parte de estar vivo, todos lo hacemos.
02:33
EveryCada speciesespecies does it.
63
138000
3000
Todas las especies lo hacen.
02:36
ImagineImagina a rabbitConejo in a fieldcampo, eatingcomiendo grasscésped,
64
141000
2000
Imaginen un conejo en un campo, comiendo pasto,
02:38
and the rabbit'sconejo going to see a foxzorro.
65
143000
3000
y el conejo repentinamente ve un zorro.
02:41
That rabbitConejo will make a securityseguridad trade-offcompensación:
66
146000
2000
Ese conejo tomará una decisión para su seguridad:
02:43
"Should I staypermanecer, or should I fleehuir?"
67
148000
2000
"¿Debo quedarme o debo huir?"
02:45
And if you think about it,
68
150000
2000
Y si lo piensan,
02:47
the rabbitsconejos that are good at makingfabricación that trade-offcompensación
69
152000
3000
los conejos que toman la decisión apropiada
02:50
will tendtender to livevivir and reproducereproducir,
70
155000
2000
tienden a vivir y reproducirse,
02:52
and the rabbitsconejos that are badmalo at it
71
157000
2000
y los conejos que no lo hacen bien
02:54
will get eatencomido or starvemorir de hambre.
72
159000
2000
son comidos o se mueren de hambre.
02:56
So you'dtu hubieras think
73
161000
2000
Así que uno pensaría
02:58
that us, as a successfulexitoso speciesespecies on the planetplaneta --
74
163000
3000
que nosotros, como una especie exitosa en el planeta
03:01
you, me, everybodytodos --
75
166000
2000
-ustedes, yo, todos nosotros-
03:03
would be really good at makingfabricación these trade-offscompensaciones.
76
168000
3000
seríamos muy buenos para elegir una cosa en vez de otra.
03:06
YetTodavía it seemsparece, again and again,
77
171000
2000
Y sin embargo observamos que, una y otra vez,
03:08
that we're hopelesslysin esperanza badmalo at it.
78
173000
3000
somos irremediablemente malos para esto.
03:11
And I think that's a fundamentallyfundamentalmente interestinginteresante questionpregunta.
79
176000
3000
Y creo que eso es una pregunta fundamentalmente interesante.
03:14
I'll give you the shortcorto answerresponder.
80
179000
2000
Les daré la respuesta corta.
03:16
The answerresponder is, we respondresponder to the feelingsensación of securityseguridad
81
181000
2000
La respuesta es que respondemos a la sensación de seguridad
03:18
and not the realityrealidad.
82
183000
3000
y no a la realidad.
03:21
Now mostmás of the time, that workstrabajos.
83
186000
3000
Ahora, la mayoría de las veces, eso funciona.
03:25
MostMás of the time,
84
190000
2000
La mayor parte del tiempo
03:27
feelingsensación and realityrealidad are the samemismo.
85
192000
3000
la sensación y la realidad son iguales.
03:30
CertainlyCiertamente that's truecierto
86
195000
2000
Sin duda eso es cierto
03:32
for mostmás of humanhumano prehistoryprehistoria.
87
197000
3000
para casi toda la prehistoria humana.
03:35
We'veNosotros tenemos developeddesarrollado this abilitycapacidad
88
200000
3000
Hemos desarrollado esta habilidad
03:38
because it makeshace evolutionaryevolutivo sensesentido.
89
203000
2000
porque obedece la lógica evolutiva.
03:40
One way to think of it
90
205000
2000
Una manera de pensarlo
03:42
is that we're highlyaltamente optimizedoptimizado
91
207000
2000
es que estamos altamente optimizados
03:44
for riskriesgo decisionsdecisiones
92
209000
2000
para tomar decisiones sobre riesgos endémicos
03:46
that are endemicendémico to livingvivo in smallpequeña familyfamilia groupsgrupos
93
211000
3000
a los que viven en pequeños grupos familiares
03:49
in the EastEste Africanafricano highlandstierras altas in 100,000 B.C.
94
214000
3000
en las tierras altas de África oriental 100 mil años a. C.,
03:52
2010 NewNuevo YorkYork, not so much.
95
217000
3000
y no tanto para Nueva York el 2010.
03:56
Now there are severalvarios biasessesgos in riskriesgo perceptionpercepción.
96
221000
3000
Ahora bien, hay varios sesgos en la percepción del riesgo.
03:59
A lot of good experimentsexperimentos in this.
97
224000
2000
Hay muchos experimentos buenos sobre esto.
04:01
And you can see certaincierto biasessesgos that come up again and again.
98
226000
3000
Y pueden ver ciertos sesgos que surgen una y otra vez.
04:04
So I'll give you fourlas cuatro.
99
229000
2000
Y les voy a dar cuatro.
04:06
We tendtender to exaggerateexagerar spectacularespectacular and rareraro risksriesgos
100
231000
3000
Tendemos a exagerar los riesgos espectaculares e inusuales
04:09
and downplayminimizar commoncomún risksriesgos --
101
234000
2000
y minimizar los riesgos comunes;
04:11
so flyingvolador versusversus drivingconducción.
102
236000
3000
por eso la diferencia entre volar y manejar.
04:14
The unknowndesconocido is perceivedpercibido
103
239000
2000
Lo desconocido es percibido
04:16
to be riskiermás arriesgado than the familiarfamiliar.
104
241000
3000
como más riesgoso que lo familiar.
04:20
One exampleejemplo would be,
105
245000
2000
Un ejemplo sería que
04:22
people fearmiedo kidnappingsecuestro by strangersextraños
106
247000
3000
la gente teme ser secuestrada por desconocidos
04:25
when the datadatos supportsapoyos kidnappingsecuestro by relativesparientes is much more commoncomún.
107
250000
3000
y los datos muestran que ser secuestrado por familiares es mucho más común.
04:28
This is for childrenniños.
108
253000
2000
Esto se aplica para niños.
04:30
ThirdTercero, personifiedpersonificado risksriesgos
109
255000
3000
En tercer lugar, los riesgos personificados
04:33
are perceivedpercibido to be greatermayor than anonymousanónimo risksriesgos --
110
258000
3000
son percibidos como mayores que los riesgos anónimos;
04:36
so BinCompartimiento LadenCargado is scariermás aterrador because he has a namenombre.
111
261000
3000
por eso Bin Laden da más miedo porque tiene nombre.
04:39
And the fourthcuarto
112
264000
2000
Y el cuarto es que
04:41
is people underestimatesubestimar risksriesgos
113
266000
2000
la gente subestima los riesgos
04:43
in situationssituaciones they do controlcontrolar
114
268000
2000
en situaciones donde tienen el control
04:45
and overestimatesobreestimar them in situationssituaciones they don't controlcontrolar.
115
270000
4000
y los sobreestiman en situaciones que no controlan.
04:49
So onceuna vez you take up skydivingparacaidismo or smokingde fumar,
116
274000
3000
Así que cuando practicas paracaidismo o fumas
04:52
you downplayminimizar the risksriesgos.
117
277000
2000
minimizas los riesgos de estos.
04:54
If a riskriesgo is thrustempuje uponsobre you -- terrorismterrorismo was a good exampleejemplo --
118
279000
3000
Si te fuerzan a aceptar un riesgo -el terrorismo es un buen ejemplo-
04:57
you'lltu vas a overplayexagerar it because you don't feel like it's in your controlcontrolar.
119
282000
3000
lo exagerarás, porque no sientes como si lo controlaras.
05:02
There are a bunchmanojo of other of these biasessesgos, these cognitivecognitivo biasessesgos,
120
287000
3000
Hay un montón de sesgos más, de estos sesgos cognitivos,
05:05
that affectafectar our riskriesgo decisionsdecisiones.
121
290000
3000
que afectan nuestras decisiones sobre riesgos.
05:08
There's the availabilitydisponibilidad heuristicheurístico,
122
293000
2000
Está la heurística de disponibilidad,
05:10
whichcual basicallybásicamente meansmedio
123
295000
2000
que significa básicamente
05:12
we estimateestimar the probabilityprobabilidad of something
124
297000
3000
que estimamos la probabilidad de cualquier cosa
05:15
by how easyfácil it is to bringtraer instancesinstancias of it to mindmente.
125
300000
4000
por lo fácil que es pensar en instancias de esto.
05:19
So you can imagineimagina how that workstrabajos.
126
304000
2000
Y se pueden imaginar cómo funciona eso.
05:21
If you hearoír a lot about tigerTigre attacksataques, there mustdebe be a lot of tigerstigres around.
127
306000
3000
Si escuchas mucho sobre ataques de tigre deben haber muchos tigres alrededor.
05:24
You don't hearoír about lionleón attacksataques, there aren'tno son a lot of lionsleones around.
128
309000
3000
No escuchas hablar de ataques de león así que no hay muchos leones alrededor.
05:27
This workstrabajos untilhasta you inventinventar newspapersperiódicos.
129
312000
3000
Esto funciona hasta que inventas los periódicos.
05:30
Because what newspapersperiódicos do
130
315000
2000
Porque lo que los periódicos hacen
05:32
is they repeatrepetir again and again
131
317000
2000
es repetir una y otra vez
05:34
rareraro risksriesgos.
132
319000
2000
los riesgos inusuales.
05:36
I tell people, if it's in the newsNoticias, don't worrypreocupación about it.
133
321000
2000
Le digo a la gente: "si está en las noticias, no te preocupes por eso".
05:38
Because by definitiondefinición,
134
323000
2000
Porque, por definición,
05:40
newsNoticias is something that almostcasi never happenssucede.
135
325000
3000
las noticias son algo que casi nunca sucede.
05:43
(LaughterRisa)
136
328000
2000
(Risas)
05:45
When something is so commoncomún, it's no longermás newsNoticias --
137
330000
3000
Cuando algo es tan común que deja de ser noticia
05:48
carcoche crasheschoques, domesticnacional violenceviolencia --
138
333000
2000
(accidentes automovilísticos, violencia familiar);
05:50
those are the risksriesgos you worrypreocupación about.
139
335000
3000
esos son los riesgos que hay que tener presentes.
05:53
We're alsoademás a speciesespecies of storytellersnarradores.
140
338000
2000
También somos una especie que contamos historias.
05:55
We respondresponder to storiescuentos more than datadatos.
141
340000
3000
Respondemos ante las historias más que a los datos.
05:58
And there's some basicBASIC innumeracyinnumeracion going on.
142
343000
2000
Y tenemos algo de incapacidad aritmética básica.
06:00
I mean, the jokebroma "One, Two, ThreeTres, ManyMuchos" is kindtipo of right.
143
345000
3000
Es decir, el chiste de "Uno, dos, tres, muchos" no se equivoca mucho.
06:03
We're really good at smallpequeña numbersnúmeros.
144
348000
3000
Somos muy buenos para los números pequeños.
06:06
One mangomango, two mangoesmangos, threeTres mangoesmangos,
145
351000
2000
Un mango, dos mangos, tres mangos;
06:08
10,000 mangoesmangos, 100,000 mangoesmangos --
146
353000
2000
diez mil mangos, cien mil mangos:
06:10
it's still more mangoesmangos you can eatcomer before they rotputrefacción.
147
355000
3000
son más mangos de los que puedas comer antes que se pudran.
06:13
So one halfmitad, one quartertrimestre, one fifthquinto -- we're good at that.
148
358000
3000
Así que la mitad, un cuarto, un quinto; somos buenos para eso.
06:16
One in a millionmillón, one in a billionmil millones --
149
361000
2000
Uno en un millón, uno en un billón;
06:18
they're bothambos almostcasi never.
150
363000
3000
los dos son casi nunca.
06:21
So we have troubleproblema with the risksriesgos
151
366000
2000
Así que tenemos problemas con los riesgos
06:23
that aren'tno son very commoncomún.
152
368000
2000
que no son muy frecuentes.
06:25
And what these cognitivecognitivo biasessesgos do
153
370000
2000
Y lo que estos sesgos cognitivos hacen
06:27
is they actacto as filtersfiltros betweenEntre us and realityrealidad.
154
372000
3000
es que actúan como filtros entre nosotros y la realidad.
06:30
And the resultresultado
155
375000
2000
Y el resultado es que
06:32
is that feelingsensación and realityrealidad get out of whackgolpear,
156
377000
2000
la sensación y la realidad se desequilibran,
06:34
they get differentdiferente.
157
379000
3000
se tornan diferentes.
06:37
Now you eitherya sea have a feelingsensación -- you feel more secureseguro than you are.
158
382000
3000
Así que puedes tener la sensación; sentirte más seguro de lo que estás.
06:40
There's a falsefalso sensesentido of securityseguridad.
159
385000
2000
Hay una sensación irreal de seguridad.
06:42
Or the other way,
160
387000
2000
O al contrario,
06:44
and that's a falsefalso sensesentido of insecurityinseguridad.
161
389000
2000
y esa es una sensación irreal de inseguridad.
06:46
I writeescribir a lot about "securityseguridad theaterteatro,"
162
391000
3000
Escribo mucho sobre "teatro de seguridad",
06:49
whichcual are productsproductos that make people feel secureseguro,
163
394000
3000
que son productos que hacen que la gente se sienta segura
06:52
but don't actuallyactualmente do anything.
164
397000
2000
pero que en realidad no hacen nada.
06:54
There's no realreal wordpalabra for stuffcosas that makeshace us secureseguro,
165
399000
2000
No hay una palabra apropiada para cosas que nos den seguridad,
06:56
but doesn't make us feel secureseguro.
166
401000
2000
pero que no nos hagan sentir seguros.
06:58
Maybe it's what the CIA'sCIA supposedsupuesto to do for us.
167
403000
3000
Quizás esto es lo que se supone que la CIA debería lograr.
07:03
So back to economicsciencias económicas.
168
408000
2000
Y volvamos a la economía.
07:05
If economicsciencias económicas, if the marketmercado, drivesunidades securityseguridad,
169
410000
4000
Si la economía, si el mercado, son lo que impulsan a la seguridad
07:09
and if people make trade-offscompensaciones
170
414000
2000
y si la gente hace concesiones
07:11
basedbasado on the feelingsensación of securityseguridad,
171
416000
3000
basadas en su sensación de seguridad,
07:14
then the smartinteligente thing for companiescompañías to do
172
419000
2000
entonces lo más inteligente que las empresas pueden hacer
07:16
for the economiceconómico incentivesincentivos
173
421000
2000
por sus propios incentivos económicos
07:18
are to make people feel secureseguro.
174
423000
3000
es lograr la gente se sienta segura.
07:21
And there are two waysformas to do this.
175
426000
3000
Y hay dos maneras de hacer esto.
07:24
One, you can make people actuallyactualmente secureseguro
176
429000
2000
Uno, pueden hacer que la gente realmente esté segura
07:26
and hopeesperanza they noticedarse cuenta.
177
431000
2000
y esperar que se den cuenta.
07:28
Or two, you can make people just feel secureseguro
178
433000
3000
O dos, pueden hacer que la gente se sienta segura
07:31
and hopeesperanza they don't noticedarse cuenta.
179
436000
3000
y esperar que no se den cuenta.
07:35
So what makeshace people noticedarse cuenta?
180
440000
3000
Entonces, ¿qué hace que la gente se dé cuenta?
07:38
Well a couplePareja of things:
181
443000
2000
Bueno, un par de cosas:
07:40
understandingcomprensión of the securityseguridad,
182
445000
2000
entender qué es la seguridad,
07:42
of the risksriesgos, the threatsamenazas,
183
447000
2000
los riesgos, las amenazas,
07:44
the countermeasurescontramedidas, how they work.
184
449000
3000
las medidas previas, cómo funcionan.
07:47
But if you know stuffcosas,
185
452000
2000
Pero si sabes esas cosas,
07:49
you're more likelyprobable to have your feelingssentimientos matchpartido realityrealidad.
186
454000
3000
es más probable que tus sensaciones calcen con la realidad.
07:52
EnoughSuficiente realreal worldmundo examplesejemplos helpsayuda.
187
457000
3000
Ayuda tener suficientes ejemplos del mundo real.
07:55
Now we all know the crimecrimen ratetarifa in our neighborhoodbarrio,
188
460000
3000
Ahora todos sabemos la tasa de crímenes en nuestro vecindario,
07:58
because we livevivir there, and we get a feelingsensación about it
189
463000
3000
porque vivimos allí y tenemos una sensación al respecto
08:01
that basicallybásicamente matchespartidos realityrealidad.
190
466000
3000
que esencialmente calza con la realidad.
08:04
SecuritySeguridad theater'steatro exposedexpuesto
191
469000
3000
El teatro de seguridad queda expuesto
08:07
when it's obviousobvio that it's not workingtrabajando properlycorrectamente.
192
472000
3000
cuando es obvio que no está funcionando correctamente.
08:10
Okay, so what makeshace people not noticedarse cuenta?
193
475000
4000
Y entonces, ¿qué hace que la gente no se dé cuenta?
08:14
Well, a poorpobre understandingcomprensión.
194
479000
2000
Bueno, una mala comprensión.
08:16
If you don't understandentender the risksriesgos, you don't understandentender the costscostos,
195
481000
3000
Si no entiendes los riesgos, no entiendes los costos,
08:19
you're likelyprobable to get the trade-offcompensación wrongincorrecto,
196
484000
2000
es probable que tomes una mala decisión,
08:21
and your feelingsensación doesn't matchpartido realityrealidad.
197
486000
3000
y que tu sensación no corresponda con la realidad.
08:24
Not enoughsuficiente examplesejemplos.
198
489000
2000
Ejemplos insuficientes:
08:26
There's an inherentinherente problemproblema
199
491000
2000
Hay un problema intrínseco
08:28
with lowbajo probabilityprobabilidad eventseventos.
200
493000
2000
con eventos de baja probabilidad.
08:30
If, for exampleejemplo,
201
495000
2000
Si, por ejemplo, casi nunca hay
08:32
terrorismterrorismo almostcasi never happenssucede,
202
497000
2000
actos terroristas,
08:34
it's really harddifícil to judgejuez
203
499000
2000
es muy difícil medir cuan eficientes
08:36
the efficacyeficacia of counter-terroristcontra-terrorista measuresmedidas.
204
501000
3000
son las medidas en la lucha contra el terrorismo.
08:40
This is why you keep sacrificingsacrificando virginsvírgenes,
205
505000
3000
Por eso sigues sacrificando vírgenes,
08:43
and why your unicornunicornio defensesdefensas are workingtrabajando just great.
206
508000
3000
y la razón que tus defensas de unicornio estén funcionando de maravilla.
08:46
There aren'tno son enoughsuficiente examplesejemplos of failuresfallas.
207
511000
3000
No hay suficientes ejemplos de fracasos.
08:50
Alsotambién, feelingssentimientos that are cloudingnublarse the issuescuestiones --
208
515000
3000
Además, las sensaciones que nublan los temas;
08:53
the cognitivecognitivo biasessesgos I talkedhabló about earliermás temprano,
209
518000
2000
los sesgos cognitivos que mencioné antes,
08:55
fearsmiedos, folkgente beliefscreencias,
210
520000
3000
los miedos, las creencias populares,
08:58
basicallybásicamente an inadequateinadecuado modelmodelo of realityrealidad.
211
523000
3000
son básicamente un modelo inadecuado de la realidad.
09:02
So let me complicatecomplicar things.
212
527000
3000
Y déjenme complicar las cosas.
09:05
I have feelingsensación and realityrealidad.
213
530000
2000
Está la sensación y la realidad.
09:07
I want to addañadir a thirdtercero elementelemento. I want to addañadir modelmodelo.
214
532000
3000
Quiero añadir un tercer elemento. Quiero añadir el modelo.
09:10
FeelingSensación and modelmodelo in our headcabeza,
215
535000
2000
Sensación y modelo dentro de nuestra cabeza,
09:12
realityrealidad is the outsidefuera de worldmundo.
216
537000
2000
la realidad es el mundo exterior.
09:14
It doesn't changecambio; it's realreal.
217
539000
3000
No cambia, es real.
09:17
So feelingsensación is basedbasado on our intuitionintuición.
218
542000
2000
Y la sensación se basa en la intuición.
09:19
ModelModelo is basedbasado on reasonrazón.
219
544000
2000
El modelamiento se basa en la razón.
09:21
That's basicallybásicamente the differencediferencia.
220
546000
3000
Eso es básicamente la diferencia.
09:24
In a primitiveprimitivo and simplesencillo worldmundo,
221
549000
2000
En un mundo primitivo y simple,
09:26
there's really no reasonrazón for a modelmodelo
222
551000
3000
no hay ninguna razón real para un modelo.
09:29
because feelingsensación is closecerca to realityrealidad.
223
554000
3000
Porque la sensación es muy similar a la realidad.
09:32
You don't need a modelmodelo.
224
557000
2000
No necesitas un modelo.
09:34
But in a modernmoderno and complexcomplejo worldmundo,
225
559000
2000
Pero en un mundo moderno y complejo,
09:36
you need modelsmodelos
226
561000
2000
necesitas modelos para
09:38
to understandentender a lot of the risksriesgos we facecara.
227
563000
3000
comprender muchos de los riesgos que enfrentamos.
09:42
There's no feelingsensación about germsgérmenes.
228
567000
2000
Los gérmenes no nos generan una sensación.
09:44
You need a modelmodelo to understandentender them.
229
569000
3000
Se necesita un modelo para entenderlos.
09:47
So this modelmodelo
230
572000
2000
Así que este modelo es una
09:49
is an intelligentinteligente representationrepresentación of realityrealidad.
231
574000
3000
representación inteligente de la realidad.
09:52
It's, of coursecurso, limitedlimitado by scienceciencia,
232
577000
3000
Está, por supuesto, limitado por la ciencia,
09:55
by technologytecnología.
233
580000
2000
por la tecnología.
09:57
We couldn'tno pudo have a germgermen theoryteoría of diseaseenfermedad
234
582000
3000
No podríamos tener una teoría de los gérmenes en enfermedades
10:00
before we inventedinventado the microscopemicroscopio to see them.
235
585000
3000
antes de que inventáramos el microscopio para verlos.
10:04
It's limitedlimitado by our cognitivecognitivo biasessesgos.
236
589000
3000
Está limitado por nuestros prejuicios cognitivos.
10:07
But it has the abilitycapacidad
237
592000
2000
Pero tiene la capacidad de
10:09
to overrideanular our feelingssentimientos.
238
594000
2000
imponerse por sobre nuestras sensaciones.
10:11
Where do we get these modelsmodelos? We get them from othersotros.
239
596000
3000
¿De dónde obtenemos estos modelos? De los demás.
10:14
We get them from religionreligión, from culturecultura,
240
599000
3000
Los obtenemos de la religión, de la cultura,
10:17
teachersprofesores, eldersancianos.
241
602000
2000
de los profesores, de los mayores.
10:19
A couplePareja yearsaños agohace,
242
604000
2000
Hace un par de años
10:21
I was in SouthSur AfricaÁfrica on safarisafari.
243
606000
2000
estaba de safari en Sudáfrica.
10:23
The trackerrastreador I was with grewcreció up in KrugerKruger NationalNacional ParkParque.
244
608000
3000
El guía con que estaba había crecido en el Parque Nacional Kruger.
10:26
He had some very complexcomplejo modelsmodelos of how to survivesobrevivir.
245
611000
3000
Tenía unos modelos de supervivencia muy complejos.
10:29
And it dependeddependido on if you were attackedatacado
246
614000
2000
Y dependía de si habías sido atacado
10:31
by a lionleón or a leopardleopardo or a rhinorinoceronte or an elephantelefante --
247
616000
2000
por un león o un leopardo o un rinoceronte o un elefante
10:33
and when you had to runcorrer away, and when you couldn'tno pudo runcorrer away, and when you had to climbescalada a treeárbol --
248
618000
3000
-y cuando tenías que huir, y cuando tenías que subirte a un árbol,
10:36
when you could never climbescalada a treeárbol.
249
621000
2000
cuando no podías en ningún caso subirte a un árbol-.
10:38
I would have diedmurió in a day,
250
623000
3000
Me habría muerto en un día
10:41
but he was bornnacido there,
251
626000
2000
pero él nació allí
10:43
and he understoodentendido how to survivesobrevivir.
252
628000
2000
y entendía cómo sobrevivir.
10:45
I was bornnacido in NewNuevo YorkYork CityCiudad.
253
630000
2000
Yo nací en Nueva York.
10:47
I could have takentomado him to NewNuevo YorkYork, and he would have diedmurió in a day.
254
632000
3000
Lo podría haber llevado a Nueva York y él se habría muerto en un día.
10:50
(LaughterRisa)
255
635000
2000
(Risas)
10:52
Because we had differentdiferente modelsmodelos
256
637000
2000
Porque teníamos modelos diferentes
10:54
basedbasado on our differentdiferente experiencesexperiencias.
257
639000
3000
basados en nuestras experiencias diferentes.
10:58
ModelsModelos can come from the mediamedios de comunicación,
258
643000
2000
Los modelos pueden provenir de los medios,
11:00
from our electedelegido officialsoficiales.
259
645000
3000
de nuestros políticos electos.
11:03
Think of modelsmodelos of terrorismterrorismo,
260
648000
3000
Piensen en los modelos de terrorismo,
11:06
childniño kidnappingsecuestro,
261
651000
3000
de secuestro infantil,
11:09
airlineaerolínea safetyla seguridad, carcoche safetyla seguridad.
262
654000
2000
de seguridad aérea, seguridad de los vehículos.
11:11
ModelsModelos can come from industryindustria.
263
656000
3000
Los modelos pueden provenir de la industria.
11:14
The two I'm followingsiguiendo are surveillancevigilancia camerascámaras,
264
659000
2000
Los dos que estoy siguiendo son las cámaras de vigilancia
11:16
IDCARNÉ DE IDENTIDAD cardscartas,
265
661000
2000
y las tarjetas de identificación,
11:18
quitebastante a lot of our computercomputadora securityseguridad modelsmodelos come from there.
266
663000
3000
muchos de nuestros modelos de seguridad informática vienen de esto.
11:21
A lot of modelsmodelos come from scienceciencia.
267
666000
3000
Muchos de los modelos provienen de la ciencia.
11:24
HealthSalud modelsmodelos are a great exampleejemplo.
268
669000
2000
Un muy buen ejemplo son los modelos de salud.
11:26
Think of cancercáncer, of birdpájaro flugripe, swinecerdo flugripe, SARSSARS.
269
671000
3000
Piensen en cáncer, en gripe aviar, en gripe porcina, en SARS.
11:29
All of our feelingssentimientos of securityseguridad
270
674000
3000
Todas nuestras sensaciones de seguridad
11:32
about those diseasesenfermedades
271
677000
2000
acerca de esas enfermedades
11:34
come from modelsmodelos
272
679000
2000
provienen, en realidad, de los modelos
11:36
givendado to us, really, by scienceciencia filteredfiltrado throughmediante the mediamedios de comunicación.
273
681000
3000
entregados a nosotros por la ciencia filtrada a través de los medios.
11:40
So modelsmodelos can changecambio.
274
685000
3000
Y los modelos pueden cambiar.
11:43
ModelsModelos are not staticestático.
275
688000
2000
Los modelos no son estáticos.
11:45
As we becomevolverse more comfortablecómodo in our environmentsambientes,
276
690000
3000
A medida que nos sentimos más cómodos en nuestros ambientes,
11:48
our modelmodelo can movemovimiento closercerca to our feelingssentimientos.
277
693000
4000
nuestro modelo se va acercando a nuestra sensación.
11:53
So an exampleejemplo mightpodría be,
278
698000
2000
Así que un ejemplo podría ser,
11:55
if you go back 100 yearsaños agohace
279
700000
2000
si nos remontamos 100 años atrás
11:57
when electricityelectricidad was first becomingdevenir commoncomún,
280
702000
3000
cuando la electricidad se tornaba cada vez más común,
12:00
there were a lot of fearsmiedos about it.
281
705000
2000
había un montón de temores con respecto a esta.
12:02
I mean, there were people who were afraidasustado to pushempujar doorbellstimbres,
282
707000
2000
Quiero decir, había personas que tenían miedo de presionar un timbre
12:04
because there was electricityelectricidad in there, and that was dangerouspeligroso.
283
709000
3000
ya que había electricidad dentro de él y eso era peligroso.
12:07
For us, we're very facilefácil around electricityelectricidad.
284
712000
3000
Para nosotros no hay problemas cerca de la electricidad.
12:10
We changecambio lightligero bulbsbulbos
285
715000
2000
Cambiamos las ampolletas
12:12
withoutsin even thinkingpensando about it.
286
717000
2000
sin siquiera pensar en ello.
12:14
Our modelmodelo of securityseguridad around electricityelectricidad
287
719000
4000
Nuestro modelo de seguridad con respecto a la electricidad
12:18
is something we were bornnacido into.
288
723000
3000
es algo con lo cual nacemos.
12:21
It hasn'tno tiene changedcambiado as we were growingcreciente up.
289
726000
3000
No ha cambiado mientras hemos ido creciendo.
12:24
And we're good at it.
290
729000
3000
Y somos buenos para manejarlo.
12:27
Or think of the risksriesgos
291
732000
2000
O piensen en los riesgos
12:29
on the InternetInternet acrossa través de generationsgeneraciones --
292
734000
2000
con respecto a Internet entre generaciones;
12:31
how your parentspadres approachenfoque InternetInternet securityseguridad,
293
736000
2000
cómo sus padres determinan la seguridad en Internet
12:33
versusversus how you do,
294
738000
2000
frente a cómo lo hacen ustedes
12:35
versusversus how our kidsniños will.
295
740000
3000
frente a cómo lo harán nuestros hijos.
12:38
ModelsModelos eventuallyfinalmente fadedescolorarse into the backgroundfondo.
296
743000
3000
Con el tiempo los modelos se van al inconsciente.
12:42
IntuitiveIntuitivo is just anotherotro wordpalabra for familiarfamiliar.
297
747000
3000
Intuitivo es sólo otra palabra para familiar.
12:45
So as your modelmodelo is closecerca to realityrealidad,
298
750000
2000
Así que cuando el modelo se acerca a la realidad
12:47
and it convergesconverge with feelingssentimientos,
299
752000
2000
y converge con las sensaciones,
12:49
you oftena menudo don't know it's there.
300
754000
3000
a menudo no te das cuenta que está ahí.
12:52
So a nicebonito exampleejemplo of this
301
757000
2000
Y un buen ejemplo de esto
12:54
camevino from last yearaño and swinecerdo flugripe.
302
759000
3000
apareció el año pasado con la gripe porcina.
12:57
When swinecerdo flugripe first appearedapareció,
303
762000
2000
Cuando la gripe porcina apareció por primera vez
12:59
the initialinicial newsNoticias causedcausado a lot of overreactionreacción exagerada.
304
764000
4000
la noticia inicial causó una reacción muy exagerada.
13:03
Now it had a namenombre,
305
768000
2000
Ahora tenía un nombre,
13:05
whichcual madehecho it scariermás aterrador than the regularregular flugripe,
306
770000
2000
lo que la hacía más atemorizante que la gripe común,
13:07
even thoughaunque it was more deadlymortal.
307
772000
2000
a pesar de que era más letal.
13:09
And people thought doctorsdoctores should be ablepoder to dealacuerdo with it.
308
774000
4000
Y la gente pensó que los médicos debían ser capaces de manejarla.
13:13
So there was that feelingsensación of lackausencia of controlcontrolar.
309
778000
2000
Así que estaba esa sensación de falta de control.
13:15
And those two things
310
780000
2000
Y esas dos cosas
13:17
madehecho the riskriesgo more than it was.
311
782000
2000
hacían que el riesgo pareciera más de lo que era.
13:19
As the noveltynovedad worellevaba off, the monthsmeses wentfuimos by,
312
784000
3000
Mientras fue desapareciendo la novedad y pasando los meses,
13:22
there was some amountcantidad of tolerancetolerancia,
313
787000
2000
hubo una cantidad de tolerancia,
13:24
people got used to it.
314
789000
2000
la gente se acostumbró.
13:26
There was no newnuevo datadatos, but there was lessMenos fearmiedo.
315
791000
3000
No hubo datos nuevos, pero había menos temor.
13:29
By autumnotoño,
316
794000
2000
Para la llegada del otoño,
13:31
people thought
317
796000
2000
la gente pensaba
13:33
the doctorsdoctores should have solvedresuelto this alreadyya.
318
798000
2000
que los médicos ya deberían haberlo resuelto.
13:35
And there's kindtipo of a bifurcationbifurcación --
319
800000
2000
Y hay una especie de bifurcación;
13:37
people had to chooseescoger
320
802000
2000
la gente tuvo que elegir
13:39
betweenEntre fearmiedo and acceptanceaceptación --
321
804000
4000
entre el miedo y la aceptación
13:43
actuallyactualmente fearmiedo and indifferenceindiferencia --
322
808000
2000
-en realidad entre el miedo y la indiferencia-
13:45
they kindtipo of choseElegir suspicionsospecha.
323
810000
3000
y como que en realidad quedaron sospechosos.
13:48
And when the vaccinevacuna appearedapareció last winterinvierno,
324
813000
3000
Y cuando el invierno pasado apareció la vacuna
13:51
there were a lot of people -- a surprisingsorprendente numbernúmero --
325
816000
3000
hubo una gran cantidad de personas -un número sorprendente-
13:54
who refusedrechazado to get it --
326
819000
3000
que se negó a ponérsela;
13:58
as a nicebonito exampleejemplo
327
823000
2000
un buen ejemplo de
14:00
of how people'sla gente feelingssentimientos of securityseguridad changecambio, how theirsu modelmodelo changescambios,
328
825000
3000
cómo cambian las sensaciones de seguridad, cómo cambian sus modelos,
14:03
sortordenar of wildlysalvajemente
329
828000
2000
un poco descontrolados
14:05
with no newnuevo informationinformación,
330
830000
2000
sin nueva información,
14:07
with no newnuevo inputentrada.
331
832000
2000
sin nuevos inputs.
14:09
This kindtipo of thing happenssucede a lot.
332
834000
3000
Este tipo de cosas sucede frecuentemente.
14:12
I'm going to give one more complicationcomplicación.
333
837000
3000
Les voy a dar una complicación más.
14:15
We have feelingsensación, modelmodelo, realityrealidad.
334
840000
3000
Tenemos la sensación, el modelo, la realidad.
14:18
I have a very relativisticrelativista viewver of securityseguridad.
335
843000
2000
Tengo una visión muy relativista de la seguridad.
14:20
I think it dependsdepende on the observerobservador.
336
845000
3000
Creo que depende del observador.
14:23
And mostmás securityseguridad decisionsdecisiones
337
848000
2000
Y la mayoría de las decisiones sobre seguridad
14:25
have a varietyvariedad of people involvedinvolucrado.
338
850000
4000
involucran a varias personas.
14:29
And stakeholderspartes interesadas
339
854000
2000
Y las partes interesadas,
14:31
with specificespecífico trade-offscompensaciones
340
856000
3000
cada una con beneficios y perdidas propias,
14:34
will try to influenceinfluencia the decisiondecisión.
341
859000
2000
tratarán de influenciar la decisión.
14:36
And I call that theirsu agendaagenda.
342
861000
2000
Yo llamo a eso su agenda.
14:38
And you see agendaagenda --
343
863000
2000
Y se pueden ver las agendas
14:40
this is marketingmárketing, this is politicspolítica --
344
865000
3000
-en el marketing, en la política-
14:43
tryingmolesto to convinceconvencer you to have one modelmodelo versusversus anotherotro,
345
868000
3000
tratando de convencerlos de elegir un modelo en vez de otro,
14:46
tryingmolesto to convinceconvencer you to ignoreignorar a modelmodelo
346
871000
2000
tratando de convencerlos de ignorar un modelo
14:48
and trustconfianza your feelingssentimientos,
347
873000
3000
y de confiar en sus sensaciones,
14:51
marginalizingmarginalizando people with modelsmodelos you don't like.
348
876000
3000
dejando de lado a las personas con modelos que no les gustan.
14:54
This is not uncommonpoco común.
349
879000
3000
Esto es bastante frecuente.
14:57
An exampleejemplo, a great exampleejemplo, is the riskriesgo of smokingde fumar.
350
882000
3000
Un ejemplo, un gran ejemplo, es el riesgo de fumar.
15:01
In the historyhistoria of the pastpasado 50 yearsaños, the smokingde fumar riskriesgo
351
886000
3000
Durante los últimos 50 años, el riesgo de fumar
15:04
showsmuestra how a modelmodelo changescambios,
352
889000
2000
muestra cómo va cambiando un modelo
15:06
and it alsoademás showsmuestra how an industryindustria fightspeleas againsten contra
353
891000
3000
y también muestra cómo una industria pelea contra
15:09
a modelmodelo it doesn't like.
354
894000
2000
un modelo que no le gusta.
15:11
CompareComparar that to the secondhandsegunda mano smokefumar debatedebate --
355
896000
3000
Comparen esto con el debate del humo de segunda mano;
15:14
probablyprobablemente about 20 yearsaños behinddetrás.
356
899000
3000
el mismo caso probablemente 20 años antes.
15:17
Think about seatasiento beltscinturones.
357
902000
2000
Piensen acerca de los cinturones de seguridad.
15:19
When I was a kidniño, no one worellevaba a seatasiento beltcinturón.
358
904000
2000
Cuando yo era niño, nadie se ponía el cinturón de seguridad.
15:21
NowadaysHoy en día, no kidniño will let you drivemanejar
359
906000
2000
Hoy en día, ningún niño te permite manejar
15:23
if you're not wearingvistiendo a seatasiento beltcinturón.
360
908000
2000
si no lo llevas puesto.
15:26
CompareComparar that to the airbagairbag debatedebate --
361
911000
2000
Comparen esto con el debate del airbag;
15:28
probablyprobablemente about 30 yearsaños behinddetrás.
362
913000
3000
probablemente como 30 años atrasado.
15:31
All examplesejemplos of modelsmodelos changingcambiando.
363
916000
3000
Todos son ejemplos de modelos que van cambiando.
15:36
What we learnaprender is that changingcambiando modelsmodelos is harddifícil.
364
921000
3000
Lo que aprendemos es que cambiar los modelos es difícil.
15:39
ModelsModelos are harddifícil to dislodgedesalojar.
365
924000
2000
Los modelos son difíciles de desalojar.
15:41
If they equaligual your feelingssentimientos,
366
926000
2000
Si estos son iguales a sus sensaciones,
15:43
you don't even know you have a modelmodelo.
367
928000
3000
ni siquiera se darán cuenta que tienen un modelo.
15:46
And there's anotherotro cognitivecognitivo biasparcialidad
368
931000
2000
Y hay otro sesgo cognitivo que
15:48
I'll call confirmationconfirmación biasparcialidad,
369
933000
2000
llamaré sesgo de confirmación,
15:50
where we tendtender to acceptaceptar datadatos
370
935000
3000
donde tendemos a aceptar los datos
15:53
that confirmsconfirma our beliefscreencias
371
938000
2000
que confirman nuestras creencias
15:55
and rejectrechazar datadatos that contradictscontradice our beliefscreencias.
372
940000
3000
y rechazar los datos que las contradicen.
15:59
So evidenceevidencia againsten contra our modelmodelo,
373
944000
2000
Y es probable que ignoremos
16:01
we're likelyprobable to ignoreignorar, even if it's compellingirresistible.
374
946000
3000
la evidencia en contra de nuestro modelo, incluso si es convincente.
16:04
It has to get very compellingirresistible before we'llbien paypaga attentionatención.
375
949000
3000
Debe ser súper convincente antes de que le prestemos atención.
16:08
NewNuevo modelsmodelos that extendampliar long periodsperíodos of time are harddifícil.
376
953000
2000
Aún más complejos son los nuevos modelos que se extenderán por mucho tiempo.
16:10
GlobalGlobal warmingcalentamiento is a great exampleejemplo.
377
955000
2000
El calentamiento global es un gran ejemplo.
16:12
We're terribleterrible
378
957000
2000
Somos terribles
16:14
at modelsmodelos that spanlapso 80 yearsaños.
379
959000
2000
para modelos que abarcan 80 años.
16:16
We can do to the nextsiguiente harvestcosecha.
380
961000
2000
Podemos modelar la próxima cosecha.
16:18
We can oftena menudo do untilhasta our kidsniños growcrecer up.
381
963000
3000
De repente podemos modelar hasta que nuestros hijos crezcan.
16:21
But 80 yearsaños, we're just not good at.
382
966000
3000
Pero simplemente no somos buenos para 80 años.
16:24
So it's a very harddifícil modelmodelo to acceptaceptar.
383
969000
3000
Y entonces es un modelo muy difícil de aceptar.
16:27
We can have bothambos modelsmodelos in our headcabeza simultaneouslysimultaneamente,
384
972000
4000
Podemos tener ambos modelos en nuestra cabeza al mismo tiempo,
16:31
right, that kindtipo of problemproblema
385
976000
3000
ese tipo de problema
16:34
where we're holdingparticipación bothambos beliefscreencias togetherjuntos,
386
979000
3000
donde tenemos ambas creencias al mismo tiempo;
16:37
right, the cognitivecognitivo dissonancedisonancia.
387
982000
2000
la disonancia cognitiva.
16:39
EventuallyFinalmente,
388
984000
2000
Con el tiempo,
16:41
the newnuevo modelmodelo will replacereemplazar the oldantiguo modelmodelo.
389
986000
3000
el nuevo modelo reemplazará al antiguo.
16:44
StrongFuerte feelingssentimientos can createcrear a modelmodelo.
390
989000
3000
Las sensaciones fuertes pueden crear un modelo.
16:47
Septemberseptiembre 11thth createdcreado a securityseguridad modelmodelo
391
992000
3000
El 11 de septiembre creó un modelo de seguridad
16:50
in a lot of people'sla gente headscabezas.
392
995000
2000
en las mentes de mucha gente.
16:52
Alsotambién, personalpersonal experiencesexperiencias with crimecrimen can do it,
393
997000
3000
También se pueden crear a través de experiencias personales con crímenes,
16:55
personalpersonal healthsalud scaresusto,
394
1000000
2000
a través de sustos de salud personales,
16:57
a healthsalud scaresusto in the newsNoticias.
395
1002000
2000
de problemas de salud en las noticias.
16:59
You'llUsted see these calledllamado flashbulbflash eventseventos
396
1004000
2000
Verán estos eventos llamados "flash de luz"
17:01
by psychiatristspsiquiatras.
397
1006000
2000
por los psiquiatras.
17:03
They can createcrear a modelmodelo instantaneouslyinstantáneamente,
398
1008000
3000
Pueden crear un modelo de forma instantánea,
17:06
because they're very emotiveemotivo.
399
1011000
3000
porque son muy emotivos.
17:09
So in the technologicaltecnológico worldmundo,
400
1014000
2000
Y en el mundo tecnológico
17:11
we don't have experienceexperiencia
401
1016000
2000
no tenemos experiencia
17:13
to judgejuez modelsmodelos.
402
1018000
2000
para elegir los modelos.
17:15
And we relyconfiar on othersotros. We relyconfiar on proxiesproxies.
403
1020000
2000
Y dependemos de otros. Dependemos de representantes.
17:17
I mean, this workstrabajos as long as it's to correctcorrecto othersotros.
404
1022000
4000
Quiero decir, esto funciona mientras sea para corregir a otros.
17:21
We relyconfiar on governmentgobierno agenciesagencias
405
1026000
2000
Dependemos de los organismos gubernamentales para
17:23
to tell us what pharmaceuticalsproductos farmacéuticos are safeseguro.
406
1028000
5000
que nos digan qué medicamentos son seguros.
17:28
I flewvoló here yesterdayayer.
407
1033000
2000
Volé ayer para acá.
17:30
I didn't checkcomprobar the airplaneavión.
408
1035000
2000
No revisé el avión.
17:32
I reliedconfiado on some other groupgrupo
409
1037000
2000
Confié en algún otro grupo
17:34
to determinedeterminar whethersi my planeavión was safeseguro to flymosca.
410
1039000
3000
para determinar si mi avión era seguro para volar.
17:37
We're here, noneninguna of us fearmiedo the rooftecho is going to collapsecolapso on us,
411
1042000
3000
Estamos aquí, nadie teme que el techo se vaya a caer sobre nosotros,
17:40
not because we checkedcomprobado,
412
1045000
3000
no porque lo comprobamos,
17:43
but because we're prettybonita sure
413
1048000
2000
sino porque tenemos bastante confianza que
17:45
the buildingedificio codescódigos here are good.
414
1050000
3000
los códigos de construcción son buenos.
17:48
It's a modelmodelo we just acceptaceptar
415
1053000
2000
Es un modelo que simplemente aceptamos
17:50
prettybonita much by faithfe.
416
1055000
2000
sólo por fe.
17:52
And that's okay.
417
1057000
3000
Y eso está bien.
17:57
Now, what we want
418
1062000
2000
Ahora, lo que queremos
17:59
is people to get familiarfamiliar enoughsuficiente
419
1064000
2000
es que la gente se familiarice lo suficiente
18:01
with better modelsmodelos --
420
1066000
2000
con modelos buenos
18:03
have it reflectedreflejado in theirsu feelingssentimientos --
421
1068000
2000
-y que se reflejen en lo que sienten-
18:05
to allowpermitir them to make securityseguridad trade-offscompensaciones.
422
1070000
4000
para que puedan tomar buenas decisiones de seguridad.
18:09
Now when these go out of whackgolpear,
423
1074000
2000
Y entonces cuando estos se desalinean
18:11
you have two optionsopciones.
424
1076000
2000
se tienen dos opciones.
18:13
One, you can fixfijar people'sla gente feelingssentimientos,
425
1078000
2000
Una es arreglar las sensaciones de la gente,
18:15
directlydirectamente appealapelación to feelingssentimientos.
426
1080000
2000
apelar directamente a las sensaciones y sentimientos.
18:17
It's manipulationmanipulación, but it can work.
427
1082000
3000
Es manipulativo, pero puede funcionar.
18:20
The secondsegundo, more honesthonesto way
428
1085000
2000
La segunda manera, que es más honesta,
18:22
is to actuallyactualmente fixfijar the modelmodelo.
429
1087000
3000
es realmente solucionar el modelo.
18:26
ChangeCambio happenssucede slowlydespacio.
430
1091000
2000
El cambio se produce lentamente.
18:28
The smokingde fumar debatedebate tooktomó 40 yearsaños,
431
1093000
3000
El debate del cigarrillo tomó 40 años,
18:31
and that was an easyfácil one.
432
1096000
3000
y ese era uno simple.
18:34
Some of this stuffcosas is harddifícil.
433
1099000
2000
Algunos de estos son difíciles.
18:36
I mean really thoughaunque,
434
1101000
2000
Quiero decir, sin embargo,
18:38
informationinformación seemsparece like our bestmejor hopeesperanza.
435
1103000
2000
que la información parece ser nuestra mejor esperanza.
18:40
And I liedmintió.
436
1105000
2000
Y les mentí.
18:42
RememberRecuerda I said feelingsensación, modelmodelo, realityrealidad;
437
1107000
2000
Recuerdan cuando dije lo de la sensación, el modelo, la realidad.
18:44
I said realityrealidad doesn't changecambio. It actuallyactualmente does.
438
1109000
3000
Dije que la realidad no cambia. Pero en verdad sí cambia.
18:47
We livevivir in a technologicaltecnológico worldmundo;
439
1112000
2000
Vivimos en un mundo tecnológico;
18:49
realityrealidad changescambios all the time.
440
1114000
3000
la realidad cambia todo el tiempo.
18:52
So we mightpodría have -- for the first time in our speciesespecies --
441
1117000
3000
Así que podríamos tener -por primera vez para nuestra especie-
18:55
feelingsensación chasespersecuciones modelmodelo, modelmodelo chasespersecuciones realityrealidad, reality'sla realidad movingemocionante --
442
1120000
3000
la sensación persiguiendo al modelo, el modelo persiguiendo la realidad,
18:58
they mightpodría never catchcaptura up.
443
1123000
3000
la realidad va cambiando; y puede que jamás se vayan a alcanzar.
19:02
We don't know.
444
1127000
2000
No lo sabemos.
19:04
But in the long-terma largo plazo,
445
1129000
2000
Pero en el largo plazo,
19:06
bothambos feelingsensación and realityrealidad are importantimportante.
446
1131000
3000
tanto la sensación como la realidad son importantes.
19:09
And I want to closecerca with two quickrápido storiescuentos to illustrateilustrar this.
447
1134000
3000
Y quiero cerrar con dos historias rápidas para ilustrar esto.
19:12
1982 -- I don't know if people will rememberrecuerda this --
448
1137000
2000
En 1982 -no sé si la gente recordará esto-
19:14
there was a shortcorto epidemicepidemia
449
1139000
3000
hubo una epidemia de corta duración
19:17
of TylenolTylenol poisoningsenvenenamientos in the UnitedUnido StatesEstados.
450
1142000
2000
de envenenamientos con Tylenol en los Estados Unidos.
19:19
It's a horrifichorrendo storyhistoria. SomeoneAlguien tooktomó a bottlebotella of TylenolTylenol,
451
1144000
3000
Es una historia horrible. Alguien tomó una botella de Tylenol,
19:22
put poisonveneno in it, closedcerrado it up, put it back on the shelfestante.
452
1147000
3000
puso veneno en ella, la cerró y volvió a ponerla en el estante.
19:25
SomeoneAlguien elsemás boughtcompró it and diedmurió.
453
1150000
2000
Otra persona la compró y murió.
19:27
This terrifiedaterrorizado people.
454
1152000
2000
Esto aterrorizó a todo el mundo.
19:29
There were a couplePareja of copycatimitador attacksataques.
455
1154000
2000
Hubo un par de ataques que imitaron esto.
19:31
There wasn'tno fue any realreal riskriesgo, but people were scaredasustado.
456
1156000
3000
No había riesgo real, pero la gente estaba asustada.
19:34
And this is how
457
1159000
2000
Y así es como
19:36
the tamper-proofa prueba de manipulaciones drugdroga industryindustria was inventedinventado.
458
1161000
2000
se inventó la industria farmacéutica a prueba de manipulaciones.
19:38
Those tamper-proofa prueba de manipulaciones capstapas, that camevino from this.
459
1163000
2000
Esas tapas difíciles de abrir surgieron de esto.
19:40
It's completecompletar securityseguridad theaterteatro.
460
1165000
2000
Es totalmente teatro de seguridad.
19:42
As a homeworkdeberes assignmentasignación, think of 10 waysformas to get around it.
461
1167000
2000
Como tarea para la casa piensen en 10 maneras de vulnerarlas.
19:44
I'll give you one, a syringejeringuilla.
462
1169000
3000
Les daré una; una jeringa.
19:47
But it madehecho people feel better.
463
1172000
3000
Sin embargo hizo que la gente se sintiera mejor.
19:50
It madehecho theirsu feelingsensación of securityseguridad
464
1175000
2000
Hizo que su sensación de seguridad
19:52
more matchpartido the realityrealidad.
465
1177000
2000
se pareciera más a la realidad.
19:54
Last storyhistoria, a fewpocos yearsaños agohace, a friendamigo of minemía gavedio birthnacimiento.
466
1179000
3000
Última historia; hace unos años una amiga mía dio a luz.
19:57
I visitvisitar her in the hospitalhospital.
467
1182000
2000
La visité en el hospital.
19:59
It turnsvueltas out when a baby'sbebé bornnacido now,
468
1184000
2000
Resulta que ahora cuando un bebé nace
20:01
they put an RFIDRFID braceletpulsera on the babybebé,
469
1186000
2000
le ponen al bebé una pulsera RFID,
20:03
put a correspondingcorrespondiente one on the mothermadre,
470
1188000
2000
le ponen una pulsera relacionada a la madre
20:05
so if anyonenadie other than the mothermadre takes the babybebé out of the maternitymaternidad wardsala,
471
1190000
2000
y si otra persona retira al bebé de la sala de maternidad
20:07
an alarmalarma goesva off.
472
1192000
2000
suena una alarma.
20:09
I said, "Well, that's kindtipo of neatordenado.
473
1194000
2000
Me dije: "Bueno, eso está bien bueno.
20:11
I wonderpreguntarse how rampantdesenfrenado babybebé snatchingarrebatar is
474
1196000
2000
Me pregunto cuán comunes son los robos de bebé
20:13
out of hospitalshospitales."
475
1198000
2000
desde los hospitales."
20:15
I go home, I look it up.
476
1200000
2000
Me voy a casa y lo busco.
20:17
It basicallybásicamente never happenssucede.
477
1202000
2000
Básicamente no sucede jamás.
20:19
But if you think about it,
478
1204000
2000
Pero si lo piensas,
20:21
if you are a hospitalhospital,
479
1206000
2000
si eres un hospital
20:23
and you need to take a babybebé away from its mothermadre,
480
1208000
2000
y tienes que alejar al bebé de su madre,
20:25
out of the roomhabitación to runcorrer some testspruebas,
481
1210000
2000
fuera de la pieza para tomar algunos exámenes,
20:27
you better have some good securityseguridad theaterteatro,
482
1212000
2000
mejor que tengas un buen teatro de seguridad
20:29
or she's going to ripDEP your armbrazo off.
483
1214000
2000
o te va a arrancar el brazo entero.
20:31
(LaughterRisa)
484
1216000
2000
(Risas)
20:33
So it's importantimportante for us,
485
1218000
2000
Así que es importante para nosotros,
20:35
those of us who designdiseño securityseguridad,
486
1220000
2000
aquellos de nosotros que diseñamos seguridad,
20:37
who look at securityseguridad policypolítica,
487
1222000
3000
que observamos las políticas de seguridad,
20:40
or even look at publicpúblico policypolítica
488
1225000
2000
o incluso miramos a las políticas públicas
20:42
in waysformas that affectafectar securityseguridad.
489
1227000
2000
y las maneras que estas afectan a la seguridad.
20:44
It's not just realityrealidad; it's feelingsensación and realityrealidad.
490
1229000
3000
No es sólo la realidad, es sensación y la realidad.
20:47
What's importantimportante
491
1232000
2000
Lo que es importante
20:49
is that they be about the samemismo.
492
1234000
2000
es que sean más o menos iguales.
20:51
It's importantimportante that, if our feelingssentimientos matchpartido realityrealidad,
493
1236000
2000
Es importante que -si nuestras sensaciones calzan con la realidad-
20:53
we make better securityseguridad trade-offscompensaciones.
494
1238000
2000
tomemos mejores decisiones de seguridad.
20:55
Thank you.
495
1240000
2000
Gracias.
20:57
(ApplauseAplausos)
496
1242000
2000
(Aplausos)
Translated by Carlo Dezerega
Reviewed by Veronica Vera

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com