ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Bruce Schneier: A segurança como miragem

Filmed:
958,315 views

A sensação de segurança nem sempre corresponde à realidade, é o que afirma o especialista em segurança da computação Bruce Schneier. Na TEDxPSU ele explica porque gastamos bilhões por conta de riscos provenientes de noticiários, como o "teatro de segurança" operando agora no seu aeroporto local, enquanto desprezamos riscos mais palpáveis - e como podemos reverter essa situação.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So security is two different things:
0
0
2000
Segurança são duas coisas diferentes:
00:17
it's a feeling, and it's a reality.
1
2000
2000
sensação, e realidade.
00:19
And they're different.
2
4000
2000
E elas são de fato diferentes.
00:21
You could feel secure
3
6000
2000
Vocês podem se sentir seguros
00:23
even if you're not.
4
8000
2000
mesmo que não estejam.
00:25
And you can be secure
5
10000
2000
E podem estar seguros
00:27
even if you don't feel it.
6
12000
2000
mesmo que não sintam essa segurança.
00:29
Really, we have two separate concepts
7
14000
2000
Temos então dois conceitos distintos
00:31
mapped onto the same word.
8
16000
2000
representados por uma só palavra.
00:33
And what I want to do in this talk
9
18000
2000
E o que quero fazer nesta palestra
00:35
is to split them apart --
10
20000
2000
é separar um do outro --
00:37
figuring out when they diverge
11
22000
2000
compreendendo quando eles divergem
00:39
and how they converge.
12
24000
2000
e como convergem.
00:41
And language is actually a problem here.
13
26000
2000
E a linguagem aqui torna-se um problema.
00:43
There aren't a lot of good words
14
28000
2000
Não existem muitas palavras adequadas
00:45
for the concepts we're going to talk about.
15
30000
3000
para os conceitos sobre os quais falaremos.
00:48
So if you look at security
16
33000
2000
Assim, se olharem para a segurança
00:50
from economic terms,
17
35000
2000
do ponto de vista econômico,
00:52
it's a trade-off.
18
37000
2000
ela é uma negociação.
00:54
Every time you get some security,
19
39000
2000
Toda vez que vocês obtêm alguma segurança,
00:56
you're always trading off something.
20
41000
2000
estão sempre negociando alguma coisa.
00:58
Whether this is a personal decision --
21
43000
2000
Seja por uma decisão pessoal --
01:00
whether you're going to install a burglar alarm in your home --
22
45000
2000
ao instalarem um alarme contra roubo em suas casas --
01:02
or a national decision -- where you're going to invade some foreign country --
23
47000
3000
ou por uma decisão nacional -- ao invadirem um país estrangeiro --
01:05
you're going to trade off something,
24
50000
2000
vocês vão trocar uma coisa por outra,
01:07
either money or time, convenience, capabilities,
25
52000
3000
seja dinheiro, tempo, comodidade, potencialidades,
01:10
maybe fundamental liberties.
26
55000
3000
talvez liberdades essenciais.
01:13
And the question to ask when you look at a security anything
27
58000
3000
E a pergunta a fazer quando consideramos a segurança de qualquer coisa
01:16
is not whether this makes us safer,
28
61000
3000
não é se isto nos tornará mais seguros,
01:19
but whether it's worth the trade-off.
29
64000
3000
mas se essa troca valerá a pena.
01:22
You've heard in the past several years,
30
67000
2000
Nos últimos anos vocês têm ouvido falar
01:24
the world is safer because Saddam Hussein is not in power.
31
69000
2000
que o mundo está mais seguro porque Saddan Hussein não está no poder.
01:26
That might be true, but it's not terribly relevant.
32
71000
3000
Talvez seja verdade, mas isto não é extremamente relevante.
01:29
The question is, was it worth it?
33
74000
3000
A pergunta é: valeu a pena?
01:32
And you can make your own decision,
34
77000
3000
Vocês podem tomar uma decisão,
01:35
and then you'll decide whether the invasion was worth it.
35
80000
2000
e depois refletirem se a invasão valeu a pena.
01:37
That's how you think about security --
36
82000
2000
É assim que pensam sobre segurança --
01:39
in terms of the trade-off.
37
84000
2000
do ponto de vista da negociação.
01:41
Now there's often no right or wrong here.
38
86000
3000
Geralmente, nesse caso, não há certo ou errado.
01:44
Some of us have a burglar alarm system at home,
39
89000
2000
Alguns de nós temos sistema de alarme contra roubo em casa,
01:46
and some of us don't.
40
91000
2000
outros não.
01:48
And it'll depend on where we live,
41
93000
2000
Isso depende de onde moramos,
01:50
whether we live alone or have a family,
42
95000
2000
se vivemos sozinhos ou temos família,
01:52
how much cool stuff we have,
43
97000
2000
da quantidade de bens materiais que possuímos,
01:54
how much we're willing to accept
44
99000
2000
ou até que ponto estamos dispostos a aceitar
01:56
the risk of theft.
45
101000
2000
o risco de sermos roubados.
01:58
In politics also,
46
103000
2000
Na politica também
02:00
there are different opinions.
47
105000
2000
existem opiniões diferentes.
02:02
A lot of times, these trade-offs
48
107000
2000
Muitas vezes, essas negociações
02:04
are about more than just security,
49
109000
2000
representam muito mais do que segurança apenas.
02:06
and I think that's really important.
50
111000
2000
E acho que isso é muito importante.
02:08
Now people have a natural intuition
51
113000
2000
As pessoas hoje têm uma intuição natural
02:10
about these trade-offs.
52
115000
2000
sobre essas negociações.
02:12
We make them every day --
53
117000
2000
Fazemos isso todos os dias --
02:14
last night in my hotel room,
54
119000
2000
a noite passada no quarto do hotel,
02:16
when I decided to double-lock the door,
55
121000
2000
quando decidi dar duas voltas na chave do quarto,
02:18
or you in your car when you drove here,
56
123000
2000
ou vocês, quando vieram para cá de carro,
02:20
when we go eat lunch
57
125000
2000
quando vamos almoçar
02:22
and decide the food's not poison and we'll eat it.
58
127000
3000
e decidimos comer porque a comida não é veneno.
02:25
We make these trade-offs again and again,
59
130000
2000
Fazemos concessões repetidas vezes,
02:27
multiple times a day.
60
132000
2000
várias vezes ao dia.
02:29
We often won't even notice them.
61
134000
2000
Às vezes nem percebemos.
02:31
They're just part of being alive; we all do it.
62
136000
2000
Isso quer dizer que estamos vivos; todos nós fazemos isso.
02:33
Every species does it.
63
138000
3000
Todas as espécies fazem.
02:36
Imagine a rabbit in a field, eating grass,
64
141000
2000
Imaginem um coelho num campo, comendo grama,
02:38
and the rabbit's going to see a fox.
65
143000
3000
e esse coelho avista uma raposa.
02:41
That rabbit will make a security trade-off:
66
146000
2000
Ele vai tomar decisões para sua segurança.
02:43
"Should I stay, or should I flee?"
67
148000
2000
"Devo ficar, ou fugir?"
02:45
And if you think about it,
68
150000
2000
Se vocês pararem para pensar,
02:47
the rabbits that are good at making that trade-off
69
152000
3000
os coelhos que são bons em tomar decisões
02:50
will tend to live and reproduce,
70
155000
2000
tenderão a viver e a se reproduzir,
02:52
and the rabbits that are bad at it
71
157000
2000
enquanto aqueles que são ruins nisso
02:54
will get eaten or starve.
72
159000
2000
serão devorados ou morrerão de fome.
02:56
So you'd think
73
161000
2000
Então vocês hão de pensar
02:58
that us, as a successful species on the planet --
74
163000
3000
que nós, como a espécie evoluída do planeta --
03:01
you, me, everybody --
75
166000
2000
vocês, eu, todos nós --
03:03
would be really good at making these trade-offs.
76
168000
3000
seríamos muito bons em sacrificar uma coisa por outra.
03:06
Yet it seems, again and again,
77
171000
2000
No entanto parece, mais uma vez,
03:08
that we're hopelessly bad at it.
78
173000
3000
que somos irremediavelmente ruins nisso.
03:11
And I think that's a fundamentally interesting question.
79
176000
3000
E acho que essa é uma questão bastante interessante.
03:14
I'll give you the short answer.
80
179000
2000
Vou dar-lhes uma resposta em breves palavras.
03:16
The answer is, we respond to the feeling of security
81
181000
2000
Na verdade, reagimos à sensação de segurança,
03:18
and not the reality.
82
183000
3000
e não àquilo que é real.
03:21
Now most of the time, that works.
83
186000
3000
O que, na maioria das vezes, funciona.
03:25
Most of the time,
84
190000
2000
Muitas vezes,
03:27
feeling and reality are the same.
85
192000
3000
sensação e realidade são a mesma coisa.
03:30
Certainly that's true
86
195000
2000
Isso certamente é verdade
03:32
for most of human prehistory.
87
197000
3000
para a maior parte da humanidade na pré-história.
03:35
We've developed this ability
88
200000
3000
Desenvolvemos esta habilidade
03:38
because it makes evolutionary sense.
89
203000
2000
porque obedece à lógica evolutiva.
03:40
One way to think of it
90
205000
2000
Uma forma de entender isso
03:42
is that we're highly optimized
91
207000
2000
é que somos altamente desenvolvidos
03:44
for risk decisions
92
209000
2000
para tomar decisões de risco
03:46
that are endemic to living in small family groups
93
211000
3000
que são endêmicas à vida em pequenos grupos familiares
03:49
in the East African highlands in 100,000 B.C.
94
214000
3000
nas terras altas do Leste Africano em 100.000 a.C. --
03:52
2010 New York, not so much.
95
217000
3000
já em Nova York em 2010, nem tanto.
03:56
Now there are several biases in risk perception.
96
221000
3000
Existem várias distorções na percepção do que é um risco.
03:59
A lot of good experiments in this.
97
224000
2000
Há muitas experiências enriquecedoras neste sentido.
04:01
And you can see certain biases that come up again and again.
98
226000
3000
E vocês podem entender certas distorções que aparecem repetidas vezes.
04:04
So I'll give you four.
99
229000
2000
E vou citar quatro delas.
04:06
We tend to exaggerate spectacular and rare risks
100
231000
3000
Tendemos a agigantar riscos tremendos e raros
04:09
and downplay common risks --
101
234000
2000
e a minimizar riscos comuns --
04:11
so flying versus driving.
102
236000
3000
como andar de avião e andar de carro.
04:14
The unknown is perceived
103
239000
2000
O desconhecido é considerado
04:16
to be riskier than the familiar.
104
241000
3000
mais arriscado do que o que é familiar.
04:20
One example would be,
105
245000
2000
Um exemplo disso seria
04:22
people fear kidnapping by strangers
106
247000
3000
o medo que as pessoas têm de serem sequestradas por estranhos,
04:25
when the data supports kidnapping by relatives is much more common.
107
250000
3000
enquanto os dados apontam que é mais comum o sequestro por parentes.
04:28
This is for children.
108
253000
2000
Isto, em se tratando de crianças.
04:30
Third, personified risks
109
255000
3000
A terceira distorção seria os riscos personificados
04:33
are perceived to be greater than anonymous risks --
110
258000
3000
que são considerados maiores do que os anônimos --
04:36
so Bin Laden is scarier because he has a name.
111
261000
3000
desse jeito, Bin Laden é mais medonho porque tem um nome.
04:39
And the fourth
112
264000
2000
E a quarta,
04:41
is people underestimate risks
113
266000
2000
é quando as pessoas subestimam os riscos
04:43
in situations they do control
114
268000
2000
em situações que podem ser controladas
04:45
and overestimate them in situations they don't control.
115
270000
4000
e os supervalorizam em situações de difícil controle.
04:49
So once you take up skydiving or smoking,
116
274000
3000
Uma vez que vocês resolvem fazer um salto em queda livre ou fumar,
04:52
you downplay the risks.
117
277000
2000
estão menosprezando os riscos.
04:54
If a risk is thrust upon you -- terrorism was a good example --
118
279000
3000
E se são submetidos a algum risco -- o terrorismo foi um bom exemplo --
04:57
you'll overplay it because you don't feel like it's in your control.
119
282000
3000
vão supervalorizá-lo, porque acham que está fora de seu controle.
05:02
There are a bunch of other of these biases, these cognitive biases,
120
287000
3000
Há uma série de outras distorções, chamadas cognitivas,
05:05
that affect our risk decisions.
121
290000
3000
que afetam nossas decisões em relação aos riscos.
05:08
There's the availability heuristic,
122
293000
2000
Como a heurística de disponibilidade,
05:10
which basically means
123
295000
2000
que basicamente significa
05:12
we estimate the probability of something
124
297000
3000
que nós calculamos a probabilidade de alguma coisa
05:15
by how easy it is to bring instances of it to mind.
125
300000
4000
pela sua facilidade em trazer alternativas à nossa mente.
05:19
So you can imagine how that works.
126
304000
2000
Então vocês podem imaginar como isso funciona.
05:21
If you hear a lot about tiger attacks, there must be a lot of tigers around.
127
306000
3000
Se vocês ouvem falar muito sobre ataques de tigres, é porque existem muitos deles ao seu redor.
05:24
You don't hear about lion attacks, there aren't a lot of lions around.
128
309000
3000
Se não ouvem falar de ataques de leões, então não existem leões à solta.
05:27
This works until you invent newspapers.
129
312000
3000
Isto funcionava antes da invenção dos jornais.
05:30
Because what newspapers do
130
315000
2000
Porque o que eles fazem
05:32
is they repeat again and again
131
317000
2000
é repetir várias vezes
05:34
rare risks.
132
319000
2000
riscos incomuns.
05:36
I tell people, if it's in the news, don't worry about it.
133
321000
2000
É o que sempre digo, se está nos noticiários, não se preocupem.
05:38
Because by definition,
134
323000
2000
Já que, por definição,
05:40
news is something that almost never happens.
135
325000
3000
notícias de jornal quase sempre são falsas.
05:43
(Laughter)
136
328000
2000
(Risos)
05:45
When something is so common, it's no longer news --
137
330000
3000
Quando um fato é muito comum, deixa de estar nos noticiários --
05:48
car crashes, domestic violence --
138
333000
2000
acidentes de carro, violência doméstica --
05:50
those are the risks you worry about.
139
335000
3000
esses são os riscos com os quais têm que se preocupar.
05:53
We're also a species of storytellers.
140
338000
2000
Somos uma espécie de contadores de histórias.
05:55
We respond to stories more than data.
141
340000
3000
Respondemos a histórias mais do que aos dados.
05:58
And there's some basic innumeracy going on.
142
343000
2000
E existe a questão da quantidade.
06:00
I mean, the joke "One, Two, Three, Many" is kind of right.
143
345000
3000
Isso significa que a brincadeira "Um, Dois, Três, um Montão" faz sentido.
06:03
We're really good at small numbers.
144
348000
3000
Somos muito bons em números pequenos.
06:06
One mango, two mangoes, three mangoes,
145
351000
2000
1 manga, 2 mangas, 3 mangas,
06:08
10,000 mangoes, 100,000 mangoes --
146
353000
2000
10.000 mangas, 100.000 mangas --
06:10
it's still more mangoes you can eat before they rot.
147
355000
3000
são ainda mais mangas a comer antes de apodrecer.
06:13
So one half, one quarter, one fifth -- we're good at that.
148
358000
3000
Assim 1/2, 1/4, 1/5 - somos bons nisso.
06:16
One in a million, one in a billion --
149
361000
2000
1 em um milhão, 1 em um bilhão --
06:18
they're both almost never.
150
363000
3000
significam quase nunca.
06:21
So we have trouble with the risks
151
366000
2000
Da mesma forma temos problemas com os riscos
06:23
that aren't very common.
152
368000
2000
que não são muito comuns.
06:25
And what these cognitive biases do
153
370000
2000
E o que essas distorções cognitivas fazem
06:27
is they act as filters between us and reality.
154
372000
3000
é agir como filtros entre nós e a realidade.
06:30
And the result
155
375000
2000
E o resultado
06:32
is that feeling and reality get out of whack,
156
377000
2000
é que sensação e realidade ficam desequilibradas,
06:34
they get different.
157
379000
3000
ficam diferentes.
06:37
Now you either have a feeling -- you feel more secure than you are.
158
382000
3000
Neste caso, ou vocês têm uma sensação -- se sentem mais seguros do que estão.
06:40
There's a false sense of security.
159
385000
2000
Existe uma falsa sensação de segurança.
06:42
Or the other way,
160
387000
2000
Ou ao contrário,
06:44
and that's a false sense of insecurity.
161
389000
2000
ou seja, uma falsa sensação de insegurança.
06:46
I write a lot about "security theater,"
162
391000
3000
Escrevo muito sobre "teatro de segurança,"
06:49
which are products that make people feel secure,
163
394000
3000
que são produtos que fazem as pessoas se sentirem seguras,
06:52
but don't actually do anything.
164
397000
2000
mas que na verdade não fazem nada disso.
06:54
There's no real word for stuff that makes us secure,
165
399000
2000
Não existe uma palavra para definir aquilo que nos torna seguros,
06:56
but doesn't make us feel secure.
166
401000
2000
mas não nos faça sentir seguros.
06:58
Maybe it's what the CIA's supposed to do for us.
167
403000
3000
Talvez seja isso que a CIA tenha que fazer por nós.
07:03
So back to economics.
168
408000
2000
Mas voltemos à economia.
07:05
If economics, if the market, drives security,
169
410000
4000
Se a economia, ou o mercado, transmite segurança,
07:09
and if people make trade-offs
170
414000
2000
e se as pessoas fazem sacrifícios
07:11
based on the feeling of security,
171
416000
3000
baseadas na sensação de segurança,
07:14
then the smart thing for companies to do
172
419000
2000
então a medida mais inteligente a ser tomada pelas companhias
07:16
for the economic incentives
173
421000
2000
em favor dos incentivos econômicos
07:18
are to make people feel secure.
174
423000
3000
é fazer com que as pessoas se sintam seguras.
07:21
And there are two ways to do this.
175
426000
3000
E existem dois caminhos para chegar a isto.
07:24
One, you can make people actually secure
176
429000
2000
Primeiro, podemos tornar as pessoas verdadeiramente seguras
07:26
and hope they notice.
177
431000
2000
e ter a esperança de que elas percebam.
07:28
Or two, you can make people just feel secure
178
433000
3000
Segundo, podemos fazer com que se sintam seguras
07:31
and hope they don't notice.
179
436000
3000
e esperar que não percebam
07:35
So what makes people notice?
180
440000
3000
E o que fará com que elas percebam?
07:38
Well a couple of things:
181
443000
2000
Na verdade, uma série de coisas:
07:40
understanding of the security,
182
445000
2000
a compreensão da segurança,
07:42
of the risks, the threats,
183
447000
2000
dos riscos, das ameaças,
07:44
the countermeasures, how they work.
184
449000
3000
das medidas prévias, e de como elas funcionam.
07:47
But if you know stuff,
185
452000
2000
Mas se vocês têm conhecimento das coisas,
07:49
you're more likely to have your feelings match reality.
186
454000
3000
são mais propensos a ter suas sensações condizendo com a realidade.
07:52
Enough real world examples helps.
187
457000
3000
Um número suficiente de exemplos do mundo real ajuda muito.
07:55
Now we all know the crime rate in our neighborhood,
188
460000
3000
Todos nós sabemos do índice de criminalidade na nossa vizinhança,
07:58
because we live there, and we get a feeling about it
189
463000
3000
porque moramos lá, e temos essa sensação
08:01
that basically matches reality.
190
466000
3000
que basicamente corresponde à realidade.
08:04
Security theater's exposed
191
469000
3000
A câmera de segurança fica visível
08:07
when it's obvious that it's not working properly.
192
472000
3000
quando é óbvio que não está funcionando adequadamente.
08:10
Okay, so what makes people not notice?
193
475000
4000
Tudo bem, então o que faz com que as pessoas não percebam?
08:14
Well, a poor understanding.
194
479000
2000
Uma noção precária.
08:16
If you don't understand the risks, you don't understand the costs,
195
481000
3000
Se vocês não entendem os riscos, não entendem os custos.
08:19
you're likely to get the trade-off wrong,
196
484000
2000
E provavelmente farão concessões equivocadas,
08:21
and your feeling doesn't match reality.
197
486000
3000
e sua sensação não corresponderá à realidade.
08:24
Not enough examples.
198
489000
2000
Não há exemplos suficientes.
08:26
There's an inherent problem
199
491000
2000
Existe um problema inerente
08:28
with low probability events.
200
493000
2000
aos eventos de baixa probabilidade.
08:30
If, for example,
201
495000
2000
Se, por exemplo,
08:32
terrorism almost never happens,
202
497000
2000
o terrorismo quase nunca acontece,
08:34
it's really hard to judge
203
499000
2000
é muito difícil julgar
08:36
the efficacy of counter-terrorist measures.
204
501000
3000
a eficácia das medidas anti-terroristas.
08:40
This is why you keep sacrificing virgins,
205
505000
3000
É por isso que vocês continuam sacrificando as virgens,
08:43
and why your unicorn defenses are working just great.
206
508000
3000
e por isso as defesas do unicórnio estão funcionando perfeitamente.
08:46
There aren't enough examples of failures.
207
511000
3000
Não existem exemplos suficientes de fracassos.
08:50
Also, feelings that are clouding the issues --
208
515000
3000
Além disso, as sensações estão ofuscando as questões --
08:53
the cognitive biases I talked about earlier,
209
518000
2000
as distorções cognitivas das quais falei anteriormente,
08:55
fears, folk beliefs,
210
520000
3000
medos, crenças populares,
08:58
basically an inadequate model of reality.
211
523000
3000
basicamente um modelo de realidade inadequado.
09:02
So let me complicate things.
212
527000
3000
Então vamos complicar as coisas.
09:05
I have feeling and reality.
213
530000
2000
Eu tenho sensação e realidade.
09:07
I want to add a third element. I want to add model.
214
532000
3000
Quero acrescentar um terceiro elemento. Um modelo.
09:10
Feeling and model in our head,
215
535000
2000
Sensação e modelo em nossa mente,
09:12
reality is the outside world.
216
537000
2000
realidade no mundo exterior.
09:14
It doesn't change; it's real.
217
539000
3000
Isto não muda; é real.
09:17
So feeling is based on our intuition.
218
542000
2000
Logo, a sensação baseia-se em nossa intuição.
09:19
Model is based on reason.
219
544000
2000
O modelo baseia-se na razão.
09:21
That's basically the difference.
220
546000
3000
Essa é basicamente a diferença.
09:24
In a primitive and simple world,
221
549000
2000
Num mundo simples e primitivo,
09:26
there's really no reason for a model
222
551000
3000
não há motivo para um modelo.
09:29
because feeling is close to reality.
223
554000
3000
Porque a sensação está próxima da realidade.
09:32
You don't need a model.
224
557000
2000
Vocês não precisam de um modelo.
09:34
But in a modern and complex world,
225
559000
2000
Mas num mundo complexo e moderno,
09:36
you need models
226
561000
2000
vocês precisam de modelos
09:38
to understand a lot of the risks we face.
227
563000
3000
para entender muitos dos riscos com os quais nos deparamos.
09:42
There's no feeling about germs.
228
567000
2000
Não há como sentir as bactérias.
09:44
You need a model to understand them.
229
569000
3000
Vocês precisam de um modelo para entendê-las.
09:47
So this model
230
572000
2000
Então este modelo
09:49
is an intelligent representation of reality.
231
574000
3000
é uma representação inteligente da realidade.
09:52
It's, of course, limited by science,
232
577000
3000
E, é claro, limitado pela ciência,
09:55
by technology.
233
580000
2000
pela tecnologia.
09:57
We couldn't have a germ theory of disease
234
582000
3000
Não poderíamos ter uma teoria bacteriana de uma doença
10:00
before we invented the microscope to see them.
235
585000
3000
antes de inventarmos o microscópio e observá-las.
10:04
It's limited by our cognitive biases.
236
589000
3000
Isto é limitado pelas nossas distorções cognitivas.
10:07
But it has the ability
237
592000
2000
Mas tem a habilidade
10:09
to override our feelings.
238
594000
2000
de anular nossas sensações.
10:11
Where do we get these models? We get them from others.
239
596000
3000
Onde conseguimos estes modelos? Através de outros.
10:14
We get them from religion, from culture,
240
599000
3000
Conseguimos modelos através da religião, da cultura,
10:17
teachers, elders.
241
602000
2000
de professores, de idosos.
10:19
A couple years ago,
242
604000
2000
Há alguns anos atrás,
10:21
I was in South Africa on safari.
243
606000
2000
eu estava num safari na África do Sul.
10:23
The tracker I was with grew up in Kruger National Park.
244
608000
3000
O guia que me acompanhava cresceu no Parque Nacional de Kruger.
10:26
He had some very complex models of how to survive.
245
611000
3000
Ele tinha modelos bem complexos de sobrevivência.
10:29
And it depended on if you were attacked
246
614000
2000
E tudo dependia de como você fosse atacado
10:31
by a lion or a leopard or a rhino or an elephant --
247
616000
2000
por um leão, um leopardo, um rinoceronte ou um elefante --
10:33
and when you had to run away, and when you couldn't run away, and when you had to climb a tree --
248
618000
3000
e quando você tinha que fugir, ou subir numa árvore --
10:36
when you could never climb a tree.
249
621000
2000
quando você nunca poderia subir numa árvore.
10:38
I would have died in a day,
250
623000
3000
Eu teria morrido no mesmo dia,
10:41
but he was born there,
251
626000
2000
mas ele nasceu lá,
10:43
and he understood how to survive.
252
628000
2000
e sabia como sobreviver.
10:45
I was born in New York City.
253
630000
2000
Eu nasci na cidade de Nova York.
10:47
I could have taken him to New York, and he would have died in a day.
254
632000
3000
Eu poderia tê-lo levado para Nova York, e ele teria morrido no mesmo dia.
10:50
(Laughter)
255
635000
2000
(Risos)
10:52
Because we had different models
256
637000
2000
Isso porque tínhamos modelos diferentes
10:54
based on our different experiences.
257
639000
3000
baseados em experiências diferentes.
10:58
Models can come from the media,
258
643000
2000
Os modelos podem surgir da mídia,
11:00
from our elected officials.
259
645000
3000
de nossos candidatos eleitos.
11:03
Think of models of terrorism,
260
648000
3000
Pensem nos modelos do terrorismo,
11:06
child kidnapping,
261
651000
3000
sequestros de crianças,
11:09
airline safety, car safety.
262
654000
2000
segurança aérea, segurança automobilística.
11:11
Models can come from industry.
263
656000
3000
Os modelos podem surgir da indústria.
11:14
The two I'm following are surveillance cameras,
264
659000
2000
Os dois que estou acompanhando são câmeras de vigilância,
11:16
ID cards,
265
661000
2000
e carteiras de identidade.
11:18
quite a lot of our computer security models come from there.
266
663000
3000
Muitos dos nossos modelos de segurança da computação vêm daí.
11:21
A lot of models come from science.
267
666000
3000
Muitos modelos surgem da ciência.
11:24
Health models are a great example.
268
669000
2000
Modelos da saúde são um grande exemplo.
11:26
Think of cancer, of bird flu, swine flu, SARS.
269
671000
3000
Pensem no câncer, na gripe aviária, na gripe suína, na SARS.
11:29
All of our feelings of security
270
674000
3000
Todas as nossas sensações de segurança
11:32
about those diseases
271
677000
2000
a respeito dessas doenças
11:34
come from models
272
679000
2000
surgem de modelos
11:36
given to us, really, by science filtered through the media.
273
681000
3000
que certamente nos são dados pela ciência filtrada pela mídia.
11:40
So models can change.
274
685000
3000
Logo, os modelos podem mudar.
11:43
Models are not static.
275
688000
2000
Os modelos não são estáticos.
11:45
As we become more comfortable in our environments,
276
690000
3000
À medida em que nos tornamos mais confortáveis em nosso ambiente,
11:48
our model can move closer to our feelings.
277
693000
4000
nosso modelo pode se aproximar de nossas sensações.
11:53
So an example might be,
278
698000
2000
Um exemplo disso seria:
11:55
if you go back 100 years ago
279
700000
2000
se retrocederem 100 anos,
11:57
when electricity was first becoming common,
280
702000
3000
quando a eletricidade estava apenas começando,
12:00
there were a lot of fears about it.
281
705000
2000
havia muito medo em relação a ela.
12:02
I mean, there were people who were afraid to push doorbells,
282
707000
2000
Por exemplo, algumas pessoas tinham medo de tocar campainhas,
12:04
because there was electricity in there, and that was dangerous.
283
709000
3000
porque estavam carregadas de eletricidade, e aquilo era perigoso.
12:07
For us, we're very facile around electricity.
284
712000
3000
Para nós, a eletricidade não tem mistério.
12:10
We change light bulbs
285
715000
2000
Trocamos lâmpadas
12:12
without even thinking about it.
286
717000
2000
sem o menor problema.
12:14
Our model of security around electricity
287
719000
4000
Nosso modelo de segurança em relação à eletricidade
12:18
is something we were born into.
288
723000
3000
é uma coisa inata.
12:21
It hasn't changed as we were growing up.
289
726000
3000
Ela não mudou durante nosso crescimento.
12:24
And we're good at it.
290
729000
3000
E somos bons nisso.
12:27
Or think of the risks
291
732000
2000
Pensem então nos riscos
12:29
on the Internet across generations --
292
734000
2000
da Internet através das gerações --
12:31
how your parents approach Internet security,
293
736000
2000
como seus pais lidam com a segurança na Internet,
12:33
versus how you do,
294
738000
2000
bem diferente de vocês,
12:35
versus how our kids will.
295
740000
3000
e como será com nossos filhos.
12:38
Models eventually fade into the background.
296
743000
3000
Os modelos acabam desaparecendo.
12:42
Intuitive is just another word for familiar.
297
747000
3000
Intuitivo é apenas mais uma palavra para o que é familiar.
12:45
So as your model is close to reality,
298
750000
2000
Assim, a medida em que seu modelo se aproxima da realidade,
12:47
and it converges with feelings,
299
752000
2000
e converge com as sensações,
12:49
you often don't know it's there.
300
754000
3000
na maioria das vezes vocês não sabem que ele está lá.
12:52
So a nice example of this
301
757000
2000
Logo, um bom exemplo disso
12:54
came from last year and swine flu.
302
759000
3000
surgiu com a gripe suína no ano passado.
12:57
When swine flu first appeared,
303
762000
2000
Quando a gripe suína apareceu pela primeira vez,
12:59
the initial news caused a lot of overreaction.
304
764000
4000
as primeiras notícias causaram uma reação exagerada.
13:03
Now it had a name,
305
768000
2000
Agora ela tinha um nome,
13:05
which made it scarier than the regular flu,
306
770000
2000
que a tornava mais assustadora do que a gripe comum,
13:07
even though it was more deadly.
307
772000
2000
embora fosse mais letal.
13:09
And people thought doctors should be able to deal with it.
308
774000
4000
E as pessoas achavam que os médicos deviam saber como lidar com ela.
13:13
So there was that feeling of lack of control.
309
778000
2000
Então houve uma sensação de impotência.
13:15
And those two things
310
780000
2000
E essas duas coisas
13:17
made the risk more than it was.
311
782000
2000
fizeram o risco ainda maior do que era.
13:19
As the novelty wore off, the months went by,
312
784000
3000
Quando deixou de ser novidade, os meses se passaram,
13:22
there was some amount of tolerance,
313
787000
2000
houve uma dose de tolerância,
13:24
people got used to it.
314
789000
2000
e as pessoas se acostumaram a ela.
13:26
There was no new data, but there was less fear.
315
791000
3000
Não havia nenhuma informação nova, mas havia menos temor.
13:29
By autumn,
316
794000
2000
Quando chegou o outono,
13:31
people thought
317
796000
2000
as pessoas achavam
13:33
the doctors should have solved this already.
318
798000
2000
que os médicos já deveriam ter resolvido este problema.
13:35
And there's kind of a bifurcation --
319
800000
2000
E há um tipo de divisão --
13:37
people had to choose
320
802000
2000
as pessoas tinham que escolher
13:39
between fear and acceptance --
321
804000
4000
entre medo e aceitação --
13:43
actually fear and indifference --
322
808000
2000
na verdade, medo e indiferença --
13:45
they kind of chose suspicion.
323
810000
3000
e eles escolheram a desconfiança.
13:48
And when the vaccine appeared last winter,
324
813000
3000
E quando a vacina apareceu no último inverno,
13:51
there were a lot of people -- a surprising number --
325
816000
3000
houve muitas pessoas -- um número surpreendente de pessoas --
13:54
who refused to get it --
326
819000
3000
que se recusaram a tomá-la --
13:58
as a nice example
327
823000
2000
como um bom exemplo
14:00
of how people's feelings of security change, how their model changes,
328
825000
3000
de como mudam as sensações de segurança das pessoas, como mudam seus modelos,
14:03
sort of wildly
329
828000
2000
meio que descontroladamente,
14:05
with no new information,
330
830000
2000
sem nenhuma informação nova,
14:07
with no new input.
331
832000
2000
sem nenhum dado novo.
14:09
This kind of thing happens a lot.
332
834000
3000
Este tipo de coisa acontece muito.
14:12
I'm going to give one more complication.
333
837000
3000
Vou citar mais um problema.
14:15
We have feeling, model, reality.
334
840000
3000
Temos sensação, modelo, realidade.
14:18
I have a very relativistic view of security.
335
843000
2000
Tenho uma visão relativista de segurança.
14:20
I think it depends on the observer.
336
845000
3000
Acho que isso depende do observador.
14:23
And most security decisions
337
848000
2000
E muitas decisões sobre segurança
14:25
have a variety of people involved.
338
850000
4000
têm uma variedade de pessoas envolvidas.
14:29
And stakeholders
339
854000
2000
E as partes interessadas
14:31
with specific trade-offs
340
856000
3000
em negociações específicas
14:34
will try to influence the decision.
341
859000
2000
tentarão influenciar a decisão.
14:36
And I call that their agenda.
342
861000
2000
E a isso eu chamo de sua ordem do dia.
14:38
And you see agenda --
343
863000
2000
E vocês vêm a ordem do dia --
14:40
this is marketing, this is politics --
344
865000
3000
isto é comercialização, isto é política --
14:43
trying to convince you to have one model versus another,
345
868000
3000
tentando convencer vocês a ter um modelo em detrimento de outro,
14:46
trying to convince you to ignore a model
346
871000
2000
tentando convencer vocês a ignorar um modelo
14:48
and trust your feelings,
347
873000
3000
e confiar em suas sensações,
14:51
marginalizing people with models you don't like.
348
876000
3000
marginalizando as pessoas com modelos que vocês não gostam.
14:54
This is not uncommon.
349
879000
3000
Isto não é raro.
14:57
An example, a great example, is the risk of smoking.
350
882000
3000
Um exemplo, um ótimo exemplo, é o risco de fumar.
15:01
In the history of the past 50 years, the smoking risk
351
886000
3000
Na história dos últimos 50 anos, o risco de fumar
15:04
shows how a model changes,
352
889000
2000
mostra como um modelo muda,
15:06
and it also shows how an industry fights against
353
891000
3000
e também mostra como uma indústria luta contra
15:09
a model it doesn't like.
354
894000
2000
um modelo que ela não gosta.
15:11
Compare that to the secondhand smoke debate --
355
896000
3000
Façam uma comparação com a discussão sobre o fumante passivo --
15:14
probably about 20 years behind.
356
899000
3000
há cerca de 20 anos atrás.
15:17
Think about seat belts.
357
902000
2000
Pensem nos cintos de segurança.
15:19
When I was a kid, no one wore a seat belt.
358
904000
2000
Quando eu era criança, ninguém usava cinto de segurança.
15:21
Nowadays, no kid will let you drive
359
906000
2000
Hoje em dia, nenhuma criança deixa vocês dirigirem
15:23
if you're not wearing a seat belt.
360
908000
2000
se não estiverem usando um.
15:26
Compare that to the airbag debate --
361
911000
2000
Façam uma comparação com a discussão sobre o airbag --
15:28
probably about 30 years behind.
362
913000
3000
há cerca de 30 anos atrás.
15:31
All examples of models changing.
363
916000
3000
Todos os exemplos de modelos estão mudando.
15:36
What we learn is that changing models is hard.
364
921000
3000
Aprendemos que é difícil trocar de modelos.
15:39
Models are hard to dislodge.
365
924000
2000
Os modelos são difíceis de serem removidos.
15:41
If they equal your feelings,
366
926000
2000
Se eles se igualarem às suas sensações,
15:43
you don't even know you have a model.
367
928000
3000
vocês nem saberão que têm um modelo.
15:46
And there's another cognitive bias
368
931000
2000
E há uma outra distorção cognitiva
15:48
I'll call confirmation bias,
369
933000
2000
que chamarei de distorção de confirmação,
15:50
where we tend to accept data
370
935000
3000
onde temos uma tendência a aceitar os dados
15:53
that confirms our beliefs
371
938000
2000
que confirmam nossas crenças,
15:55
and reject data that contradicts our beliefs.
372
940000
3000
e a rejeitar aqueles que as contrariam.
15:59
So evidence against our model,
373
944000
2000
Assim, costumamos ignorar
16:01
we're likely to ignore, even if it's compelling.
374
946000
3000
uma evidência contra nosso modelo, mesmo que seja convincente.
16:04
It has to get very compelling before we'll pay attention.
375
949000
3000
Ela tem que ser bastante convincente para prestarmos atenção.
16:08
New models that extend long periods of time are hard.
376
953000
2000
É difícil haver novos modelos que se extendam por longos períodos.
16:10
Global warming is a great example.
377
955000
2000
O aquecimento global é um ótimo exemplo.
16:12
We're terrible
378
957000
2000
Somos péssimos
16:14
at models that span 80 years.
379
959000
2000
para modelos que se extendem por 80 anos.
16:16
We can do to the next harvest.
380
961000
2000
Podemos colher a próxima safra.
16:18
We can often do until our kids grow up.
381
963000
3000
Podemos fazer isso até nossos filhos crescerem.
16:21
But 80 years, we're just not good at.
382
966000
3000
Mas não somos bons nisso durante 80 anos.
16:24
So it's a very hard model to accept.
383
969000
3000
Logo, esse é um modelo muito difícil de aceitar.
16:27
We can have both models in our head simultaneously,
384
972000
4000
Podemos pensar nos dois modelos ao mesmo tempo,
16:31
right, that kind of problem
385
976000
3000
ou naquele tipo de problema
16:34
where we're holding both beliefs together,
386
979000
3000
em que sustentamos as duas opiniões,
16:37
right, the cognitive dissonance.
387
982000
2000
ou a dissonância cognitiva.
16:39
Eventually,
388
984000
2000
E por fim,
16:41
the new model will replace the old model.
389
986000
3000
o modelo novo substituirá o antigo.
16:44
Strong feelings can create a model.
390
989000
3000
Fortes sensações podem criar um modelo.
16:47
September 11th created a security model
391
992000
3000
O 11 de setembro criou um modelo de segurança
16:50
in a lot of people's heads.
392
995000
2000
nas mentes de muitas pessoas.
16:52
Also, personal experiences with crime can do it,
393
997000
3000
Experiências pessoais com o crime também podem fazer isso,
16:55
personal health scare,
394
1000000
2000
ameaças à saúde das pessoas,
16:57
a health scare in the news.
395
1002000
2000
uma ameaça nos noticiários.
16:59
You'll see these called flashbulb events
396
1004000
2000
Vocês verão esses chamados fatos-relâmpagos
17:01
by psychiatrists.
397
1006000
2000
pelos psiquiatras.
17:03
They can create a model instantaneously,
398
1008000
3000
Eles podem criar um modelo rapidamente,
17:06
because they're very emotive.
399
1011000
3000
porque são muito emotivos.
17:09
So in the technological world,
400
1014000
2000
Assim, no mundo tecnológico,
17:11
we don't have experience
401
1016000
2000
não temos experiência
17:13
to judge models.
402
1018000
2000
para julgar modelos.
17:15
And we rely on others. We rely on proxies.
403
1020000
2000
E confiamos nos outros. Confiamos nos servidores proxy.
17:17
I mean, this works as long as it's to correct others.
404
1022000
4000
Portanto, isto funciona o tempo suficiente para se corrigir os outros.
17:21
We rely on government agencies
405
1026000
2000
Confiamos nas agências governamentais
17:23
to tell us what pharmaceuticals are safe.
406
1028000
5000
para que nos digam quais medicamentos são seguros.
17:28
I flew here yesterday.
407
1033000
2000
Cheguei aqui ontem de avião.
17:30
I didn't check the airplane.
408
1035000
2000
Não inspecionei o avião.
17:32
I relied on some other group
409
1037000
2000
Confiei em algum outro grupo
17:34
to determine whether my plane was safe to fly.
410
1039000
3000
para determinar se meu avião estava seguro para voar.
17:37
We're here, none of us fear the roof is going to collapse on us,
411
1042000
3000
Estamos aqui, e nenhum de nós tem medo que o telhado caia em nossas cabeças,
17:40
not because we checked,
412
1045000
3000
mas não é porque nós fizemos alguma inspeção,
17:43
but because we're pretty sure
413
1048000
2000
mas porque temos certeza
17:45
the building codes here are good.
414
1050000
3000
que podemos confiar nos códigos de construção daqui.
17:48
It's a model we just accept
415
1053000
2000
É um modelo que simplesmente aceitamos
17:50
pretty much by faith.
416
1055000
2000
praticamente pela confiança.
17:52
And that's okay.
417
1057000
3000
E está tudo bem.
17:57
Now, what we want
418
1062000
2000
Agora, o que queremos
17:59
is people to get familiar enough
419
1064000
2000
é que as pessoas se familiarizem o bastante
18:01
with better models --
420
1066000
2000
com modelos melhores --
18:03
have it reflected in their feelings --
421
1068000
2000
que os tenha refletidos em suas sensações --
18:05
to allow them to make security trade-offs.
422
1070000
4000
para lhes permitir fazer negociações de segurança.
18:09
Now when these go out of whack,
423
1074000
2000
Mas quando elas entram em desequilíbrio,
18:11
you have two options.
424
1076000
2000
vocês têm duas opções.
18:13
One, you can fix people's feelings,
425
1078000
2000
Primeiro, vocês podem definir as sensações das pessoas,
18:15
directly appeal to feelings.
426
1080000
2000
apelando diretamente aos sentimentos.
18:17
It's manipulation, but it can work.
427
1082000
3000
Isso é manipulação, mas pode funcionar.
18:20
The second, more honest way
428
1085000
2000
A segunda, e a maneira mais honesta,
18:22
is to actually fix the model.
429
1087000
3000
é realmente definir o modelo.
18:26
Change happens slowly.
430
1091000
2000
A mudança ocorre lentamente.
18:28
The smoking debate took 40 years,
431
1093000
3000
A discussão sobre o fumo levou 40 anos,
18:31
and that was an easy one.
432
1096000
3000
e aquela foi uma das mais fáceis.
18:34
Some of this stuff is hard.
433
1099000
2000
Algumas dessas coisas são difíceis.
18:36
I mean really though,
434
1101000
2000
Difíceis de verdade, embora
18:38
information seems like our best hope.
435
1103000
2000
a informação pareça ser nossa melhor esperança.
18:40
And I lied.
436
1105000
2000
E eu menti.
18:42
Remember I said feeling, model, reality;
437
1107000
2000
Lembram-se quando eu falei sensação, modelo, e realidade?
18:44
I said reality doesn't change. It actually does.
438
1109000
3000
Eu disse que a realidade não se modifica. Isso não é verdade.
18:47
We live in a technological world;
439
1112000
2000
Vivemos num mundo tecnológico;
18:49
reality changes all the time.
440
1114000
3000
a realidade se modifica o tempo todo.
18:52
So we might have -- for the first time in our species --
441
1117000
3000
Logo, teríamos -- pela primeira vez na nossa espécie --
18:55
feeling chases model, model chases reality, reality's moving --
442
1120000
3000
a sensação indo atrás do modelo, o modelo atrás da realidade, e a realidade se deslocando --
18:58
they might never catch up.
443
1123000
3000
talvez eles nunca se alcancem.
19:02
We don't know.
444
1127000
2000
Não sabemos.
19:04
But in the long-term,
445
1129000
2000
Mas a longo prazo,
19:06
both feeling and reality are important.
446
1131000
3000
tanto a sensação quanto a realidade são importantes.
19:09
And I want to close with two quick stories to illustrate this.
447
1134000
3000
E eu gostaria de encerrar com duas rápidas histórias para ilustrar isto.
19:12
1982 -- I don't know if people will remember this --
448
1137000
2000
1982 -- não sei se as pessoas se lembrarão disto --
19:14
there was a short epidemic
449
1139000
3000
houve uma rápida epidemia
19:17
of Tylenol poisonings in the United States.
450
1142000
2000
de envenenamentos por Tylenol nos Estados Unidos.
19:19
It's a horrific story. Someone took a bottle of Tylenol,
451
1144000
3000
É uma história horrível. Alguém pegou um vidro de Tylenol,
19:22
put poison in it, closed it up, put it back on the shelf.
452
1147000
3000
colocou veneno dentro, fechou o vidro e o colocou de volta na prateleira.
19:25
Someone else bought it and died.
453
1150000
2000
Outra pessoa o comprou e morreu.
19:27
This terrified people.
454
1152000
2000
Isto aterrorizou as pessoas.
19:29
There were a couple of copycat attacks.
455
1154000
2000
Houve um monte de ataques parecidos.
19:31
There wasn't any real risk, but people were scared.
456
1156000
3000
Na verdade, não havia risco algum, mas as pessoas ficaram com medo.
19:34
And this is how
457
1159000
2000
E foi assim
19:36
the tamper-proof drug industry was invented.
458
1161000
2000
que a indústria de drogas invioláveis foi inventada.
19:38
Those tamper-proof caps, that came from this.
459
1163000
2000
Daí é que vieram as tampas invioláveis.
19:40
It's complete security theater.
460
1165000
2000
É um perfeito teatro de segurança.
19:42
As a homework assignment, think of 10 ways to get around it.
461
1167000
2000
Como tarefa de casa, pensem em 10 maneiras de se chegar até esse teatro.
19:44
I'll give you one, a syringe.
462
1169000
3000
Vou citar apenas uma, a seringa.
19:47
But it made people feel better.
463
1172000
3000
Mas isso fez com que as pessoas se sentissem melhor.
19:50
It made their feeling of security
464
1175000
2000
Deu-lhes a sensação de segurança
19:52
more match the reality.
465
1177000
2000
mais de acordo com a realidade.
19:54
Last story, a few years ago, a friend of mine gave birth.
466
1179000
3000
Última história, alguns anos atrás, uma amiga minha teve um filho.
19:57
I visit her in the hospital.
467
1182000
2000
Vou visitá-la no hospital.
19:59
It turns out when a baby's born now,
468
1184000
2000
Isso acontece agora quando um bebê nasce,
20:01
they put an RFID bracelet on the baby,
469
1186000
2000
eles colocam uma etiqueta RFID no bebê,
20:03
put a corresponding one on the mother,
470
1188000
2000
e outra correspondente na mãe,
20:05
so if anyone other than the mother takes the baby out of the maternity ward,
471
1190000
2000
de forma que se outra pessoa que não seja a mãe tirar o bebê do berçário,
20:07
an alarm goes off.
472
1192000
2000
vai soar um alarme.
20:09
I said, "Well, that's kind of neat.
473
1194000
2000
Pensei, "Bom, isso parece simples.
20:11
I wonder how rampant baby snatching is
474
1196000
2000
Imagino como deve ser violento o sequestro de bebês
20:13
out of hospitals."
475
1198000
2000
dos hospitais."
20:15
I go home, I look it up.
476
1200000
2000
Vou pra casa, e faço uma pesquisa.
20:17
It basically never happens.
477
1202000
2000
Isso raramente acontece.
20:19
But if you think about it,
478
1204000
2000
Mas se vocês pensarem nisso,
20:21
if you are a hospital,
479
1206000
2000
se vocês trabalham num hospital,
20:23
and you need to take a baby away from its mother,
480
1208000
2000
e precisam tirar um bebê de sua mãe,
20:25
out of the room to run some tests,
481
1210000
2000
para fazer alguns testes,
20:27
you better have some good security theater,
482
1212000
2000
é melhor contarem com um bom teatro de segurança,
20:29
or she's going to rip your arm off.
483
1214000
2000
ou a mãe vai arrancar o seu braço.
20:31
(Laughter)
484
1216000
2000
(Risos)
20:33
So it's important for us,
485
1218000
2000
Assim, é importante para nós,
20:35
those of us who design security,
486
1220000
2000
que projetamos segurança,
20:37
who look at security policy,
487
1222000
3000
que analisamos a política de segurança,
20:40
or even look at public policy
488
1225000
2000
ou até a política pública
20:42
in ways that affect security.
489
1227000
2000
de maneiras que afetam a segurança.
20:44
It's not just reality; it's feeling and reality.
490
1229000
3000
Isso não é apenas realidade, é sensação e realidade.
20:47
What's important
491
1232000
2000
E o mais importante
20:49
is that they be about the same.
492
1234000
2000
é que elas são a mesma coisa.
20:51
It's important that, if our feelings match reality,
493
1236000
2000
É importante que, se nossas sensações correspondem à realidade,
20:53
we make better security trade-offs.
494
1238000
2000
façamos melhores negociações de segurança.
20:55
Thank you.
495
1240000
2000
Obrigado.
20:57
(Applause)
496
1242000
2000
(Aplausos)
Translated by Thelma Lethier
Reviewed by Rafael Eufrasio

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com