ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Bruce Schneier: A ilusão da segurança

Filmed:
958,315 views

O sentimento de segurança e a realidade da segurança nem sempre estão de acordo, diz o perito em segurança de computadores Bruce Schneier. Na TEDxPSU, ele explica porque gastamos biliões a responder a riscos de histórias jornalísticas, como o novo "teatro de segurança", que se encontra agora no seu aeroporto local, enquanto negligenciamos riscos mais prováveis de ocorrer -- e como podemos quebrar este padrão.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securitysegurança is two differentdiferente things:
0
0
2000
Portanto, a segurança é duas coisas diferentes:
00:17
it's a feelingsentindo-me, and it's a realityrealidade.
1
2000
2000
é um sentimento, e é uma realidade.
00:19
And they're differentdiferente.
2
4000
2000
E elas são diferentes.
00:21
You could feel secureSecure
3
6000
2000
Vocês podem sentir-se seguros
00:23
even if you're not.
4
8000
2000
mesmo que não o estejam.
00:25
And you can be secureSecure
5
10000
2000
E podem estar seguros
00:27
even if you don't feel it.
6
12000
2000
mesmo que não o sintam.
00:29
Really, we have two separateseparado conceptsconceitos
7
14000
2000
Na realidade, temos dois conceitos separados
00:31
mappedmapeado ontopara the samemesmo wordpalavra.
8
16000
2000
presentes na mesma palavra.
00:33
And what I want to do in this talk
9
18000
2000
E o que eu quero fazer nesta palestra
00:35
is to splitDividido them apartseparados --
10
20000
2000
é separá-los --
00:37
figuringfigurando out when they divergedivergir
11
22000
2000
descobrindo quando divergem
00:39
and how they convergeconvergem.
12
24000
2000
e como convergem.
00:41
And languagelíngua is actuallyna realidade a problemproblema here.
13
26000
2000
E, a linguagem é um verdadeiro problema neste caso.
00:43
There aren'tnão são a lot of good wordspalavras
14
28000
2000
Não existem muitas palavras adequadas
00:45
for the conceptsconceitos we're going to talk about.
15
30000
3000
para os conceitos de que vamos falar.
00:48
So if you look at securitysegurança
16
33000
2000
Portanto, se olharem para a segurança
00:50
from economiceconômico termstermos,
17
35000
2000
em termos económicos,
00:52
it's a trade-offTrade-Off.
18
37000
2000
é uma negociação.
00:54
EveryCada time you get some securitysegurança,
19
39000
2000
Cada vez que têm alguma segurança,
00:56
you're always tradingnegociação off something.
20
41000
2000
estão sempre a trocá-la por algo.
00:58
WhetherSe this is a personalpessoal decisiondecisão --
21
43000
2000
Quer isto seja uma decisão pessoal --
01:00
whetherse you're going to installinstalar a burglarladrão alarmalarme in your home --
22
45000
2000
quer vão instalar um sistema de alarme anti-roubos em vossa casa --
01:02
or a nationalnacional decisiondecisão -- where you're going to invadeinvadir some foreignestrangeiro countrypaís --
23
47000
3000
ou uma decisão nacional -- em que vão invadir algum país estrangeiro --
01:05
you're going to tradecomércio off something,
24
50000
2000
vão ter de negociar algo,
01:07
eitherou moneydinheiro or time, convenienceconveniência, capabilitiescapacidades,
25
52000
3000
seja dinheiro, ou tempo, conveniência, capacidades.
01:10
maybe fundamentalfundamental libertiesdas liberdades.
26
55000
3000
talvez liberdades fundamentais.
01:13
And the questionquestão to askpergunte when you look at a securitysegurança anything
27
58000
3000
E a questão a fazer quando pensam na segurança de qualquer coisa
01:16
is not whetherse this makesfaz com que us safermais segura,
28
61000
3000
não é se isto nos fará mais seguros,
01:19
but whetherse it's worthque vale a pena the trade-offTrade-Off.
29
64000
3000
mas se vale a pena a escolha.
01:22
You've heardouviu in the pastpassado severalde várias yearsanos,
30
67000
2000
Ouviram nos últimos anos,
01:24
the worldmundo is safermais segura because SaddamSaddam HusseinHussein is not in powerpoder.
31
69000
2000
que o mundo está mais seguro porque o Saddam Hussein não está no poder.
01:26
That mightpoderia be trueverdade, but it's not terriblyterrivelmente relevantrelevante.
32
71000
3000
Isso pode ser verdade, mas não é terrivelmente relevante.
01:29
The questionquestão is, was it worthque vale a pena it?
33
74000
3000
A questão é, valeu a pena?
01:32
And you can make your ownpróprio decisiondecisão,
34
77000
3000
Podem tomar a vossa própria decisão
01:35
and then you'llvocê vai decidedecidir whetherse the invasioninvasão was worthque vale a pena it.
35
80000
2000
e então vão decidir se a invasão valeu a pena.
01:37
That's how you think about securitysegurança --
36
82000
2000
É assim que pensam acerca de segurança --
01:39
in termstermos of the trade-offTrade-Off.
37
84000
2000
em termos de escolhas.
01:41
Now there's oftenfrequentemente no right or wrongerrado here.
38
86000
3000
Agora, muitas vezes não existe um certo e um errado.
01:44
Some of us have a burglarladrão alarmalarme systemsistema at home,
39
89000
2000
Alguns de nós temos um sistema de alarme anti-roubo em casa,
01:46
and some of us don't.
40
91000
2000
e alguns de nós não tem.
01:48
And it'llvai dependdepender on where we liveviver,
41
93000
2000
E vai depender onde vivemos,
01:50
whetherse we liveviver alonesozinho or have a familyfamília,
42
95000
2000
se moramos sozinhos ou temos uma família,
01:52
how much coollegal stuffcoisa we have,
43
97000
2000
quantas coisas porreiras temos,
01:54
how much we're willingdisposto to acceptaceitar
44
99000
2000
e quanto estamos dispostos a aceitar
01:56
the riskrisco of theftroubo.
45
101000
2000
o risco de roubo.
01:58
In politicspolítica alsoAlém disso,
46
103000
2000
Também na política,
02:00
there are differentdiferente opinionsopiniões.
47
105000
2000
existem opiniões diferentes.
02:02
A lot of timesvezes, these trade-offstrade-offs
48
107000
2000
Muitas vezes, estas escolhas
02:04
are about more than just securitysegurança,
49
109000
2000
são acerca de mais do que apenas a segurança,
02:06
and I think that's really importantimportante.
50
111000
2000
e eu penso que isso é realmente importante.
02:08
Now people have a naturalnatural intuitionintuição
51
113000
2000
Agora, as pessoas têm uma intuição natural
02:10
about these trade-offstrade-offs.
52
115000
2000
acerca destas escolhas.
02:12
We make them everycada day --
53
117000
2000
Nós fazêmo-las todos os dias --
02:14
last night in my hotelhotel roomquarto,
54
119000
2000
ontem à noite, no meu quarto de hotel,
02:16
when I decideddecidiu to double-lockbloqueio duplo the doorporta,
55
121000
2000
quando decidi trancar a porta,
02:18
or you in your carcarro when you drovedirigiu here,
56
123000
2000
ou vocês, nos vossos carros, quando conduziram até aqui,
02:20
when we go eatcomer lunchalmoço
57
125000
2000
quando vamos almoçar
02:22
and decidedecidir the food'sdo alimento not poisonPoção and we'llbem eatcomer it.
58
127000
3000
e decidimos que a comida não é veneno e que a vamos comer.
02:25
We make these trade-offstrade-offs again and again,
59
130000
2000
Nós fazemos estas escolhas uma e outra vez
02:27
multiplemúltiplo timesvezes a day.
60
132000
2000
múltiplas vezes por dia.
02:29
We oftenfrequentemente won'tnão vai even noticeaviso prévio them.
61
134000
2000
Muitas vezes, nem nos vamos aperceber delas.
02:31
They're just partparte of beingser alivevivo; we all do it.
62
136000
2000
Elas são apenas parte de estar vivo; todos nós as fazemos.
02:33
EveryCada speciesespécies does it.
63
138000
3000
Todas as espécies o fazem.
02:36
ImagineImagine a rabbitcoelho in a fieldcampo, eatingcomendo grassgrama,
64
141000
2000
Imaginem um coelho num campo, a comer erva,
02:38
and the rabbit'sdo coelho going to see a foxRaposa.
65
143000
3000
e o coelho vê uma raposa.
02:41
That rabbitcoelho will make a securitysegurança trade-offTrade-Off:
66
146000
2000
O coelho vai fazer uma escolha de segurança:
02:43
"Should I stayfique, or should I fleefugir?"
67
148000
2000
"Deverei ficar, ou fugir?"
02:45
And if you think about it,
68
150000
2000
E se pensarem acerca disso,
02:47
the rabbitscoelhos that are good at makingfazer that trade-offTrade-Off
69
152000
3000
os coelhos que são bons a fazerem essa escolha
02:50
will tendtende to liveviver and reproducereproduzir,
70
155000
2000
tendem a viver e reproduzir-se
02:52
and the rabbitscoelhos that are badmau at it
71
157000
2000
e os coelhos que são maus
02:54
will get eatencomido or starvemorrer de fome.
72
159000
2000
vão ser comidos ou morrer de fome.
02:56
So you'dvocê gostaria think
73
161000
2000
Portanto, vocês pensam
02:58
that us, as a successfulbem sucedido speciesespécies on the planetplaneta --
74
163000
3000
que nós, enquanto espécie bem sucedida no planeta --
03:01
you, me, everybodytodo mundo --
75
166000
2000
vocês, eu, toda a gente --
03:03
would be really good at makingfazer these trade-offstrade-offs.
76
168000
3000
seríamos realmente bons a fazer estas escolhas.
03:06
YetAinda it seemsparece, again and again,
77
171000
2000
Contudo, parece, uma e outra vez,
03:08
that we're hopelesslyirremediavelmente badmau at it.
78
173000
3000
que somos, desesperadamente, maus nisto.
03:11
And I think that's a fundamentallyfundamentalmente interestinginteressante questionquestão.
79
176000
3000
E eu penso que esta é uma questão interessante e fundamental.
03:14
I'll give you the shortcurto answerresponda.
80
179000
2000
Vou-vos dar a resposta curta.
03:16
The answerresponda is, we respondresponder to the feelingsentindo-me of securitysegurança
81
181000
2000
A resposta é, nós respondemos ao sentimento de segurança
03:18
and not the realityrealidade.
82
183000
3000
e não à realidade.
03:21
Now mosta maioria of the time, that workstrabalho.
83
186000
3000
Agora, na maioria do tempo, isso funciona.
03:25
MostMaioria of the time,
84
190000
2000
Na maioria do tempo,
03:27
feelingsentindo-me and realityrealidade are the samemesmo.
85
192000
3000
o sentimento e a realidade são o mesmo.
03:30
CertainlyCertamente that's trueverdade
86
195000
2000
Isso é certamente verdade
03:32
for mosta maioria of humanhumano prehistorypré-história.
87
197000
3000
para a maioria da pré-história humana.
03:35
We'veTemos developeddesenvolvido this abilityhabilidade
88
200000
3000
Nós desenvolvemos esta capacidade
03:38
because it makesfaz com que evolutionaryevolutivo sensesentido.
89
203000
2000
porque faz sentido evolutivamente.
03:40
One way to think of it
90
205000
2000
Uma forma de pensar acerca disto
03:42
is that we're highlyaltamente optimizedotimizado
91
207000
2000
é que somos altamente optimizados
03:44
for riskrisco decisionsdecisões
92
209000
2000
para decisões de risco
03:46
that are endemicendêmicas to livingvivo in smallpequeno familyfamília groupsgrupos
93
211000
3000
que são endémicas a viver em pequenos grupos familiares
03:49
in the EastLeste AfricanAfricano highlandsterras altas in 100,000 B.C.
94
214000
3000
nos planaltos do este de África em 100,000 A.C. --
03:52
2010 NewNovo YorkYork, not so much.
95
217000
3000
2010 Nova Iorque, nem tanto.
03:56
Now there are severalde várias biasestendências in riskrisco perceptionpercepção.
96
221000
3000
Agora, existem vários enviesamentos na percepção de risco.
03:59
A lot of good experimentsexperiências in this.
97
224000
2000
E muitas experiências boas acerca disto.
04:01
And you can see certaincerto biasestendências that come up again and again.
98
226000
3000
E podem ver certos enviesamentos que surgem uma e outra vez.
04:04
So I'll give you fourquatro.
99
229000
2000
Portanto, vou-vos dar quatro.
04:06
We tendtende to exaggerateexagerar spectacularespetacular and rareraro risksriscos
100
231000
3000
Tendemos a exagerar os riscos espectaculares e raros
04:09
and downplayminimizar commoncomum risksriscos --
101
234000
2000
e subestimamos riscos comuns --
04:11
so flyingvôo versusversus drivingdirigindo.
102
236000
3000
portanto, voar versus conduzir.
04:14
The unknowndesconhecido is perceivedpercebida
103
239000
2000
O desconhecido é percepcionado
04:16
to be riskiermais arriscados than the familiarfamiliar.
104
241000
3000
como mais arriscado do que o familiar.
04:20
One exampleexemplo would be,
105
245000
2000
Um exemplo será
04:22
people fearmedo kidnappingsequestro by strangersestranhos
106
247000
3000
pessoas terem medo de raptos por estranhos,
04:25
when the datadados supportsoferece suporte a kidnappingsequestro by relativesparentes is much more commoncomum.
107
250000
3000
quando a informação confirma que raptos por familiares é muito mais comum.
04:28
This is for childrencrianças.
108
253000
2000
Isto para crianças.
04:30
ThirdTerceira, personifiedpersonificada risksriscos
109
255000
3000
Terceiro, riscos personificados
04:33
are perceivedpercebida to be greatermaior than anonymousanônimo risksriscos --
110
258000
3000
são percebidos como mais prováveis do que riscos anónimos --
04:36
so BinBin LadenCarregado is scariermais assustador because he has a namenome.
111
261000
3000
portanto, o Bin Laden era ameaçador porque ele tem um nome.
04:39
And the fourthquarto
112
264000
2000
E o quarto
04:41
is people underestimatesubestimar risksriscos
113
266000
2000
é a subestima de riscos pelas pessoas
04:43
in situationssituações they do controlao controle
114
268000
2000
em situações que podem controlar
04:45
and overestimatesuperestimativa them in situationssituações they don't controlao controle.
115
270000
4000
e a sobrestimação em situações que não controlam.
04:49
So onceuma vez you take up skydivingPara-quedismo or smokingfumando,
116
274000
3000
Assim, quando começam a fazer paraquedismo ou a fumar,
04:52
you downplayminimizar the risksriscos.
117
277000
2000
subestimam os riscos.
04:54
If a riskrisco is thrustimpulso uponsobre you -- terrorismterrorismo was a good exampleexemplo --
118
279000
3000
Se um risco é forçado sobre vós -- o terrorismo foi um bom exemplo --
04:57
you'llvocê vai overplayexagerar it because you don't feel like it's in your controlao controle.
119
282000
3000
vão sobrestimá-lo, porque não sentem que é do vosso controlo.
05:02
There are a bunchgrupo of other of these biasestendências, these cognitivecognitivo biasestendências,
120
287000
3000
Existe uma variedade de outros enviesamentos destes, destes erros cognitivos,
05:05
that affectafetar our riskrisco decisionsdecisões.
121
290000
3000
que afectam as nossas decisões de risco.
05:08
There's the availabilitydisponibilidade heuristicheurística,
122
293000
2000
Existe a heurística da disponibilidade,
05:10
whichqual basicallybasicamente meanssignifica
123
295000
2000
que basicamente quer dizer que
05:12
we estimateestimativa the probabilityprobabilidade of something
124
297000
3000
avaliamos a probabilidade de algo
05:15
by how easyfácil it is to bringtrazer instancesinstâncias of it to mindmente.
125
300000
4000
conforme a facilidade mental de aceder à informação acerca disso.
05:19
So you can imagineImagine how that workstrabalho.
126
304000
2000
Por isso, podem imaginar como funciona.
05:21
If you hearouvir a lot about tigerTigre attacksataques, there mustdevo be a lot of tigersTigres around.
127
306000
3000
Se ouvirem muita informação acerca de ataques de tigres, têm de haver muitos tigres nas redondezas.
05:24
You don't hearouvir about lionLeão attacksataques, there aren'tnão são a lot of lionsleões around.
128
309000
3000
Não ouvem acerca de ataques de leões, não existem muitos leões pela área.
05:27
This workstrabalho untilaté you inventinventar newspapersjornais.
129
312000
3000
Isto funciona inventarem os jornais.
05:30
Because what newspapersjornais do
130
315000
2000
Porque o que os jornais fazem
05:32
is they repeatrepetir again and again
131
317000
2000
é repetir vez após vez
05:34
rareraro risksriscos.
132
319000
2000
os riscos raros.
05:36
I tell people, if it's in the newsnotícia, don't worrypreocupação about it.
133
321000
2000
Eu digo às pessoas, se está nas notícias, não se preocupem acerca disso.
05:38
Because by definitiondefinição,
134
323000
2000
Porque, por definição,
05:40
newsnotícia is something that almostquase never happensacontece.
135
325000
3000
as notícias são algo que quase nunca acontece.
05:43
(LaughterRiso)
136
328000
2000
(risos)
05:45
When something is so commoncomum, it's no longermais longo newsnotícia --
137
330000
3000
Quando algo é muito comum, já não é notícia --
05:48
carcarro crashesfalhas, domesticdoméstica violenceviolência --
138
333000
2000
acidentes de carros, violência doméstica --
05:50
those are the risksriscos you worrypreocupação about.
139
335000
3000
esses são os riscos com que se devem preocupar.
05:53
We're alsoAlém disso a speciesespécies of storytellerscontadores de histórias.
140
338000
2000
Nós também somos uma espécie de contadores de histórias.
05:55
We respondresponder to storieshistórias more than datadados.
141
340000
3000
Nós respondemos mais a histórias do que a informação.
05:58
And there's some basicbásico innumeracyinumeracia going on.
142
343000
2000
E existe alguma incapacidade matemática.
06:00
I mean, the jokegracejo "One, Two, ThreeTrês, ManyMuitos" is kindtipo of right.
143
345000
3000
Quer dizer, a piada "Um, dois, três, muitos" está, de certa forma, correcta.
06:03
We're really good at smallpequeno numbersnúmeros.
144
348000
3000
Nós somos muitos bons com números pequenos.
06:06
One mangomanga, two mangoesmangas, threetrês mangoesmangas,
145
351000
2000
Uma manda, duas mangas, três mangas,
06:08
10,000 mangoesmangas, 100,000 mangoesmangas --
146
353000
2000
10,000 mangas, 100,000 mangas --
06:10
it's still more mangoesmangas you can eatcomer before they rotpodridão.
147
355000
3000
são muito mais mangas do que as que conseguem comer antes de apodrecerem.
06:13
So one halfmetade, one quartertrimestre, one fifthquinto -- we're good at that.
148
358000
3000
Por isso, uma metade, um quarto, um quinto -- somos bons nisso.
06:16
One in a millionmilhão, one in a billionbilhão --
149
361000
2000
Um num milhão, um num bilião --
06:18
they're bothambos almostquase never.
150
363000
3000
não existem quase nunca.
06:21
So we have troubleproblema with the risksriscos
151
366000
2000
Por isto temos problemas com riscos
06:23
that aren'tnão são very commoncomum.
152
368000
2000
que não são muitos comuns.
06:25
And what these cognitivecognitivo biasestendências do
153
370000
2000
E o que fazem esses enviesamentos cognitivos
06:27
is they actAja as filtersfiltros betweenentre us and realityrealidade.
154
372000
3000
é agir como filtros entre nós e a realidade.
06:30
And the resultresultado
155
375000
2000
E o resultado é que
06:32
is that feelingsentindo-me and realityrealidade get out of whackwhack,
156
377000
2000
o sentimento e a realidade se tornam discrepantes
06:34
they get differentdiferente.
157
379000
3000
se tornam diferentes.
06:37
Now you eitherou have a feelingsentindo-me -- you feel more secureSecure than you are.
158
382000
3000
E ou têm uma sensação -- sentem-se mais seguros que dantes.
06:40
There's a falsefalso sensesentido of securitysegurança.
159
385000
2000
Existe um falso sentimento de segurança.
06:42
Or the other way,
160
387000
2000
Ou [têm o sentimento] oposto,
06:44
and that's a falsefalso sensesentido of insecurityinsegurança.
161
389000
2000
e esse é o falso sentimento de insegurança.
06:46
I writeEscreva a lot about "securitysegurança theaterteatro,"
162
391000
3000
Eu escrevo muito acerca do "teatro de segurança",
06:49
whichqual are productsprodutos that make people feel secureSecure,
163
394000
3000
que são produtos que fazem as pessoas sentirem-se seguras
06:52
but don't actuallyna realidade do anything.
164
397000
2000
mas que, na realidade, não fazem nada.
06:54
There's no realreal wordpalavra for stuffcoisa that makesfaz com que us secureSecure,
165
399000
2000
Não existem uma palavra real para as coisas que nos fazem seguros,
06:56
but doesn't make us feel secureSecure.
166
401000
2000
mas que não nos fazem sentir seguros.
06:58
Maybe it's what the CIA'sDo CIA supposedsuposto to do for us.
167
403000
3000
Talvez seja isso o que a CIA faz supostamente por nós.
07:03
So back to economicseconomia.
168
408000
2000
Portanto, de volta à economia.
07:05
If economicseconomia, if the marketmercado, drivesunidades securitysegurança,
169
410000
4000
Se a economia, se os mercados, impulsionam segurança,
07:09
and if people make trade-offstrade-offs
170
414000
2000
e se as pessoas fazem escolhas
07:11
basedSediada on the feelingsentindo-me of securitysegurança,
171
416000
3000
baseadas nos sentimentos de segurança,
07:14
then the smartinteligente thing for companiesempresas to do
172
419000
2000
então, a coisa mais acertada para as companhias fazerem
07:16
for the economiceconômico incentivesincentivos
173
421000
2000
para os incentivos económicos
07:18
are to make people feel secureSecure.
174
423000
3000
é fazer as pessoas sentirem-se seguras.
07:21
And there are two waysmaneiras to do this.
175
426000
3000
E existem duas formas de fazer isto.
07:24
One, you can make people actuallyna realidade secureSecure
176
429000
2000
Uma, podem fazer as pessoas sentirem-se realmente seguras
07:26
and hopeesperança they noticeaviso prévio.
177
431000
2000
e esperar que elas reparem.
07:28
Or two, you can make people just feel secureSecure
178
433000
3000
Ou a segunda, podem fazer simplesmente as pessoas sentirem-se seguras
07:31
and hopeesperança they don't noticeaviso prévio.
179
436000
3000
e esperar que não reparem.
07:35
So what makesfaz com que people noticeaviso prévio?
180
440000
3000
E o que faz as pessoas repararem?
07:38
Well a couplecasal of things:
181
443000
2000
Bem, um conjunto de coisas:
07:40
understandingcompreensão of the securitysegurança,
182
445000
2000
compreensão da segurança,
07:42
of the risksriscos, the threatsameaças,
183
447000
2000
dos riscos, das ameaças,
07:44
the countermeasurescontramedidas, how they work.
184
449000
3000
das medidas de combate, como funcionam.
07:47
But if you know stuffcoisa,
185
452000
2000
Mas se souberem coisas,
07:49
you're more likelyprovável to have your feelingssentimentos matchpartida realityrealidade.
186
454000
3000
é mais fácil que os vossos sentimentos coincidam com a realidade.
07:52
EnoughSuficiente realreal worldmundo examplesexemplos helpsajuda.
187
457000
3000
Exemplos suficientes do mundo real ajudam.
07:55
Now we all know the crimecrime ratetaxa in our neighborhoodVizinhança,
188
460000
3000
Todos sabemos a taxa de criminalidade do nosso bairro,
07:58
because we liveviver there, and we get a feelingsentindo-me about it
189
463000
3000
porque vivemos aí, e temos um sentimento acerca disso
08:01
that basicallybasicamente matchescorresponde a realityrealidade.
190
466000
3000
que, praticamente, coincide com a realidade.
08:04
SecuritySegurança theater'sdo teatro exposedexposto
191
469000
3000
Os teatros de segurança são expostos
08:07
when it's obviousóbvio that it's not workingtrabalhando properlydevidamente.
192
472000
3000
quando é óbvio que não estão a funcionar apropriadamente.
08:10
Okay, so what makesfaz com que people not noticeaviso prévio?
193
475000
4000
Okay, portando, o que acontece quando as pessoas não reparam?
08:14
Well, a poorpobre understandingcompreensão.
194
479000
2000
Bem, um entendimento fraco.
08:16
If you don't understandCompreendo the risksriscos, you don't understandCompreendo the costscusta,
195
481000
3000
Se não compreenderem os riscos, não entendem os custos,
08:19
you're likelyprovável to get the trade-offTrade-Off wrongerrado,
196
484000
2000
e são capazes de fazer a escolha errada,
08:21
and your feelingsentindo-me doesn't matchpartida realityrealidade.
197
486000
3000
e o vosso sentimento não coincide com a realidade.
08:24
Not enoughsuficiente examplesexemplos.
198
489000
2000
Não há exemplos suficientes.
08:26
There's an inherentinerente problemproblema
199
491000
2000
Existe um problema inerente
08:28
with lowbaixo probabilityprobabilidade eventseventos.
200
493000
2000
com eventos com baixa probabilidade.
08:30
If, for exampleexemplo,
201
495000
2000
Se, por exemplo,
08:32
terrorismterrorismo almostquase never happensacontece,
202
497000
2000
o terrorismo quase nunca ocorre,
08:34
it's really hardDifícil to judgejuiz
203
499000
2000
é muito difícil de avaliar
08:36
the efficacyeficácia of counter-terroristcontra-terrorista measuresmedidas.
204
501000
3000
a eficácia de medidas contra-terroristas.
08:40
This is why you keep sacrificingsacrificar a virginsvirgens,
205
505000
3000
Este é o porquê de continuarem a sacrificar virgens,
08:43
and why your unicornunicórnio defensesdefesas are workingtrabalhando just great.
206
508000
3000
e porque as vossas defesas de unicórnios funcionam muito bem.
08:46
There aren'tnão são enoughsuficiente examplesexemplos of failuresfalhas.
207
511000
3000
Não existem exemplos suficientes de falhas.
08:50
AlsoTambém, feelingssentimentos that are cloudingnublando the issuesproblemas --
208
515000
3000
Para além disso, sentimentos que abafam os problemas --
08:53
the cognitivecognitivo biasestendências I talkedfalou about earliermais cedo,
209
518000
2000
os enviasamentos cognitivos de que falámos antes,
08:55
fearsmedos, folkfolclórica beliefscrenças,
210
520000
3000
os medos, as crenças populares,
08:58
basicallybasicamente an inadequateinadequada modelmodelo of realityrealidade.
211
523000
3000
basicamente, um modelo inadequado da realidade.
09:02
So let me complicatecomplicar things.
212
527000
3000
Deixem-me complicar as coisas.
09:05
I have feelingsentindo-me and realityrealidade.
213
530000
2000
Eu tenho sentimento e realidade.
09:07
I want to addadicionar a thirdterceiro elementelemento. I want to addadicionar modelmodelo.
214
532000
3000
Eu quero adicionar um terceiro elemento. Eu quero adicionar um modelo.
09:10
FeelingSentimento and modelmodelo in our headcabeça,
215
535000
2000
O sentimento e o modelo [estão] na nossa cabeça,
09:12
realityrealidade is the outsidelado de fora worldmundo.
216
537000
2000
a realidade é o mundo exterior.
09:14
It doesn't changemudança; it's realreal.
217
539000
3000
Não muda; é real.
09:17
So feelingsentindo-me is basedSediada on our intuitionintuição.
218
542000
2000
Portanto, o sentimento é baseado na nossa intuição.
09:19
ModelModelo is basedSediada on reasonrazão.
219
544000
2000
O modelo é baseado na razão.
09:21
That's basicallybasicamente the differencediferença.
220
546000
3000
Essa é a diferença fundamental.
09:24
In a primitiveprimitivo and simplesimples worldmundo,
221
549000
2000
Num mundo primitivo e simples,
09:26
there's really no reasonrazão for a modelmodelo
222
551000
3000
não existem motivos para [a existência] de um modelo.
09:29
because feelingsentindo-me is closefechar to realityrealidade.
223
554000
3000
Porque o sentimento está próximo da realidade.
09:32
You don't need a modelmodelo.
224
557000
2000
Não precisam de um modelo.
09:34
But in a modernmoderno and complexcomplexo worldmundo,
225
559000
2000
Mas num mundo moderno e complexo,
09:36
you need modelsmodelos
226
561000
2000
precisam de modelos
09:38
to understandCompreendo a lot of the risksriscos we facecara.
227
563000
3000
para compreender os riscos com que nos defrontamos.
09:42
There's no feelingsentindo-me about germsgermes.
228
567000
2000
Não existem sentimentos em relação a germes.
09:44
You need a modelmodelo to understandCompreendo them.
229
569000
3000
Precisam do modelo para os compreender.
09:47
So this modelmodelo
230
572000
2000
Este modelo
09:49
is an intelligentinteligente representationrepresentação of realityrealidade.
231
574000
3000
é uma representação inteligente da realidade.
09:52
It's, of coursecurso, limitedlimitado by scienceCiência,
232
577000
3000
É, obviamente, limitado pela ciência,
09:55
by technologytecnologia.
233
580000
2000
pela tecnologia.
09:57
We couldn'tnão podia have a germgerme theoryteoria of diseasedoença
234
582000
3000
Não podíamos ter uma teoria de doenças de germes
10:00
before we inventedinventado the microscopemicroscópio to see them.
235
585000
3000
antes de inventarmos o microscópio para os ver.
10:04
It's limitedlimitado by our cognitivecognitivo biasestendências.
236
589000
3000
É limitado pelos nossos vieses cognitivos.
10:07
But it has the abilityhabilidade
237
592000
2000
Mas tem a capacidade
10:09
to overridesubstituir our feelingssentimentos.
238
594000
2000
de se sobrepôr aos nossos sentimentos.
10:11
Where do we get these modelsmodelos? We get them from othersoutras.
239
596000
3000
Onde aprendemos estes modelos? Aprendêmo-los dos outros.
10:14
We get them from religionreligião, from culturecultura,
240
599000
3000
Aprendemo-los da religião, cultura,
10:17
teachersprofessores, eldersanciãos.
241
602000
2000
professores, anciãos.
10:19
A couplecasal yearsanos agoatrás,
242
604000
2000
Há alguns anos,
10:21
I was in SouthSul AfricaÁfrica on safarisafári.
243
606000
2000
estava num safari na África do Sul.
10:23
The trackerrastreador I was with grewcresceu up in KrugerKruger NationalNacional ParkParque.
244
608000
3000
O batedor com quem estava tinha crescido no Parque Nacional de Kruger.
10:26
He had some very complexcomplexo modelsmodelos of how to survivesobreviver.
245
611000
3000
Ele tinha alguns modelos muito complexos acerca de como sobreviver.
10:29
And it dependeddependia on if you were attackedatacado
246
614000
2000
E dependiam se eram atacados
10:31
by a lionLeão or a leopardLeopard or a rhinoRinoceronte or an elephantelefante --
247
616000
2000
por um leão, ou um leopardo, ou um rinoceronte, ou um elefante --
10:33
and when you had to runcorre away, and when you couldn'tnão podia runcorre away, and when you had to climbescalar a treeárvore --
248
618000
3000
e sobre quando tinham de correr, e quando tinham de subir a uma árvora --
10:36
when you could never climbescalar a treeárvore.
249
621000
2000
quando nunca podiam subir a uma árvore.
10:38
I would have diedmorreu in a day,
250
623000
3000
Eu teria morrido nesse dia,
10:41
but he was bornnascermos there,
251
626000
2000
mas ele tinha nascido ali,
10:43
and he understoodEntendido how to survivesobreviver.
252
628000
2000
e ele compreendia como sobreviver.
10:45
I was bornnascermos in NewNovo YorkYork CityCidade.
253
630000
2000
Eu nasci na cidade de Nova Iorque.
10:47
I could have takenocupado him to NewNovo YorkYork, and he would have diedmorreu in a day.
254
632000
3000
Eu poderia tê-lo levado a Nova Iorque, e ele teria morrido nesse dia.
10:50
(LaughterRiso)
255
635000
2000
(risos)
10:52
Because we had differentdiferente modelsmodelos
256
637000
2000
Porque tínhamos modelos diferentes
10:54
basedSediada on our differentdiferente experiencesexperiências.
257
639000
3000
baseados nas nossas diferenças.
10:58
ModelsModelos can come from the mediameios de comunicação,
258
643000
2000
Os modelos podem vir dos meios de comunicação,
11:00
from our electedeleito officialsfuncionários.
259
645000
3000
dos nossos oficiais elegidos.
11:03
Think of modelsmodelos of terrorismterrorismo,
260
648000
3000
Pensem em modelos de terrorismo,
11:06
childcriança kidnappingsequestro,
261
651000
3000
rapto infantil,
11:09
airlineCIA aérea safetysegurança, carcarro safetysegurança.
262
654000
2000
segurança aérea, segurança automóvel.
11:11
ModelsModelos can come from industryindústria.
263
656000
3000
Os modelos podem vir da indústria.
11:14
The two I'm followingSegue are surveillancevigilância camerascâmeras,
264
659000
2000
Os dois que eu sigo são as câmaras de vigilância,
11:16
IDID cardscartões,
265
661000
2000
cartões de identificação,
11:18
quitebastante a lot of our computercomputador securitysegurança modelsmodelos come from there.
266
663000
3000
bastantes dos nossos modelos de segurança computacional vêm daí.
11:21
A lot of modelsmodelos come from scienceCiência.
267
666000
3000
Muitos dos modelos vêm da ciência.
11:24
HealthSaúde modelsmodelos are a great exampleexemplo.
268
669000
2000
Os modelos de saúde são exemplos excelentes.
11:26
Think of cancerCâncer, of birdpássaro flugripe, swinepeste suína flugripe, SARSSARS.
269
671000
3000
Pensem em cancro, em gripe das aves, gripe suína, o vírus SARS.
11:29
All of our feelingssentimentos of securitysegurança
270
674000
3000
Todos os nossos sentimentos de segurança
11:32
about those diseasesdoenças
271
677000
2000
acerca dessas doenças
11:34
come from modelsmodelos
272
679000
2000
vêm de modelos
11:36
givendado to us, really, by scienceCiência filteredfiltrados throughatravés the mediameios de comunicação.
273
681000
3000
que nos são dados, na realidade, pela ciência filtrada pelos meios de comunicação.
11:40
So modelsmodelos can changemudança.
274
685000
3000
Por isso, os modelos podem mudar.
11:43
ModelsModelos are not staticestático.
275
688000
2000
Os modelos não são estáticos.
11:45
As we becometornar-se more comfortableconfortável in our environmentsambientes,
276
690000
3000
À medida que nos tornamos mais confortáveis nos nossos ambientes,
11:48
our modelmodelo can movemover closermais perto to our feelingssentimentos.
277
693000
4000
o nosso modelo pode tornar-se mais próximo dos nossos sentimentos.
11:53
So an exampleexemplo mightpoderia be,
278
698000
2000
Por isso, um exemplo pode ser,
11:55
if you go back 100 yearsanos agoatrás
279
700000
2000
se voltarem atrás no tempo 100 anos
11:57
when electricityeletricidade was first becomingtornando-se commoncomum,
280
702000
3000
quando a electricidade ainda se estava a tornar comum,
12:00
there were a lot of fearsmedos about it.
281
705000
2000
existiam muitos medos acerca disso.
12:02
I mean, there were people who were afraidreceoso to pushempurrar doorbellscampainhas,
282
707000
2000
Quer dizer, havia pessoas que tinham medo de tocar à campainha,
12:04
because there was electricityeletricidade in there, and that was dangerousperigoso.
283
709000
3000
porque existia ali electricidade, e era perigoso.
12:07
For us, we're very facilefacile around electricityeletricidade.
284
712000
3000
Para nós, somos bastante condescendentes em relação à electricidade.
12:10
We changemudança lightluz bulbslâmpadas
285
715000
2000
Nós mudamos lâmpadas
12:12
withoutsem even thinkingpensando about it.
286
717000
2000
sem sequer pensar nisso
12:14
Our modelmodelo of securitysegurança around electricityeletricidade
287
719000
4000
O nosso modelo de segurança acerca da electricidade
12:18
is something we were bornnascermos into.
288
723000
3000
é algo para o qual nascemos.
12:21
It hasn'tnão tem changedmudou as we were growingcrescendo up.
289
726000
3000
Não mudou enquanto crescíamos.
12:24
And we're good at it.
290
729000
3000
E somos bons nele.,
12:27
Or think of the risksriscos
291
732000
2000
Ora, pensem nos riscos
12:29
on the InternetInternet acrossatravés generationsgerações --
292
734000
2000
na Internet entre gerações --
12:31
how your parentsparentes approachabordagem InternetInternet securitysegurança,
293
736000
2000
como os vossos pais lidavam com a segurança da Internet,
12:33
versusversus how you do,
294
738000
2000
versus, como vocês o fazem,
12:35
versusversus how our kidsfilhos will.
295
740000
3000
versus como os vossos filhos vão lidar.
12:38
ModelsModelos eventuallyeventualmente fadedesvaneça into the backgroundfundo.
296
743000
3000
Os modelos acabam por se dissolver.
12:42
IntuitiveIntuitiva is just anotheroutro wordpalavra for familiarfamiliar.
297
747000
3000
Intuitivo é apenas outra palavra para familiar.
12:45
So as your modelmodelo is closefechar to realityrealidade,
298
750000
2000
Quando o nosso modelo é próximo da realidade,
12:47
and it convergesconverge with feelingssentimentos,
299
752000
2000
e converge com os sentimentos,
12:49
you oftenfrequentemente don't know it's there.
300
754000
3000
vocês raramente se apercebem que ele lá está.
12:52
So a nicebom exampleexemplo of this
301
757000
2000
Um bom exemplo disto
12:54
cameveio from last yearano and swinepeste suína flugripe.
302
759000
3000
veio o ano passado com a gripe suína.
12:57
When swinepeste suína flugripe first appearedapareceu,
303
762000
2000
Quando a gripe suína apareceu,
12:59
the initialinicial newsnotícia causedcausou a lot of overreactionreação exagerada.
304
764000
4000
as notícias iniciais causaram muitas reacções excessivas.
13:03
Now it had a namenome,
305
768000
2000
Tinha um nome,
13:05
whichqual madefeito it scariermais assustador than the regularregular flugripe,
306
770000
2000
o que a fazia mais assustadora que a gripe comum,
13:07
even thoughApesar it was more deadlymortal.
307
772000
2000
apesar desta ser mais mortal.
13:09
And people thought doctorsmédicos should be ablecapaz to dealacordo with it.
308
774000
4000
E as pessoas pensavam que os médicos deveriam saber lidar com ela.
13:13
So there was that feelingsentindo-me of lackfalta of controlao controle.
309
778000
2000
Por isso existia um sentimento de falta de controlo.
13:15
And those two things
310
780000
2000
E essas duas coisas
13:17
madefeito the riskrisco more than it was.
311
782000
2000
tornaram o risco mais do que ele era.
13:19
As the noveltynovidade woreusava off, the monthsmeses wentfoi by,
312
784000
3000
Quando a novidade se desvaneceu, os meses passaram,
13:22
there was some amountmontante of tolerancetolerância,
313
787000
2000
existia uma quantidade de tolerância,
13:24
people got used to it.
314
789000
2000
as pessoas habituaram-se.
13:26
There was no newNovo datadados, but there was lessMenos fearmedo.
315
791000
3000
Não existia informação nova, mas existia menos medo.
13:29
By autumnOutono,
316
794000
2000
No Outono,
13:31
people thought
317
796000
2000
as pessoas pensaram
13:33
the doctorsmédicos should have solvedresolvido this already.
318
798000
2000
que os médicos já deveriam ter resolvido isto.
13:35
And there's kindtipo of a bifurcationbifurcação --
319
800000
2000
E existe uma espécie de bifurcação --
13:37
people had to chooseescolher
320
802000
2000
as pessoas tinham de escolher
13:39
betweenentre fearmedo and acceptanceaceitação --
321
804000
4000
entre o medo e a aceitação --
13:43
actuallyna realidade fearmedo and indifferenceindiferença --
322
808000
2000
ter medo ou indiferença --
13:45
they kindtipo of choseescolheu suspicionsuspeita.
323
810000
3000
elas escolheram suspeita.
13:48
And when the vaccinevacina appearedapareceu last winterinverno,
324
813000
3000
E quando a vacina surgiu o Inverno passado,
13:51
there were a lot of people -- a surprisingsurpreendente numbernúmero --
325
816000
3000
existiu uma grande quantidade de pessoas - um número surpreendente -
13:54
who refusedrecusou-se to get it --
326
819000
3000
que se recusaram a recebê-la -
13:58
as a nicebom exampleexemplo
327
823000
2000
é um bom exemplo
14:00
of how people'spovos feelingssentimentos of securitysegurança changemudança, how theirdeles modelmodelo changesalterar,
328
825000
3000
que como os sentimentos de segurança das pessoas mudam, como os seus modelos mudam
14:03
sortordenar of wildlydescontroladamente
329
828000
2000
de forma rompante
14:05
with no newNovo informationem formação,
330
830000
2000
sem nova informação,
14:07
with no newNovo inputentrada.
331
832000
2000
sem novo dado.
14:09
This kindtipo of thing happensacontece a lot.
332
834000
3000
Este tipo de evento acontece frequentemente.
14:12
I'm going to give one more complicationcomplicação.
333
837000
3000
Vou-vos mostrar mais uma complicação.
14:15
We have feelingsentindo-me, modelmodelo, realityrealidade.
334
840000
3000
nós temos sentimento, modelo, realidade.
14:18
I have a very relativisticrelativística viewVisão of securitysegurança.
335
843000
2000
Eu tenho uma visão muito relativista da segurança.
14:20
I think it dependsdepende on the observerobservador.
336
845000
3000
Eu penso que depende do observador.
14:23
And mosta maioria securitysegurança decisionsdecisões
337
848000
2000
E a maioria das decisões de segurança
14:25
have a varietyvariedade of people involvedenvolvido.
338
850000
4000
têm uma variedade de pessoas envolvidas.
14:29
And stakeholderspartes interessadas
339
854000
2000
E os responsáveis
14:31
with specificespecífico trade-offstrade-offs
340
856000
3000
com vista em trocas específicas
14:34
will try to influenceinfluência the decisiondecisão.
341
859000
2000
vão tentar influenciar a decisão.
14:36
And I call that theirdeles agendaagenda.
342
861000
2000
E eu exponho os seus planos.
14:38
And you see agendaagenda --
343
863000
2000
E vocês vêem os seus planos --
14:40
this is marketingmarketing, this is politicspolítica --
344
865000
3000
isto é marketing, isto é política --
14:43
tryingtentando to convinceconvencer you to have one modelmodelo versusversus anotheroutro,
345
868000
3000
tentar convencer-vos a aceitar um modelo versus outro,
14:46
tryingtentando to convinceconvencer you to ignoreignorar a modelmodelo
346
871000
2000
tentar convencer-vos a ignorar um modelo
14:48
and trustConfiar em your feelingssentimentos,
347
873000
3000
a confiar nos vossos sentimentos,
14:51
marginalizingmarginalizando people with modelsmodelos you don't like.
348
876000
3000
marginalizando pessoas com modelos que vocês não gostam.
14:54
This is not uncommonincomum.
349
879000
3000
Isto não é invulgar.
14:57
An exampleexemplo, a great exampleexemplo, is the riskrisco of smokingfumando.
350
882000
3000
Um exemplo, um óptimo exemplo, é o risco de fumar.
15:01
In the historyhistória of the pastpassado 50 yearsanos, the smokingfumando riskrisco
351
886000
3000
Na história dos últimos 50 anos, o risco de fumar
15:04
showsmostra how a modelmodelo changesalterar,
352
889000
2000
demonstra como um modelo muda,
15:06
and it alsoAlém disso showsmostra how an industryindústria fightslutas againstcontra
353
891000
3000
e também demonstra como uma indústria luta contra
15:09
a modelmodelo it doesn't like.
354
894000
2000
um modelo de que não gosta.
15:11
CompareComparar that to the secondhandsegunda mão smokefumaça debatedebate --
355
896000
3000
Comparem isso com o debate de fumo em segunda mão --
15:14
probablyprovavelmente about 20 yearsanos behindatrás.
356
899000
3000
está provavelmente atrasado 20 anos.
15:17
Think about seatassento beltscintos.
357
902000
2000
Pensem acerca dos cintos de segurança.
15:19
When I was a kidcriança, no one woreusava a seatassento beltcinto.
358
904000
2000
Quando eu era criança, ninguém usava cinto de segurança.
15:21
NowadaysHoje em dia, no kidcriança will let you drivedirigir
359
906000
2000
Hoje em dia, nenhum miúdo vos deixa conduzir
15:23
if you're not wearingvestindo a seatassento beltcinto.
360
908000
2000
se não estiverem a usar cinto de segurança.
15:26
CompareComparar that to the airbagairbag debatedebate --
361
911000
2000
Comparem isso ao debate acerca do airbag --
15:28
probablyprovavelmente about 30 yearsanos behindatrás.
362
913000
3000
provavelmente atrasado 30 anos.
15:31
All examplesexemplos of modelsmodelos changingmudando.
363
916000
3000
Todos são exemplos de modelos em mudança.
15:36
What we learnaprender is that changingmudando modelsmodelos is hardDifícil.
364
921000
3000
O que nós aprendemos é que mudar modelos é difícil.
15:39
ModelsModelos are hardDifícil to dislodgedesalojar.
365
924000
2000
É difícil desinstalar modelos
15:41
If they equaligual your feelingssentimentos,
366
926000
2000
se eles coincidem com os nossos sentimentos.
15:43
you don't even know you have a modelmodelo.
367
928000
3000
Vocês nem sequer sabem que têm um modelo.
15:46
And there's anotheroutro cognitivecognitivo biasviés
368
931000
2000
E existe outro erro cognitivo
15:48
I'll call confirmationconfirmação biasviés,
369
933000
2000
vou-lhe chamar enviusamento confirmatório,
15:50
where we tendtende to acceptaceitar datadados
370
935000
3000
no qual tendemos a aceitar informação
15:53
that confirmsconfirma our beliefscrenças
371
938000
2000
que confirma as nossas crenças
15:55
and rejectrejeitar datadados that contradictscontradiz our beliefscrenças.
372
940000
3000
e rejeita informação que contradiz aquilo em que acreditamos.
15:59
So evidenceevidência againstcontra our modelmodelo,
373
944000
2000
Portanto, provas contra o nosso modelo,
16:01
we're likelyprovável to ignoreignorar, even if it's compellingconvincente.
374
946000
3000
nós iremos, provavelmente, ignorar, mesmo que seja convincente.
16:04
It has to get very compellingconvincente before we'llbem paypagamento attentionatenção.
375
949000
3000
Tem de se tornar muito convincente para nós lhe prestarmos atenção.
16:08
NewNovo modelsmodelos that extendampliar long periodsperíodos of time are hardDifícil.
376
953000
2000
Os novos modelos que se estendem por largos periodo de tempo são difíceis.
16:10
GlobalGlobal warmingaquecimento is a great exampleexemplo.
377
955000
2000
O aquecimento global é um óptimo exemplo.
16:12
We're terribleterrivel
378
957000
2000
Nós somos terríveis
16:14
at modelsmodelos that spanperíodo 80 yearsanos.
379
959000
2000
com modelos que se estendem por 80 anos.
16:16
We can do to the nextPróximo harvestcolheita.
380
961000
2000
nós podemos tratar da próxima ceifa.
16:18
We can oftenfrequentemente do untilaté our kidsfilhos growcrescer up.
381
963000
3000
Nós podemos frequentemente pensar até quando os nossos filhos crescem.
16:21
But 80 yearsanos, we're just not good at.
382
966000
3000
Mas 80 anos, nós simplesmente não somos bons [a pensar nisso].
16:24
So it's a very hardDifícil modelmodelo to acceptaceitar.
383
969000
3000
Portanto, é um modelo muito difícil de aceitar.
16:27
We can have bothambos modelsmodelos in our headcabeça simultaneouslysimultaneamente,
384
972000
4000
Nós podemos ter os dois modelos simultaneamente na nossa mente,
16:31
right, that kindtipo of problemproblema
385
976000
3000
ou esse tipo de problema
16:34
where we're holdingsegurando bothambos beliefscrenças togetherjuntos,
386
979000
3000
em que estamos a manter as duas crenças em conjunto,
16:37
right, the cognitivecognitivo dissonancedissonância.
387
982000
2000
ou a dissonância cognitiva.
16:39
EventuallyEventualmente,
388
984000
2000
Eventualmente,
16:41
the newNovo modelmodelo will replacesubstituir the oldvelho modelmodelo.
389
986000
3000
o novo modelo irá substituir o velho modelo.
16:44
StrongStrong feelingssentimentos can createcrio a modelmodelo.
390
989000
3000
Sentimentos fortes podem criar um modelo.
16:47
SeptemberSetembro de 11thº createdcriada a securitysegurança modelmodelo
391
992000
3000
O 11 de Setembro criou um modelo de segurança
16:50
in a lot of people'spovos headscabeças.
392
995000
2000
em muitas mentes.
16:52
AlsoTambém, personalpessoal experiencesexperiências with crimecrime can do it,
393
997000
3000
Também experiências pessoais com crime o podem fazer,
16:55
personalpessoal healthsaúde scaresusto,
394
1000000
2000
sustos com saúde pessoal,
16:57
a healthsaúde scaresusto in the newsnotícia.
395
1002000
2000
um susto nas notícias relacionado com a saúde.
16:59
You'llVocê vai see these calledchamado flashbulbFlash eventseventos
396
1004000
2000
Verão estes eventos chamados flashes
17:01
by psychiatristspsiquiatras.
397
1006000
2000
pelos psiquiatras.
17:03
They can createcrio a modelmodelo instantaneouslyinstantaneamente,
398
1008000
3000
Eles podem criar um modelo instantaneamente
17:06
because they're very emotiveemotivas.
399
1011000
3000
porque são tão emocionais.
17:09
So in the technologicaltecnológica worldmundo,
400
1014000
2000
Por isso, num mundo tecnológico,
17:11
we don't have experienceexperiência
401
1016000
2000
nós não temos experiência
17:13
to judgejuiz modelsmodelos.
402
1018000
2000
em avaliar modelos.
17:15
And we relycontar com on othersoutras. We relycontar com on proxiesproxies.
403
1020000
2000
E confiamos nos outros. Nós confiamos nas vias de informação.
17:17
I mean, this workstrabalho as long as it's to correctum lugar para outro othersoutras.
404
1022000
4000
Quero dizer, isto funciona desde que seja para corrigir outros.
17:21
We relycontar com on governmentgoverno agenciesagências
405
1026000
2000
Nós confiamos em agências governamentais
17:23
to tell us what pharmaceuticalsprodutos farmacêuticos are safeseguro.
406
1028000
5000
que nos dizem quais farmacêuticas são seguras.
17:28
I flewvoou here yesterdayontem.
407
1033000
2000
Eu voei para cá ontem.
17:30
I didn't checkVerifica the airplaneavião.
408
1035000
2000
Eu não verifiquei [o estado] do avião.
17:32
I reliedbaseou-se on some other groupgrupo
409
1037000
2000
Eu confiei noutro grupo
17:34
to determinedeterminar whetherse my planeavião was safeseguro to flymosca.
410
1039000
3000
para determinar se era seguro voar no meu avião.
17:37
We're here, noneNenhum of us fearmedo the roofcobertura is going to collapsecolapso on us,
411
1042000
3000
Nós estamos aqui, nenhum de nós tem medo que o teto vá colapsar sobre nós,
17:40
not because we checkedverificado,
412
1045000
3000
não porque verificámos,
17:43
but because we're prettybonita sure
413
1048000
2000
mas porque temos bastante certeza
17:45
the buildingconstrução codescódigos de here are good.
414
1050000
3000
que as normas de construção aqui são boas.
17:48
It's a modelmodelo we just acceptaceitar
415
1053000
2000
É um modelo que, basicamente, aceitamos
17:50
prettybonita much by faith.
416
1055000
2000
por fé.
17:52
And that's okay.
417
1057000
3000
E isso está bem.
17:57
Now, what we want
418
1062000
2000
Agora, o que queremos
17:59
is people to get familiarfamiliar enoughsuficiente
419
1064000
2000
é que as pessoas se sintam suficientemente familiarizadas
18:01
with better modelsmodelos --
420
1066000
2000
com modelos melhores --
18:03
have it reflectedrefletida in theirdeles feelingssentimentos --
421
1068000
2000
que isso se reflicta nos seus sentimentos --
18:05
to allowpermitir them to make securitysegurança trade-offstrade-offs.
422
1070000
4000
e lhes permita fazer escolhas de segurança.
18:09
Now when these go out of whackwhack,
423
1074000
2000
Porque quando estes se distanciam
18:11
you have two optionsopções.
424
1076000
2000
têm duas opções:
18:13
One, you can fixconsertar people'spovos feelingssentimentos,
425
1078000
2000
uma, podem corrigir os sentimentos das pessoas,
18:15
directlydiretamente appealrecurso to feelingssentimentos.
426
1080000
2000
apelar directamente aos sentimentos.
18:17
It's manipulationmanipulação, but it can work.
427
1082000
3000
É manipulação, mas pode funcionar.
18:20
The secondsegundo, more honesthonesto way
428
1085000
2000
a segundo forma, mais honesta
18:22
is to actuallyna realidade fixconsertar the modelmodelo.
429
1087000
3000
é corrigir o próprio modelo.
18:26
ChangeMudança happensacontece slowlylentamente.
430
1091000
2000
A mudança acontece lentamente.
18:28
The smokingfumando debatedebate tooktomou 40 yearsanos,
431
1093000
3000
O debate acerca do tabaco demorou 40 anos,
18:31
and that was an easyfácil one.
432
1096000
3000
e esse foi um fácil.
18:34
Some of this stuffcoisa is hardDifícil.
433
1099000
2000
Algumas coisas são difíceis.
18:36
I mean really thoughApesar,
434
1101000
2000
Eu quero dizer, realmente
18:38
informationem formação seemsparece like our bestmelhor hopeesperança.
435
1103000
2000
a informação parece ser a nossa maior esperança
18:40
And I liedmentiu.
436
1105000
2000
E eu menti.
18:42
RememberLembre-se I said feelingsentindo-me, modelmodelo, realityrealidade;
437
1107000
2000
Lembram-se quando eu disse que sentimento, modelo, realidade.
18:44
I said realityrealidade doesn't changemudança. It actuallyna realidade does.
438
1109000
3000
Eu disse que a realidade não muda. Na realidade muda.
18:47
We liveviver in a technologicaltecnológica worldmundo;
439
1112000
2000
Nós vivemos num mundo tecnológico;
18:49
realityrealidade changesalterar all the time.
440
1114000
3000
a realidade muda a toda a hora.
18:52
So we mightpoderia have -- for the first time in our speciesespécies --
441
1117000
3000
Portanto podemos ter -- pela primeira vez na [história] da nossa espécie --
18:55
feelingsentindo-me chasesperseguições de modelmodelo, modelmodelo chasesperseguições de realityrealidade, reality'srealidade movingmovendo-se --
442
1120000
3000
sentimentos que perseguem modelos, modelos perseguem realidade, e a realidade a mudar --
18:58
they mightpoderia never catchpegar up.
443
1123000
3000
podem nunca se vir a alcançar.
19:02
We don't know.
444
1127000
2000
Nós não sabemos.
19:04
But in the long-termlongo prazo,
445
1129000
2000
Mas a longo prazo
19:06
bothambos feelingsentindo-me and realityrealidade are importantimportante.
446
1131000
3000
sentimentos e realidade são importantes.
19:09
And I want to closefechar with two quickrápido storieshistórias to illustrateilustrar this.
447
1134000
3000
E eu quero acabar com duas histórias rápidas para ilustrar estes pontos.
19:12
1982 -- I don't know if people will rememberlembrar this --
448
1137000
2000
1982 -- Eu não sei se vocês se vão lembrar disto --
19:14
there was a shortcurto epidemicepidemia
449
1139000
3000
houve uma curta epidemia
19:17
of TylenolTylenol poisoningsenvenenamentos in the UnitedUnidos StatesEstados-Membros.
450
1142000
2000
de envenenamento por Tylenol nos Estados Unidos.
19:19
It's a horrifichorrível storyhistória. SomeoneAlguém tooktomou a bottlegarrafa of TylenolTylenol,
451
1144000
3000
Foi uma história horrível. Alguém pegou numa garrafa de Tylenol,
19:22
put poisonPoção in it, closedfechadas it up, put it back on the shelfprateleira.
452
1147000
3000
colocou veneno, fechou-a, pô-la novamente na estante.
19:25
SomeoneAlguém elseoutro boughtcomprou it and diedmorreu.
453
1150000
2000
Outra pessoa comprou-a e morreu.
19:27
This terrifiedaterrorizado people.
454
1152000
2000
Isto aterrorizou as pessoas.
19:29
There were a couplecasal of copycatimitador attacksataques.
455
1154000
2000
Houve alguns ataques de imitadores.
19:31
There wasn'tnão foi any realreal riskrisco, but people were scaredassustada.
456
1156000
3000
Não existia nenhum risco real, mas as pessoas estavam assustadas.
19:34
And this is how
457
1159000
2000
E é por isto
19:36
the tamper-proofà prova de adulteração drugdroga industryindústria was inventedinventado.
458
1161000
2000
que a indústria de produtos farmacêuticos invioláveis foi inventada.
19:38
Those tamper-proofà prova de adulteração capscápsulas, that cameveio from this.
459
1163000
2000
Essas tampas invioláveis, que advieram disto.
19:40
It's completecompleto securitysegurança theaterteatro.
460
1165000
2000
É absolutamente teatro de segurança.
19:42
As a homeworkdever de casa assignmenttarefa, think of 10 waysmaneiras to get around it.
461
1167000
2000
Como trabalho de casa, pensem em 10 formas de contorná-las.
19:44
I'll give you one, a syringeseringa.
462
1169000
3000
Eu dou-vos uma, uma seringa.
19:47
But it madefeito people feel better.
463
1172000
3000
Mas fez as pessoas sentirem-se melhor.
19:50
It madefeito theirdeles feelingsentindo-me of securitysegurança
464
1175000
2000
Fez com que os seus sentimentos de segurança
19:52
more matchpartida the realityrealidade.
465
1177000
2000
coincidissem mais com a realidade.
19:54
Last storyhistória, a fewpoucos yearsanos agoatrás, a friendamigos of minemeu gavedeu birthnascimento.
466
1179000
3000
Última história, há alguns anos, uma amiga minha deu à luz.
19:57
I visitVisita her in the hospitalhospital.
467
1182000
2000
Eu visitei-a no hospital.
19:59
It turnsgira out when a baby'sdo bebê bornnascermos now,
468
1184000
2000
Acontece que, hoje em dia, quando o bebé nasce,
20:01
they put an RFIDRFID braceletpulseira on the babybebê,
469
1186000
2000
eles colocam uma pulseira RFID no bebé,
20:03
put a correspondingcorrespondente one on the mothermãe,
470
1188000
2000
e colocam a pulseira correspondente na mãe.
20:05
so if anyonealguém other than the mothermãe takes the babybebê out of the maternitymaternidade wardenfermaria,
471
1190000
2000
Por isso, se alguém, que não a mãe, levar o bebé para fora da maternidade,
20:07
an alarmalarme goesvai off.
472
1192000
2000
o alarme dispara.
20:09
I said, "Well, that's kindtipo of neatpuro.
473
1194000
2000
Eu disse, "Bem, isso é porreiro.
20:11
I wondermaravilha how rampantdesenfreado babybebê snatchingarrebatando is
474
1196000
2000
Eu interrogo-me quão frequente são raptos de bebés
20:13
out of hospitalshospitais."
475
1198000
2000
dos hospitais."
20:15
I go home, I look it up.
476
1200000
2000
Eu chego a casa, e procuro.
20:17
It basicallybasicamente never happensacontece.
477
1202000
2000
Praticamente nunca acontece.
20:19
But if you think about it,
478
1204000
2000
Mas se pensarem no assunto,
20:21
if you are a hospitalhospital,
479
1206000
2000
se forem um hospital,
20:23
and you need to take a babybebê away from its mothermãe,
480
1208000
2000
e precisam de levar o bebé para longe da mãe,
20:25
out of the roomquarto to runcorre some teststestes,
481
1210000
2000
para fora do quarto para efectuar alguns testes,
20:27
you better have some good securitysegurança theaterteatro,
482
1212000
2000
é melhor que tenham alguns adereços de segurança,
20:29
or she's going to ripDescanse em paz your armbraço off.
483
1214000
2000
ou ela vai-vos arrancar o braço.
20:31
(LaughterRiso)
484
1216000
2000
(risos)
20:33
So it's importantimportante for us,
485
1218000
2000
Por isso, isto é importante para nós,
20:35
those of us who designdesenhar securitysegurança,
486
1220000
2000
aqueles que desenvolvem segurança,
20:37
who look at securitysegurança policypolítica,
487
1222000
3000
que investigam normas de segurança,
20:40
or even look at publicpúblico policypolítica
488
1225000
2000
ou que até investigam normas públicas
20:42
in waysmaneiras that affectafetar securitysegurança.
489
1227000
2000
de formas que afectam a segurança.
20:44
It's not just realityrealidade; it's feelingsentindo-me and realityrealidade.
490
1229000
3000
Não é apenas a realidade, é o sentimento e a realidade.
20:47
What's importantimportante
491
1232000
2000
O que é importante
20:49
is that they be about the samemesmo.
492
1234000
2000
é que coincidam mais ou menos.
20:51
It's importantimportante that, if our feelingssentimentos matchpartida realityrealidade,
493
1236000
2000
é importante porque, se os nossos sentimentos coincidirem com a realidade,
20:53
we make better securitysegurança trade-offstrade-offs.
494
1238000
2000
nós fazemos melhores escolhas de segurança.
20:55
Thank you.
495
1240000
2000
Obrigado.
20:57
(ApplauseAplausos)
496
1242000
2000
(Aplausos)
Translated by Gabriela Matias
Reviewed by Wanderley Jesus

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee