ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Bruce Schneier: Mirajul securității

Filmed:
958,315 views

Senzația securității și securitatea reală nu se potrivesc întotdeauna, spune Bruce Schneier, expertul în securitatea calculatoarelor. El explică la TEDxPSU de ce cheltuim miliarde pe riscurile bazate pe știri, ca de exemplu "spectacolul de securitate" prezentat acum pe aeroporturi, în timp ce neglijăm riscuri mai probabile -- și cum putem sparge acest tipar.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securitySecuritate is two differentdiferit things:
0
0
2000
Securitatea înseamnă două lucruri diferite:
00:17
it's a feelingsentiment, and it's a realityrealitate.
1
2000
2000
este o senzație și este o realitate.
00:19
And they're differentdiferit.
2
4000
2000
Iar ele sunt diferite.
00:21
You could feel secureSecure
3
6000
2000
Poți să te simți în siguranță
00:23
even if you're not.
4
8000
2000
chiar dacă nu ești.
00:25
And you can be secureSecure
5
10000
2000
Și poți fi în siguranță
00:27
even if you don't feel it.
6
12000
2000
chiar dacă nu simți asta.
00:29
Really, we have two separatesepara conceptsconcepte
7
14000
2000
Chiar avem două concepte separate
00:31
mappedmapate ontope the samela fel wordcuvânt.
8
16000
2000
mapate în același cuvânt.
00:33
And what I want to do in this talk
9
18000
2000
Și ce vreau să fac în acest discurs
00:35
is to splitDespică them apartseparat --
10
20000
2000
e să le separ una de alta --
00:37
figuringimaginind out when they divergediverge
11
22000
2000
înțelegând când diverg ele
00:39
and how they convergeconverg.
12
24000
2000
și cum converg ele.
00:41
And languagelimba is actuallyde fapt a problemproblemă here.
13
26000
2000
Iar limba chiar este o problemă aici.
00:43
There aren'tnu sunt a lot of good wordscuvinte
14
28000
2000
Nu există prea multe cuvinte potrivite
00:45
for the conceptsconcepte we're going to talk about.
15
30000
3000
pentru conceptele despre care vom vorbi.
00:48
So if you look at securitySecuritate
16
33000
2000
Deci dacă privești securitatea
00:50
from economiceconomic termstermeni,
17
35000
2000
din punct de vedere economic,
00:52
it's a trade-offcomerţ-off.
18
37000
2000
ea este un troc.
00:54
EveryFiecare time you get some securitySecuritate,
19
39000
2000
De fiecare dată când obții ceva securitate,
00:56
you're always tradingcomercial off something.
20
41000
2000
întotdeauna dai ceva în schimb.
00:58
WhetherDacă this is a personalpersonal decisiondecizie --
21
43000
2000
Fie că asta este o decizie personală --
01:00
whetherdacă you're going to installinstalare a burglarantifurt alarmalarma in your home --
22
45000
2000
instalezi o alarmă antifurt acasă --
01:02
or a nationalnaţional decisiondecizie -- where you're going to invadea invada some foreignstrăin countryțară --
23
47000
3000
sau o decizie națională -- când vei invada o țară străină --
01:05
you're going to tradecomerț off something,
24
50000
2000
vei da ceva la schimb,
01:07
eitherfie moneybani or time, conveniencecomoditate, capabilitiescapabilități,
25
52000
3000
fie bani sau timp, confort, posibilități,
01:10
maybe fundamentalfundamental libertieslibertăţi.
26
55000
3000
poate libertăți fundamentale.
01:13
And the questionîntrebare to askcere when you look at a securitySecuritate anything
27
58000
3000
Iar întrebarea care trebuie pusă când examinezi ceva de securitate
01:16
is not whetherdacă this makesmărci us safermai sigur,
28
61000
3000
nu este dacă asta ne aduce mai multă siguranță,
01:19
but whetherdacă it's worthin valoare de the trade-offcomerţ-off.
29
64000
3000
ci dacă schimbul a meritat sau nu.
01:22
You've heardauzit in the pasttrecut severalmai mulți yearsani,
30
67000
2000
Ați auzit în ultimii câțiva ani,
01:24
the worldlume is safermai sigur because SaddamSonea HusseinHussein is not in powerputere.
31
69000
2000
că lumea este mai sigură fiindcă Saddam Hussein nu mai este la putere.
01:26
That mightar putea be trueAdevărat, but it's not terriblyteribil relevantrelevant.
32
71000
3000
Poate că este adevărat, dar nu este foarte relevant.
01:29
The questionîntrebare is, was it worthin valoare de it?
33
74000
3000
Întrebarea este: a meritat?
01:32
And you can make your ownpropriu decisiondecizie,
34
77000
3000
Și poți decide singur, iar apoi
01:35
and then you'llveți decidea decide whetherdacă the invasioninvazie was worthin valoare de it.
35
80000
2000
vei decide dacă invazia a meritat.
01:37
That's how you think about securitySecuritate --
36
82000
2000
Așa trebuie să gândești despre securitate --
01:39
in termstermeni of the trade-offcomerţ-off.
37
84000
2000
în termeni de schimb.
01:41
Now there's oftende multe ori no right or wronggresit here.
38
86000
3000
De multe ori nu există răspuns corect sau greșit.
01:44
Some of us have a burglarantifurt alarmalarma systemsistem at home,
39
89000
2000
Unii din noi avem alarme în casele noastre,
01:46
and some of us don't.
40
91000
2000
iar unii din noi nu avem.
01:48
And it'llO să dependdepinde on where we livetrăi,
41
93000
2000
Și asta depinde de unde trăim,
01:50
whetherdacă we livetrăi alonesingur or have a familyfamilie,
42
95000
2000
dacă trăim singuri sau avem o familie,
01:52
how much coolmisto stuffchestie we have,
43
97000
2000
cât de multe lucruri grozave avem,
01:54
how much we're willingdispus to acceptAccept
44
99000
2000
cât de mult dorim să acceptăm
01:56
the riskrisc of theftfurt.
45
101000
2000
riscul furtului.
01:58
In politicspolitică alsode asemenea,
46
103000
2000
În politică de asemenea
02:00
there are differentdiferit opinionsopinii.
47
105000
2000
sunt opinii diferite.
02:02
A lot of timesori, these trade-offscompromisurile
48
107000
2000
De multe ori aceste schimburi
02:04
are about more than just securitySecuritate,
49
109000
2000
sunt despre mai mult decât securitate,
02:06
and I think that's really importantimportant.
50
111000
2000
și cred că asta este foarte important.
02:08
Now people have a naturalnatural intuitionintuiţie
51
113000
2000
Oamenii au o intuiție înnăscută
02:10
about these trade-offscompromisurile.
52
115000
2000
despre aceste schimburi.
02:12
We make them everyfiecare day --
53
117000
2000
Le facem zilnic --
02:14
last night in my hotelhotel roomcameră,
54
119000
2000
noaptea trecută în camera mea de hotel,
02:16
when I decideda decis to double-lockdublu-lock the dooruşă,
55
121000
2000
când am decis să încui ușa de două ori,
02:18
or you in your carmașină when you drovea condus here,
56
123000
2000
sau voi în mașinile cu care ați venit aici,
02:20
when we go eatmânca lunchmasa de pranz
57
125000
2000
când mergem la prânz
02:22
and decidea decide the food'salimentare pe not poisonotravă and we'llbine eatmânca it.
58
127000
3000
și decidem că hrana nu este otravă și o vom mânca.
02:25
We make these trade-offscompromisurile again and again,
59
130000
2000
Facem aceste schimburi iar și iar
02:27
multiplemultiplu timesori a day.
60
132000
2000
de mai multe ori pe zi.
02:29
We oftende multe ori won'tnu va even noticeînștiințare them.
61
134000
2000
Adesea nici nu le observăm.
02:31
They're just partparte of beingfiind aliveîn viaţă; we all do it.
62
136000
2000
Ele sunt parte a vieții, toți o facem.
02:33
EveryFiecare speciesspecie does it.
63
138000
3000
Fiecare specie o face.
02:36
ImagineImaginaţi-vă a rabbitiepure in a fieldcamp, eatingmâncare grassiarbă,
64
141000
2000
Imaginați-vă un iepure în câmp, mâncând iarba,
02:38
and the rabbit'siepure pe going to see a foxvulpe.
65
143000
3000
și iepurele vede o vulpe.
02:41
That rabbitiepure will make a securitySecuritate trade-offcomerţ-off:
66
146000
2000
Iepurele va face un schimb de securitate.
02:43
"Should I staystau, or should I fleefugă?"
67
148000
2000
"Să stau sau să fug?"
02:45
And if you think about it,
68
150000
2000
Și dacă vă gândiți la asta,
02:47
the rabbitsiepuri that are good at makingluare that trade-offcomerţ-off
69
152000
3000
iepurii care sunt buni la aceste schimburi
02:50
will tendtind to livetrăi and reproducereproduce,
70
155000
2000
vor tinde să trăiască și să se reproducă,
02:52
and the rabbitsiepuri that are badrău at it
71
157000
2000
iar iepurii care nu sunt buni la asta
02:54
will get eatenmâncat or starvemor de foame.
72
159000
2000
vor fi mâncați sau vor muri de foame.
02:56
So you'dte-ai think
73
161000
2000
Deci ați gândi că noi,
02:58
that us, as a successfulde succes speciesspecie on the planetplanetă --
74
163000
3000
ca o specie de succes a planetei --
03:01
you, me, everybodytoata lumea --
75
166000
2000
voi, eu, toți --
03:03
would be really good at makingluare these trade-offscompromisurile.
76
168000
3000
am fi foarte buni în a face aceste schimburi.
03:06
YetÎncă it seemspare, again and again,
77
171000
2000
Cu toate acestea se pare că, iar și iar,
03:08
that we're hopelesslyfără speranţă badrău at it.
78
173000
3000
suntem foarte nepricepuți în asta.
03:11
And I think that's a fundamentallyfundamental interestinginteresant questionîntrebare.
79
176000
3000
Și eu cred că asta este o întrebare fundamental interesantă.
03:14
I'll give you the shortmic de statura answerRăspuns.
80
179000
2000
Vă voi da răspunsul scurt.
03:16
The answerRăspuns is, we respondrăspunde to the feelingsentiment of securitySecuritate
81
181000
2000
Răspunsul este că răspundem la senzația de securitate
03:18
and not the realityrealitate.
82
183000
3000
și nu la realitate.
03:21
Now mostcel mai of the time, that workslucrări.
83
186000
3000
În majoritatea cazurilor asta merge.
03:25
MostCele mai multe of the time,
84
190000
2000
În majoritatea cazurilor,
03:27
feelingsentiment and realityrealitate are the samela fel.
85
192000
3000
senzația și realitatea sunt identice.
03:30
CertainlyCu siguranţă that's trueAdevărat
86
195000
2000
În mod cert asta este adevărat
03:32
for mostcel mai of humanuman prehistorypreistorie.
87
197000
3000
pentru majoritatea preistoriei umane.
03:35
We'veNe-am developeddezvoltat this abilityabilitate
88
200000
3000
Am dezvoltat această abilitate
03:38
because it makesmărci evolutionaryevolutiv sensesens.
89
203000
2000
fiindcă are sens din puct de vedere evoluționar.
03:40
One way to think of it
90
205000
2000
Un mod de a gândi la asta
03:42
is that we're highlyextrem de optimizedoptimizat
91
207000
2000
este că suntem extrem de optimizați
03:44
for riskrisc decisionsdeciziile
92
209000
2000
pentru decizii de risc
03:46
that are endemicendemice to livingviaţă in smallmic familyfamilie groupsGrupuri
93
211000
3000
tipice vieții în mici grupuri familiale
03:49
in the EastEst AfricanAfricane highlandsHighlands in 100,000 B.C.
94
214000
3000
în savana africană din anul 100.000 î.H. --
03:52
2010 NewNoi YorkYork, not so much.
95
217000
3000
dar nu așa de mult pentru anul 2010, în New York.
03:56
Now there are severalmai mulți biasesdistorsiunilor in riskrisc perceptionpercepţie.
96
221000
3000
Există mai multe predispoziţii în perceperea riscului.
03:59
A lot of good experimentsexperimente in this.
97
224000
2000
Există o mulțime de experimente bune pentru asta.
04:01
And you can see certainanumit biasesdistorsiunilor that come up again and again.
98
226000
3000
Și poți observa anumite predispoziţii care apar din nou și din nou.
04:04
So I'll give you fourpatru.
99
229000
2000
Vă voi da patru.
04:06
We tendtind to exaggerateexagera spectacularspectaculos and rarerar risksriscuri
100
231000
3000
Tindem să exagerăm riscurile spectaculoase și rare
04:09
and downplayminimalizeze commoncomun risksriscuri --
101
234000
2000
și să desconsiderăm riscurile comune --
04:11
so flyingzbor versusimpotriva drivingconducere.
102
236000
3000
de ex. a zbura comparat cu a conduce.
04:14
The unknownnecunoscut is perceivedperceput
103
239000
2000
Necunoscutul este perceput
04:16
to be riskiermai riscante than the familiarfamiliar.
104
241000
3000
a fi mai riscant decât cunoscutul.
04:20
One exampleexemplu would be,
105
245000
2000
Un exemplu ar fi,
04:22
people fearfrică kidnappingrăpirea by strangersstrăini
106
247000
3000
oamenilor le e teamă de străinii care răpesc copii,
04:25
when the datadate supportssprijină kidnappingrăpirea by relativesrudele is much more commoncomun.
107
250000
3000
când datele susțin că răpirea de către rude este mult mai comună.
04:28
This is for childrencopii.
108
253000
2000
Asta este pentru copii.
04:30
ThirdAl treilea, personifiedpersonificat risksriscuri
109
255000
3000
Trei, riscurile personificate
04:33
are perceivedperceput to be greatermai mare than anonymousanonim risksriscuri --
110
258000
3000
sunt percepute a fi mai mari decât riscurile anonime --
04:36
so BinBin LadenÎncărcat is scarierinfricosator because he has a nameNume.
111
261000
3000
deci Bin Laden este mai înspăimântător fiindcă are un nume.
04:39
And the fourthAl patrulea
112
264000
2000
Și a patra
04:41
is people underestimatesubestima risksriscuri
113
266000
2000
este că oamenii subestimează riscurile
04:43
in situationssituații they do controlControl
114
268000
2000
în situații pe care le controlează
04:45
and overestimatesupraestima them in situationssituații they don't controlControl.
115
270000
4000
și le supraestimează în situații pe care nu le controlează.
04:49
So onceo singura data you take up skydivingparaşutism or smokingfumat,
116
274000
3000
Deci odată ce te-ai apucat de sărituri cu parașuta sau de fumat,
04:52
you downplayminimalizeze the risksriscuri.
117
277000
2000
desconsideri riscurile.
04:54
If a riskrisc is thrustîmpingere uponpe you -- terrorismterorism was a good exampleexemplu --
118
279000
3000
Dacă ți se impune un risc cu forța -- terorismul a fost un bun exemplu --
04:57
you'llveți overplayexagera it because you don't feel like it's in your controlControl.
119
282000
3000
îl vei exagera, fiindcă simți că nu este sub controlul tău.
05:02
There are a bunchbuchet of other of these biasesdistorsiunilor, these cognitivecognitiv biasesdistorsiunilor,
120
287000
3000
Există o mulțime de alte predispoziţii, aceste predispoziţii cognitive,
05:05
that affecta afecta our riskrisc decisionsdeciziile.
121
290000
3000
care afectează deciziile noastre de risc.
05:08
There's the availabilitydisponibilitatea heuristiceuristică,
122
293000
2000
Este heuristica disponibilității,
05:10
whichcare basicallype scurt meansmijloace
123
295000
2000
care de fapt înseamnă
05:12
we estimateestima the probabilityprobabilitate of something
124
297000
3000
că estimăm probabilitatea a ceva
05:15
by how easyuşor it is to bringaduce instancesinstanțe of it to mindminte.
125
300000
4000
prin cât de ușor ne imaginăm instanțele ei.
05:19
So you can imagineimagina how that workslucrări.
126
304000
2000
Puteți să vă imaginați cum funcționează asta.
05:21
If you hearauzi a lot about tigertigru attacksatacurile, there musttrebuie sa be a lot of tigersTigrii around.
127
306000
3000
Dacă auziți mult despre atacuri de tigri, trebuie să fie mulți tigri în jur.
05:24
You don't hearauzi about lionleu attacksatacurile, there aren'tnu sunt a lot of lionslei around.
128
309000
3000
Nu auziți despre atacuri de lei, deci nu sunt mulți lei în jur.
05:27
This workslucrări untilpana cand you inventinventa newspaperspresă.
129
312000
3000
Asta funcționează până inventezi ziarele.
05:30
Because what newspaperspresă do
130
315000
2000
Fiindcă ziarele
05:32
is they repeatrepeta again and again
131
317000
2000
repetă din nou și din nou
05:34
rarerar risksriscuri.
132
319000
2000
riscurile rare.
05:36
I tell people, if it's in the newsștiri, don't worryface griji about it.
133
321000
2000
Eu le spun oamenilor: dacă este în știri, nu te îngrijora.
05:38
Because by definitiondefiniție,
134
323000
2000
Fiindcă prin definiție,
05:40
newsștiri is something that almostaproape never happensse întâmplă.
135
325000
3000
știrea este ceva care se întâmplă foarte rar.
05:43
(LaughterRâs)
136
328000
2000
(Râsete)
05:45
When something is so commoncomun, it's no longermai lung newsștiri --
137
330000
3000
Când ceva este așa de comun. nu mai apare în știri --
05:48
carmașină crashesaccidente, domesticintern violenceviolenţă --
138
333000
2000
accidente de mașină, violența domestică --
05:50
those are the risksriscuri you worryface griji about.
139
335000
3000
acelea sunt riscurile pentru care să te îngrijorezi.
05:53
We're alsode asemenea a speciesspecie of storytellerspovestitori.
140
338000
2000
Suntem de asemenea o specie de povestitori.
05:55
We respondrăspunde to storiespovestiri more than datadate.
141
340000
3000
Răspundem mai mult la povești, decât la date.
05:58
And there's some basicde bază innumeracyinnumeracy going on.
142
343000
2000
Și există o lipsă de știință în aprecierea numerelor.
06:00
I mean, the jokeglumă "One, Two, ThreeTrei, ManyMulte" is kinddrăguț of right.
143
345000
3000
Adică bancul: "Una, două, trei, multe" pare să fie adevărat.
06:03
We're really good at smallmic numbersnumerele.
144
348000
3000
Suntem foarte buni la numere mici.
06:06
One mangoMango, two mangoesmango, threeTrei mangoesmango,
145
351000
2000
Un mango, două mango, trei mango,
06:08
10,000 mangoesmango, 100,000 mangoesmango --
146
353000
2000
însă 10,000 de mango, 100,000 mango --
06:10
it's still more mangoesmango you can eatmânca before they rotputregai.
147
355000
3000
sunt totuși mai multe mango decât poți mânca înainte de a putrezi.
06:13
So one halfjumătate, one quartersfert, one fiftha cincea -- we're good at that.
148
358000
3000
Deci o jumătate, un sfert, o cincime -- suntem buni la asta.
06:16
One in a millionmilion, one in a billionmiliard --
149
361000
2000
Unul dintr-un milion, unul dintr-un miliard --
06:18
they're bothambii almostaproape never.
150
363000
3000
ambele sunt aproape ca niciodată.
06:21
So we have troublebucluc with the risksriscuri
151
366000
2000
Așa că avem problemă cu riscurile
06:23
that aren'tnu sunt very commoncomun.
152
368000
2000
care nu sunt foarte comune.
06:25
And what these cognitivecognitiv biasesdistorsiunilor do
153
370000
2000
Iar aceste predispoziţii cognitive
06:27
is they actact as filtersfiltre betweenîntre us and realityrealitate.
154
372000
3000
acționează ca niște filtre între noi și realitate.
06:30
And the resultrezultat
155
375000
2000
Și rezultatul
06:32
is that feelingsentiment and realityrealitate get out of whacklovi cu putere,
156
377000
2000
este că senzația și realitatea ies din sincron,
06:34
they get differentdiferit.
157
379000
3000
ajung diferite.
06:37
Now you eitherfie have a feelingsentiment -- you feel more secureSecure than you are.
158
382000
3000
Fie ai o senzație -- te simți mai sigur decât ești în realitate.
06:40
There's a falsefals sensesens of securitySecuritate.
159
385000
2000
Este o falsă senzație de securitate.
06:42
Or the other way,
160
387000
2000
Sau invers,
06:44
and that's a falsefals sensesens of insecuritynesiguranță.
161
389000
2000
și atunci este o falsă senzație de insecuritate.
06:46
I writescrie a lot about "securitySecuritate theaterteatru,"
162
391000
3000
Scriu mult despre "scena securității",
06:49
whichcare are productsproduse that make people feel secureSecure,
163
394000
3000
care sunt produsele care îi fac pe oamenii să se simtă în siguranță,
06:52
but don't actuallyde fapt do anything.
164
397000
2000
dar de fapt nu fac ceva util.
06:54
There's no realreal wordcuvânt for stuffchestie that makesmărci us secureSecure,
165
399000
2000
Nu există cuvânt pentru lucrurile care ne asigură securitatea,
06:56
but doesn't make us feel secureSecure.
166
401000
2000
dar nu ne fac să ne simțim mai în siguranță.
06:58
Maybe it's what the CIA'sCIA supposedpresupus to do for us.
167
403000
3000
Poate asta ar trebui să facă CIA pentru noi.
07:03
So back to economicseconomie.
168
408000
2000
Deci înapoi la economie.
07:05
If economicseconomie, if the marketpiaţă, drivesunități securitySecuritate,
169
410000
4000
Dacă economia, dacă piața, dirijează securitatea,
07:09
and if people make trade-offscompromisurile
170
414000
2000
și dacă oamenii fac schimburi
07:11
basedbazat on the feelingsentiment of securitySecuritate,
171
416000
3000
bazate pe senzația de securitate,
07:14
then the smartinteligent thing for companiescompanii to do
172
419000
2000
atunci companiile trebuie să facă
07:16
for the economiceconomic incentivesstimulente
173
421000
2000
oamenii să se simtă în siguranță
07:18
are to make people feel secureSecure.
174
423000
3000
pentru a culege recompensele economice.
07:21
And there are two waysmoduri to do this.
175
426000
3000
Și sunt două căi de a face asta.
07:24
One, you can make people actuallyde fapt secureSecure
176
429000
2000
Prima, poți asigura securitatea omenilor
07:26
and hopesperanţă they noticeînștiințare.
177
431000
2000
și speri că vor observa.
07:28
Or two, you can make people just feel secureSecure
178
433000
3000
Sau a doua, poți să-i faci pe oameni să se simtă în siguranță
07:31
and hopesperanţă they don't noticeînștiințare.
179
436000
3000
și speri că nu vor observa.
07:35
So what makesmărci people noticeînștiințare?
180
440000
3000
Deci ce-i face pe oameni să observe?
07:38
Well a couplecuplu of things:
181
443000
2000
Câteva lucruri:
07:40
understandingînţelegere of the securitySecuritate,
182
445000
2000
înțelegerea securității,
07:42
of the risksriscuri, the threatsameninţări,
183
447000
2000
a riscurilor, a amenințărilor,
07:44
the countermeasurescontramăsuri, how they work.
184
449000
3000
a contramăsurilor, cum funcționează ele.
07:47
But if you know stuffchestie,
185
452000
2000
Dar dacă știi lucrurile,
07:49
you're more likelyprobabil to have your feelingssentimente matchMeci realityrealitate.
186
454000
3000
este mai probabil ca senzațiile tale să se potrivească cu realitatea.
07:52
EnoughSuficient realreal worldlume examplesexemple helpsajută.
187
457000
3000
Multe exemple din lumea reală ne pot ajuta.
07:55
Now we all know the crimecrimă raterată in our neighborhoodCartier,
188
460000
3000
Știm cu toții despre rata crimelor din cartierul nostru,
07:58
because we livetrăi there, and we get a feelingsentiment about it
189
463000
3000
fiindcă trăim acolo și avem o atitudine față de asta,
08:01
that basicallype scurt matchesmeciuri realityrealitate.
190
466000
3000
senzație care de fapt se potrivește cu realitatea.
08:04
SecuritySecuritate theater'steatru pe exposedexpuse
191
469000
3000
Spectacolul de securitate este dezvăluit
08:07
when it's obviousevident that it's not workinglucru properlycum se cuvine.
192
472000
3000
când este evident că nu funționează corect.
08:10
Okay, so what makesmărci people not noticeînștiințare?
193
475000
4000
În regulă, deci ce-i face pe oameni să nu observe?
08:14
Well, a poorsărac understandingînţelegere.
194
479000
2000
Ei bine, o slabă înțelegere.
08:16
If you don't understanda intelege the risksriscuri, you don't understanda intelege the costscheltuieli,
195
481000
3000
Dacă nu înțelegi riscurile, nu înțelegi costurile,
08:19
you're likelyprobabil to get the trade-offcomerţ-off wronggresit,
196
484000
2000
vei face probabil schimbul greșit,
08:21
and your feelingsentiment doesn't matchMeci realityrealitate.
197
486000
3000
și senzația ta nu se va potrivi cu realitatea.
08:24
Not enoughdestul examplesexemple.
198
489000
2000
Nu sunt destule exemple.
08:26
There's an inherentinerent problemproblemă
199
491000
2000
Este o problemă inerentă
08:28
with lowscăzut probabilityprobabilitate eventsevenimente.
200
493000
2000
cu evenimentele de mică probabilitate.
08:30
If, for exampleexemplu,
201
495000
2000
Dacă, de exemplu,
08:32
terrorismterorism almostaproape never happensse întâmplă,
202
497000
2000
terorismul se întâmplă foarte rar,
08:34
it's really hardgreu to judgejudecător
203
499000
2000
este foarte greu de judecat
08:36
the efficacyeficacitatea of counter-terroristcontra-teroriste measuresmăsuri.
204
501000
3000
eficacitatea măsurilor antiteroriste.
08:40
This is why you keep sacrificinga renunţa la virginsfecioarele,
205
505000
3000
De asta continui să sacrifici fecioare,
08:43
and why your unicorninorog defensesapărare are workinglucru just great.
206
508000
3000
și de asta funcționează așa de minunat apărarea ta bazată pe inorogi.
08:46
There aren'tnu sunt enoughdestul examplesexemple of failureseșecuri.
207
511000
3000
Nu sunt destule exemple de eșecuri.
08:50
AlsoDe asemenea, feelingssentimente that are cloudingopacifierea the issuesprobleme --
208
515000
3000
De asemenea, sentimentele care obturează problemele --
08:53
the cognitivecognitiv biasesdistorsiunilor I talkeda vorbit about earliermai devreme,
209
518000
2000
predispoziţiile cognitive despre care am vorbit înainte,
08:55
fearstemerile, folkfolk beliefscredințe,
210
520000
3000
temeri, credințe populare,
08:58
basicallype scurt an inadequateinadecvate modelmodel of realityrealitate.
211
523000
3000
de fapt un model neadecvat al realității.
09:02
So let me complicatecomplica things.
212
527000
3000
Permiteți-mi să complic lucrurile.
09:05
I have feelingsentiment and realityrealitate.
213
530000
2000
Am senzație și realitate.
09:07
I want to addadăuga a thirdal treilea elementelement. I want to addadăuga modelmodel.
214
532000
3000
Vreau să adaug un al treilea element. Vreau să adaug modelul.
09:10
FeelingSentimentul and modelmodel in our headcap,
215
535000
2000
Senzația și modelul este în capul nostru,
09:12
realityrealitate is the outsidein afara worldlume.
216
537000
2000
realitatea este lumea din jur.
09:14
It doesn't changeSchimbare; it's realreal.
217
539000
3000
Ea nu se schimbă; este reală.
09:17
So feelingsentiment is basedbazat on our intuitionintuiţie.
218
542000
2000
Senzația este bazată pe intuiția noastră.
09:19
ModelModelul is basedbazat on reasonmotiv.
219
544000
2000
Modelul este bazat pe raționament.
09:21
That's basicallype scurt the differencediferență.
220
546000
3000
Asta este de fapt diferența.
09:24
In a primitiveprimitiv and simplesimplu worldlume,
221
549000
2000
Într-o lume primitivă și simplă,
09:26
there's really no reasonmotiv for a modelmodel
222
551000
3000
chiar nu este nevoie de un model.
09:29
because feelingsentiment is closeînchide to realityrealitate.
223
554000
3000
Fiindcă senzația este aproape de realitate.
09:32
You don't need a modelmodel.
224
557000
2000
Nu ai nevoie de un model.
09:34
But in a modernmodern and complexcomplex worldlume,
225
559000
2000
Dar într-o lume modernă și complexă,
09:36
you need modelsmodele
226
561000
2000
ai nevoie de modele
09:38
to understanda intelege a lot of the risksriscuri we facefață.
227
563000
3000
pentru a înțelege mulțimea de riscuri care există.
09:42
There's no feelingsentiment about germsgermeni.
228
567000
2000
Nu există senzație despre microbi.
09:44
You need a modelmodel to understanda intelege them.
229
569000
3000
Ai nevoie de un model pentru a-i înțelege.
09:47
So this modelmodel
230
572000
2000
Deci acest model
09:49
is an intelligentinteligent representationreprezentare of realityrealitate.
231
574000
3000
este o reprezentare inteligentă a realității.
09:52
It's, of coursecurs, limitedlimitat by scienceştiinţă,
232
577000
3000
Este desigur limitat de știință,
09:55
by technologytehnologie.
233
580000
2000
de tehnologie.
09:57
We couldn'tnu a putut have a germgermeni theoryteorie of diseaseboală
234
582000
3000
Nu am putut avea o teorie a bolilor bazată pe microbi
10:00
before we inventedinventat the microscopemicroscop to see them.
235
585000
3000
înainte de inventarea microscopului pentru a le vedea.
10:04
It's limitedlimitat by our cognitivecognitiv biasesdistorsiunilor.
236
589000
3000
Este limitat de predispoziţiile noastre cognitive.
10:07
But it has the abilityabilitate
237
592000
2000
Dar are abilitatea
10:09
to overridesuprascrie our feelingssentimente.
238
594000
2000
de a suprascrie senzațiile noastre.
10:11
Where do we get these modelsmodele? We get them from othersalții.
239
596000
3000
De unde avem aceste modele? Le avem de la alții.
10:14
We get them from religionreligie, from culturecultură,
240
599000
3000
Le avem din religie, cultură,
10:17
teachersprofesori, eldersbătrâni.
241
602000
2000
profesori, strămoși.
10:19
A couplecuplu yearsani agoîn urmă,
242
604000
2000
Cu câțiva ani în urmă,
10:21
I was in SouthSud AfricaAfrica on safariSafari.
243
606000
2000
am fost în Africa de sud la un safari.
10:23
The trackertractor I was with grewcrescut up in KrugerKruger NationalNaţionale ParkPark.
244
608000
3000
Călăuza cu care am fost a crescut în Parcul Național Kruger.
10:26
He had some very complexcomplex modelsmodele of how to survivesupravieţui.
245
611000
3000
El avea niște modele foarte complexe despre cum să supraviețuiești.
10:29
And it dependeddepindea on if you were attackedatacat
246
614000
2000
Iar asta depindea dacă te ataca
10:31
by a lionleu or a leopardLeopard or a rhinorinocer or an elephantelefant --
247
616000
2000
un leu sau un leopard sau un rinocer sau un elefant --
10:33
and when you had to runalerga away, and when you couldn'tnu a putut runalerga away, and when you had to climba urca a treecopac --
248
618000
3000
și când trebuie să fugi, și când trebuie să te urci într-un copac --
10:36
when you could never climba urca a treecopac.
249
621000
2000
și când nu trebuie să te urci într-un copac.
10:38
I would have dieddecedat in a day,
250
623000
3000
Eu aș fi murit într-o singură zi,
10:41
but he was bornnăscut there,
251
626000
2000
dar el s-a născut acolo,
10:43
and he understoodînțeles how to survivesupravieţui.
252
628000
2000
și înțelegea cum să supraviețuiești.
10:45
I was bornnăscut in NewNoi YorkYork CityCity.
253
630000
2000
Eu m-am născut în New York City.
10:47
I could have takenluate him to NewNoi YorkYork, and he would have dieddecedat in a day.
254
632000
3000
Dacă l-aș fi luat cu mine în New York, atunci el ar fi murit într-o singură zi.
10:50
(LaughterRâs)
255
635000
2000
(Râsete)
10:52
Because we had differentdiferit modelsmodele
256
637000
2000
Fiindcă aveam modele diferite
10:54
basedbazat on our differentdiferit experiencesexperiențe.
257
639000
3000
bazate pe experiențele noastre diferite.
10:58
ModelsModele can come from the mediamass-media,
258
643000
2000
Modelele pot veni din massmedia,
11:00
from our electedales officialsOficialii.
259
645000
3000
de la aleșii noștri oficiali.
11:03
Think of modelsmodele of terrorismterorism,
260
648000
3000
Gândiți-vă la modele de terorism,
11:06
childcopil kidnappingrăpirea,
261
651000
3000
răpiri de copii,
11:09
airlinelinie aeriană safetySiguranță, carmașină safetySiguranță.
262
654000
2000
siguranța zborului, siguranța mașinii.
11:11
ModelsModele can come from industryindustrie.
263
656000
3000
Modelele pot veni din industrie.
11:14
The two I'm followingca urmare a are surveillancesupraveghere camerascamere,
264
659000
2000
Cele două pe care la urmăresc sunt camerele de supraveghere,
11:16
IDID-UL cardscarduri,
265
661000
2000
cardurile de identitate,
11:18
quitedestul de a lot of our computercomputer securitySecuritate modelsmodele come from there.
266
663000
3000
destul de multe din modelele de securitatea calculatoarelor vin de acolo.
11:21
A lot of modelsmodele come from scienceştiinţă.
267
666000
3000
O mulțime de modele vin din știință.
11:24
HealthSănătate modelsmodele are a great exampleexemplu.
268
669000
2000
Modelele de sănătate sunt un exemplu grozav.
11:26
Think of cancercancer, of birdpasăre flugripă, swineporcine flugripă, SARSSARS.
269
671000
3000
Gândiți-vă la cancer, gripa aviară, gripa porcină, SARS.
11:29
All of our feelingssentimente of securitySecuritate
270
674000
3000
Toate senzațiile noastre de securitate
11:32
about those diseasesboli
271
677000
2000
despre acele boli
11:34
come from modelsmodele
272
679000
2000
vin din modele
11:36
givendat to us, really, by scienceştiinţă filteredfiltrate throughprin the mediamass-media.
273
681000
3000
date nouă, de fapt, de știință filtrată prin massmedia.
11:40
So modelsmodele can changeSchimbare.
274
685000
3000
Așa că modelele se pot schimba.
11:43
ModelsModele are not staticstatice.
275
688000
2000
Modelele nu sunt statice.
11:45
As we becomedeveni more comfortableconfortabil in our environmentsmedii,
276
690000
3000
Pe măsură ce devenim mai confortabili în mediile noastre,
11:48
our modelmodel can movemișcare closermai aproape to our feelingssentimente.
277
693000
4000
modelele noastre se pot muta mai aproape de senzațiile noastre.
11:53
So an exampleexemplu mightar putea be,
278
698000
2000
Un exemplu ar fi,
11:55
if you go back 100 yearsani agoîn urmă
279
700000
2000
dacă mergeți înapoi 100 de ani
11:57
when electricityelectricitate was first becomingdevenire commoncomun,
280
702000
3000
când electricitatea a început să fie folosită,
12:00
there were a lot of fearstemerile about it.
281
705000
2000
erau multe temeri legate de ea.
12:02
I mean, there were people who were afraidsperiat to pushApăsaţi doorbellssonerii,
282
707000
2000
Erau oameni cărora le era frică să apese butonul soneriei,
12:04
because there was electricityelectricitate in there, and that was dangerouspericulos.
283
709000
3000
fiindcă era electricitate în el, iar asta era periculos.
12:07
For us, we're very facilefacila around electricityelectricitate.
284
712000
3000
Noi suntem degajați privind electricitatea.
12:10
We changeSchimbare lightușoară bulbsBecuri
285
715000
2000
Schimbăm becurile electrice
12:12
withoutfără even thinkinggândire about it.
286
717000
2000
fără să ne gândim la ea.
12:14
Our modelmodel of securitySecuritate around electricityelectricitate
287
719000
4000
Modelul nostru de securitate despre electricitate
12:18
is something we were bornnăscut into.
288
723000
3000
este ceva în care trăim de la naștere.
12:21
It hasn'tnu are changedschimbat as we were growingcreştere up.
289
726000
3000
El nu s-a schimbat pe durata vieții noastre.
12:24
And we're good at it.
290
729000
3000
Și suntem buni la acest model.
12:27
Or think of the risksriscuri
291
732000
2000
Sau gândiți-vă la riscurile
12:29
on the InternetInternet acrosspeste generationsgenerații --
292
734000
2000
Internetului perceput de generații --
12:31
how your parentspărinţi approachabordare InternetInternet securitySecuritate,
293
736000
2000
cum tratează părinții voștri securitatea Internetului,
12:33
versusimpotriva how you do,
294
738000
2000
față de cum faceți voi,
12:35
versusimpotriva how our kidscopii will.
295
740000
3000
față de cum vor face copiii noștri.
12:38
ModelsModele eventuallyîn cele din urmă fadedecolorare into the backgroundfundal.
296
743000
3000
În cele din urmă modelele dispar în fundal.
12:42
IntuitiveIntuitiv is just anothero alta wordcuvânt for familiarfamiliar.
297
747000
3000
Intuitiv este doar un alt cuvânt pentru familiar.
12:45
So as your modelmodel is closeînchide to realityrealitate,
298
750000
2000
Pe măsură ce modelul tău este aproape de realitate,
12:47
and it convergeseste convergentă with feelingssentimente,
299
752000
2000
și converge cu senzațiile,
12:49
you oftende multe ori don't know it's there.
300
754000
3000
adesea nici nu știi că e acolo.
12:52
So a nicefrumos exampleexemplu of this
301
757000
2000
Un exemplu drăguț pentru asta
12:54
camea venit from last yearan and swineporcine flugripă.
302
759000
3000
a fost gripa porcină de anul trecut.
12:57
When swineporcine flugripă first appeareda apărut,
303
762000
2000
Când gripa porcină a apărut prima dată,
12:59
the initialiniţială newsștiri causedcauzate a lot of overreactionreactie exagerata.
304
764000
4000
știrile inițiale au provocat multe reacții exagerate.
13:03
Now it had a nameNume,
305
768000
2000
Apoi a avut un nume,
13:05
whichcare madefăcut it scarierinfricosator than the regularregulat flugripă,
306
770000
2000
ceea ce a făcut-o mai de speriat decât gripa normală,
13:07
even thoughdeşi it was more deadlymortal.
307
772000
2000
chiar dacă a fost mai mortală.
13:09
And people thought doctorsmedici should be ablecapabil to dealafacere with it.
308
774000
4000
Și oamenii au gândit că doctorii vor fi în stare să-i facă față.
13:13
So there was that feelingsentiment of lacklipsă of controlControl.
309
778000
2000
Deci a fost senzația lipsei de control.
13:15
And those two things
310
780000
2000
Iar aceste două lucruri
13:17
madefăcut the riskrisc more than it was.
311
782000
2000
au făcut riscul mai mare decât era.
13:19
As the noveltynoutate worepurtau off, the monthsluni wenta mers by,
312
784000
3000
După ce a trecut noutatea, au trecut luni,
13:22
there was some amountCantitate of tolerancetoleranţă,
313
787000
2000
a existat o doză de toleranță,
13:24
people got used to it.
314
789000
2000
oamenii s-au obișnuit cu ea.
13:26
There was no newnou datadate, but there was lessMai puțin fearfrică.
315
791000
3000
Nu existau date noi, dar era mai puțină frică.
13:29
By autumntoamna,
316
794000
2000
Până toamna,
13:31
people thought
317
796000
2000
oamenii au gândit
13:33
the doctorsmedici should have solvedrezolvat this alreadydeja.
318
798000
2000
că doctorii au rezolvat deja asta.
13:35
And there's kinddrăguț of a bifurcationbifurcare --
319
800000
2000
Și există un fel de bifurcație --
13:37
people had to choosealege
320
802000
2000
oamenii au trebuit să aleagă
13:39
betweenîntre fearfrică and acceptanceacceptarea --
321
804000
4000
între frică și acceptare --
13:43
actuallyde fapt fearfrică and indifferenceindiferenţă --
322
808000
2000
de fapt frică și indiferență --
13:45
they kinddrăguț of chosea ales suspicionsuspiciune.
323
810000
3000
și ei au devenit suspicioși.
13:48
And when the vaccinevaccin appeareda apărut last winteriarnă,
324
813000
3000
Și când a apărut vaccinul iarna trecută,
13:51
there were a lot of people -- a surprisingsurprinzător numbernumăr --
325
816000
3000
erau o mulțime de oameni -- un număr surprinzător --
13:54
who refuseda refuzat to get it --
326
819000
3000
care au refuzat să-l ia --
13:58
as a nicefrumos exampleexemplu
327
823000
2000
ca un exemplu drăguț
14:00
of how people'soamenii lui feelingssentimente of securitySecuritate changeSchimbare, how theiral lor modelmodel changesschimbări,
328
825000
3000
de cum se schimbă senzația de securitate a oamenilor, cum se schimbă modelul lor,
14:03
sortfel of wildlysalbatic
329
828000
2000
într-un mod nebunesc
14:05
with no newnou informationinformație,
330
830000
2000
fără informații noi,
14:07
with no newnou inputintrare.
331
832000
2000
fără date noi de intrare.
14:09
This kinddrăguț of thing happensse întâmplă a lot.
332
834000
3000
Acest lucru se întâmplă des.
14:12
I'm going to give one more complicationcomplicaţie.
333
837000
3000
Voi mai face o complicare în plus.
14:15
We have feelingsentiment, modelmodel, realityrealitate.
334
840000
3000
Avem senzație, model, realitate.
14:18
I have a very relativisticrelativistă viewvedere of securitySecuritate.
335
843000
2000
Am o vedere foarte relativistă a securității.
14:20
I think it dependsdepinde on the observerobservator.
336
845000
3000
Cred că depinde de observator.
14:23
And mostcel mai securitySecuritate decisionsdeciziile
337
848000
2000
Și majoritatea deciziilor de securitate
14:25
have a varietyvarietate of people involvedimplicat.
338
850000
4000
implică o diversitate de oameni.
14:29
And stakeholderspărțile interesate
339
854000
2000
Iar părțile interesate
14:31
with specificspecific trade-offscompromisurile
340
856000
3000
cu schimburi specifice
14:34
will try to influenceinfluență the decisiondecizie.
341
859000
2000
vor încerca să influențeze decizia.
14:36
And I call that theiral lor agendaagendă.
342
861000
2000
Și eu numesc asta planul lor.
14:38
And you see agendaagendă --
343
863000
2000
Și vedeți planuri --
14:40
this is marketingmarketing, this is politicspolitică --
344
865000
3000
în marketing, în politică --
14:43
tryingîncercat to convinceconvinge you to have one modelmodel versusimpotriva anothero alta,
345
868000
3000
încercând să te convingă să ai un anumit model față de un altul,
14:46
tryingîncercat to convinceconvinge you to ignoreignora a modelmodel
346
871000
2000
încercând să te convingă să ignori un model
14:48
and trustîncredere your feelingssentimente,
347
873000
3000
și să te încrezi în senzațiile tale,
14:51
marginalizingmarginalizarea people with modelsmodele you don't like.
348
876000
3000
marginalizând oamenii cu modele care nu-ți plac.
14:54
This is not uncommonmai puţin frecvente.
349
879000
3000
Asta nu este ceva neobişnuit.
14:57
An exampleexemplu, a great exampleexemplu, is the riskrisc of smokingfumat.
350
882000
3000
Un exemplu grozav este riscul fumatului.
15:01
In the historyistorie of the pasttrecut 50 yearsani, the smokingfumat riskrisc
351
886000
3000
În istoria ultimilor 50 de ani, riscul fumatului
15:04
showsspectacole how a modelmodel changesschimbări,
352
889000
2000
arată cum se schimbă un model,
15:06
and it alsode asemenea showsspectacole how an industryindustrie fightslupte againstîmpotriva
353
891000
3000
și arată de asemenea cum o industrie luptă
15:09
a modelmodel it doesn't like.
354
894000
2000
împotriva unui model care nu-i place.
15:11
CompareCompara that to the secondhandUtilaje de ocazie smokefum debatedezbate --
355
896000
3000
Comparați asta cu dezbaterea despre fumatul pasiv --
15:14
probablyprobabil about 20 yearsani behindin spate.
356
899000
3000
probabil cu aproape 20 de ani în urmă.
15:17
Think about seatscaun beltscurele.
357
902000
2000
Gândiți-vă la centurile de siguranță.
15:19
When I was a kidcopil, no one worepurtau a seatscaun beltcurea.
358
904000
2000
Când eram copil, nimeni nu purta centura de siguranță.
15:21
NowadaysÎn zilele noastre, no kidcopil will let you driveconduce
359
906000
2000
Azi, niciun copil nu te va lăsa să conduci
15:23
if you're not wearingpurtare a seatscaun beltcurea.
360
908000
2000
dacă nu ai centura de siguranță.
15:26
CompareCompara that to the airbagairbag debatedezbate --
361
911000
2000
Comparați asta cu dezbaterea despre perna de aer --
15:28
probablyprobabil about 30 yearsani behindin spate.
362
913000
3000
probabil cu 30 de ani în urmă.
15:31
All examplesexemple of modelsmodele changingschimbare.
363
916000
3000
Toate sunt exemple de schimbări de modele.
15:36
What we learnînvăța is that changingschimbare modelsmodele is hardgreu.
364
921000
3000
Ceea ce învățăm este că schimbarea modelelor este dificilă.
15:39
ModelsModele are hardgreu to dislodgedesprinde.
365
924000
2000
Modelele sunt greu de dislocat.
15:41
If they equalegal your feelingssentimente,
366
926000
2000
Dacă sunt la fel cu senzațiile tale
15:43
you don't even know you have a modelmodel.
367
928000
3000
nu știi că ai un model.
15:46
And there's anothero alta cognitivecognitiv biaspărtinire
368
931000
2000
Și există o altă predispoziţie cognitivă
15:48
I'll call confirmationconfirmare biaspărtinire,
369
933000
2000
pe care o numesc predispoziţie de confirmare,
15:50
where we tendtind to acceptAccept datadate
370
935000
3000
unde tindem să acceptăm datele
15:53
that confirmsconfirmă our beliefscredințe
371
938000
2000
care confirmă credințele noastre
15:55
and rejectrespinge datadate that contradictscontrazice our beliefscredințe.
372
940000
3000
și să rejectăm datele care contrazic credințele noastre.
15:59
So evidenceevidență againstîmpotriva our modelmodel,
373
944000
2000
Deci probabil vom ignora dovada
16:01
we're likelyprobabil to ignoreignora, even if it's compellingconvingătoare.
374
946000
3000
împotriva modelului nostru, chiar dacă este convingătoare.
16:04
It has to get very compellingconvingătoare before we'llbine paya plati attentionAtenţie.
375
949000
3000
Trebuie să devină foarte convingătoare înainte de a-i acorda atenție.
16:08
NewNoi modelsmodele that extendextinde long periodsperioadele of time are hardgreu.
376
953000
2000
Modele noi care se întind perioade lungi de timp sunt dificile.
16:10
GlobalLa nivel mondial warmingîncălzire is a great exampleexemplu.
377
955000
2000
Încălzirea globală este un exemplu grozav.
16:12
We're terribleteribil
378
957000
2000
Suntem îngrozitori
16:14
at modelsmodele that spandeschidere 80 yearsani.
379
959000
2000
la modele care acoperă 80 de ani.
16:16
We can do to the nextUrmător → harvestrecolta.
380
961000
2000
Putem s-o facem până la următoarea recoltă.
16:18
We can oftende multe ori do untilpana cand our kidscopii growcrește up.
381
963000
3000
Adesea o putem face până cresc copiii noștri.
16:21
But 80 yearsani, we're just not good at.
382
966000
3000
Dar 80 de ani, pur și simplu nu suntem buni la asta.
16:24
So it's a very hardgreu modelmodel to acceptAccept.
383
969000
3000
Deci este un model foarte greu de acceptat.
16:27
We can have bothambii modelsmodele in our headcap simultaneouslysimultan,
384
972000
4000
Putem avea ambele modele simultan în cap,
16:31
right, that kinddrăguț of problemproblemă
385
976000
3000
sau acel tip de problemă
16:34
where we're holdingdeținere bothambii beliefscredințe togetherîmpreună,
386
979000
3000
când avem ambele credințe simultan,
16:37
right, the cognitivecognitiv dissonancedisonanţă.
387
982000
2000
sau disonanța cognitivă.
16:39
EventuallyÎn cele din urmă,
388
984000
2000
În final modelul nou
16:41
the newnou modelmodel will replacea inlocui the oldvechi modelmodel.
389
986000
3000
va înlocui modelul vechi.
16:44
StrongStrong feelingssentimente can createcrea a modelmodel.
390
989000
3000
Senzațiile puternice pot crea un model.
16:47
SeptemberSeptembrie 11thlea createdcreată a securitySecuritate modelmodel
391
992000
3000
11 septembrie a creat un model de securitate
16:50
in a lot of people'soamenii lui headsCapete.
392
995000
2000
în capul multor oameni.
16:52
AlsoDe asemenea, personalpersonal experiencesexperiențe with crimecrimă can do it,
393
997000
3000
Experiența personală cu criminalitatea o poate face,
16:55
personalpersonal healthsănătate scarea speria,
394
1000000
2000
panica pentru sănătatea personală,
16:57
a healthsănătate scarea speria in the newsștiri.
395
1002000
2000
o panică de sănătate în știri.
16:59
You'llVă veţi see these calleddenumit flashbulbflashbulb eventsevenimente
396
1004000
2000
Psihiatrii numesc asta
17:01
by psychiatristspsihiatrii.
397
1006000
2000
evenimente "se aprinde becul".
17:03
They can createcrea a modelmodel instantaneouslyinstantaneu,
398
1008000
3000
Ele pot crea instantaneu un model,
17:06
because they're very emotiveemotiv.
399
1011000
3000
fiindcă sunt foarte emoționale.
17:09
So in the technologicaltehnologic worldlume,
400
1014000
2000
În lumea tehnologică
17:11
we don't have experienceexperienţă
401
1016000
2000
nu avem experiența
17:13
to judgejudecător modelsmodele.
402
1018000
2000
de a judeca modele.
17:15
And we relyse bazează on othersalții. We relyse bazează on proxiesproxy-uri.
403
1020000
2000
Și ne bazăm pe alții. Ne bazăm pe împuterniciți.
17:17
I mean, this workslucrări as long as it's to correctcorect othersalții.
404
1022000
4000
Adică, asta funcționează cât timp este în regulă pentru alții.
17:21
We relyse bazează on governmentGuvern agenciesagentii
405
1026000
2000
Ne bazăm pe agenții guvernamentale
17:23
to tell us what pharmaceuticalsproduse farmaceutice are safesigur.
406
1028000
5000
să ne spună care sunt medicamentele sigure.
17:28
I flewzburat here yesterdayieri.
407
1033000
2000
Ieri am zburat aici.
17:30
I didn't checkVerifica the airplaneavion.
408
1035000
2000
Nu am verificat avionul.
17:32
I relieds-a bazat on some other groupgrup
409
1037000
2000
M-am bazat pe un alt grup
17:34
to determinea determina whetherdacă my planeavion was safesigur to flya zbura.
410
1039000
3000
să constate dacă avionul meu este sigur pentru zbor.
17:37
We're here, nonenici unul of us fearfrică the roofacoperiş is going to collapsecolaps on us,
411
1042000
3000
Suntem aici, nimănui nu-i este teamă că acoperișul va cădea peste noi,
17:40
not because we checkedverificat,
412
1045000
3000
nu fiindcă am verificat,
17:43
but because we're prettyfrumos sure
413
1048000
2000
ci fiindcă suntem destul de siguri
17:45
the buildingclădire codescoduri here are good.
414
1050000
3000
că aici normele de construcție sunt bune.
17:48
It's a modelmodel we just acceptAccept
415
1053000
2000
Este un model pe care-l acceptăm
17:50
prettyfrumos much by faithcredinţă.
416
1055000
2000
mai mult prin încredere.
17:52
And that's okay.
417
1057000
3000
Și asta este în regulă.
17:57
Now, what we want
418
1062000
2000
Ceea ce vrem este ca
17:59
is people to get familiarfamiliar enoughdestul
419
1064000
2000
oamenii să devină suficient de obișnuiți
18:01
with better modelsmodele --
420
1066000
2000
cu modele mai bune --
18:03
have it reflectedreflectate in theiral lor feelingssentimente --
421
1068000
2000
să le reflecte în senzațiile lor --
18:05
to allowpermite them to make securitySecuritate trade-offscompromisurile.
422
1070000
4000
să le permită să facă schimburi de securitate.
18:09
Now when these go out of whacklovi cu putere,
423
1074000
2000
Când acestea se strică,
18:11
you have two optionsOpțiuni.
424
1076000
2000
ai două opțiuni.
18:13
One, you can fixrepara people'soamenii lui feelingssentimente,
425
1078000
2000
Prima, poți repara senzațiile oamenilor,
18:15
directlydirect appealrecurs to feelingssentimente.
426
1080000
2000
apelând direct la sentimente.
18:17
It's manipulationmanipulare, but it can work.
427
1082000
3000
Este manipulare, dar poate funcționa.
18:20
The secondal doilea, more honestsincer way
428
1085000
2000
A doua cale, mai cinstită,
18:22
is to actuallyde fapt fixrepara the modelmodel.
429
1087000
3000
este să repari modelul.
18:26
ChangeSchimbare happensse întâmplă slowlyîncet.
430
1091000
2000
Schimbările se întâmplă încet.
18:28
The smokingfumat debatedezbate tooka luat 40 yearsani,
431
1093000
3000
Dezbaterea despre fumat a luat 40 de ani,
18:31
and that was an easyuşor one.
432
1096000
3000
și asta a fost una ușoară.
18:34
Some of this stuffchestie is hardgreu.
433
1099000
2000
Unele din aceste lucruri sunt dificile.
18:36
I mean really thoughdeşi,
434
1101000
2000
Adică foarte dificile,
18:38
informationinformație seemspare like our bestCel mai bun hopesperanţă.
435
1103000
2000
informația pare cea mai bună speranță pentru noi.
18:40
And I liedmintit.
436
1105000
2000
Și am mințit.
18:42
RememberAmintiţi-vă I said feelingsentiment, modelmodel, realityrealitate;
437
1107000
2000
Țineți minte când am spus: senzație, model, realitate.
18:44
I said realityrealitate doesn't changeSchimbare. It actuallyde fapt does.
438
1109000
3000
Am spus că realitatea nu se schimbă. De fapt o face.
18:47
We livetrăi in a technologicaltehnologic worldlume;
439
1112000
2000
Trăim într-o lume tehnologică;
18:49
realityrealitate changesschimbări all the time.
440
1114000
3000
realitatea se schimbă tot timpul.
18:52
So we mightar putea have -- for the first time in our speciesspecie --
441
1117000
3000
Deci s-ar putea să avem -- pentru prima dată ca specie --
18:55
feelingsentiment chasesurmăriri modelmodel, modelmodel chasesurmăriri realityrealitate, reality'srealitatea pe movingin miscare --
442
1120000
3000
senzația urmărește modelul, modelul urmărește realitatea,
18:58
they mightar putea never catchcaptură up.
443
1123000
3000
iar realitatea se mișcă -- s-ar putea să nu se ajungă niciodată.
19:02
We don't know.
444
1127000
2000
Nu știm.
19:04
But in the long-termtermen lung,
445
1129000
2000
Dar pe termen lung,
19:06
bothambii feelingsentiment and realityrealitate are importantimportant.
446
1131000
3000
sunt importante și senzația și realitatea.
19:09
And I want to closeînchide with two quickrapid storiespovestiri to illustrateilustra this.
447
1134000
3000
Și vreau să închei cu două istorioare pentru a ilustra asta.
19:12
1982 -- I don't know if people will remembertine minte this --
448
1137000
2000
1982 -- nu știu dacă oamenii își vor aminti asta --
19:14
there was a shortmic de statura epidemicepidemie
449
1139000
3000
a fost o scurtă epidemie
19:17
of TylenolParacetamol poisoningsintoxicaţii in the UnitedMarea StatesStatele.
450
1142000
2000
de otrăvire cu Tylenol în SUA.
19:19
It's a horrificoribil storypoveste. SomeoneCineva tooka luat a bottlesticla of TylenolParacetamol,
451
1144000
3000
Este o poveste oribilă. Cineva a luat o sticlă de Tylenol,
19:22
put poisonotravă in it, closedînchis it up, put it back on the shelfraft.
452
1147000
3000
a pus otravă în ea, a închis-o la loc, a pus-o înapoi pe raft.
19:25
SomeoneCineva elsealtfel boughtcumparat it and dieddecedat.
453
1150000
2000
Altcineva a cumpărat-o și a murit.
19:27
This terrifiedîngrozit people.
454
1152000
2000
Asta a îngrozit lumea.
19:29
There were a couplecuplu of copycatCopycat attacksatacurile.
455
1154000
2000
Au fost câteva cazuri de copiere a atacului.
19:31
There wasn'tnu a fost any realreal riskrisc, but people were scaredînspăimântat.
456
1156000
3000
Nu exista un risc real, dar oamenii erau speriați.
19:34
And this is how
457
1159000
2000
Și așa a fost inventată
19:36
the tamper-prooftamper-proof drugmedicament industryindustrie was inventedinventat.
458
1161000
2000
industria medicamentelor sigilate.
19:38
Those tamper-prooftamper-proof capscapace, that camea venit from this.
459
1163000
2000
Acele capace sigilate au rezultat din asta.
19:40
It's completecomplet securitySecuritate theaterteatru.
460
1165000
2000
Este un adevărat spectacol de securitate.
19:42
As a homeworkteme pentru acasă assignmentmisiune, think of 10 waysmoduri to get around it.
461
1167000
2000
Ca temă pentr acasă, gândiți-vă la 10 căi de a ocoli asta.
19:44
I'll give you one, a syringeseringă.
462
1169000
3000
Vă dau una: o seringă.
19:47
But it madefăcut people feel better.
463
1172000
3000
Dar a făcut oamenii să se simtă mai bine.
19:50
It madefăcut theiral lor feelingsentiment of securitySecuritate
464
1175000
2000
A făcut ca senzația lor de securitate
19:52
more matchMeci the realityrealitate.
465
1177000
2000
să se potrivească mai mult cu realitatea.
19:54
Last storypoveste, a fewpuțini yearsani agoîn urmă, a friendprieten of mineA mea gavea dat birthnaștere.
466
1179000
3000
Ulima poveste, acum câțiva ani, o prietenă a născut.
19:57
I visitvizita her in the hospitalspital.
467
1182000
2000
Am vizitat-o în spital.
19:59
It turnstransformă out when a baby'sbebelusului bornnăscut now,
468
1184000
2000
Am aflat că acum când se naște un copil,
20:01
they put an RFIDRFID braceletbratara on the babybebelus,
469
1186000
2000
se pune o brățară cu identificator radio (RFID) bebelușului,
20:03
put a correspondingcorespunzător one on the mothermamă,
470
1188000
2000
se pune una corespunzătoare mamei,
20:05
so if anyoneoricine other than the mothermamă takes the babybebelus out of the maternitymaternitate wardcartier,
471
1190000
2000
deci dacă oricine altcineva decât mama scoate copilul
20:07
an alarmalarma goesmerge off.
472
1192000
2000
din maternitate, va suna o alarmă.
20:09
I said, "Well, that's kinddrăguț of neatcurat.
473
1194000
2000
Am zis: "Ei bine, asta este simplu dar elegant.
20:11
I wondermirare how rampantagresiv babybebelus snatchingsnatching is
474
1196000
2000
Mă întreb cât de excesiv este furtul
20:13
out of hospitalsspitale."
475
1198000
2000
de bebeluși din spitale."
20:15
I go home, I look it up.
476
1200000
2000
Am mers acasă, am căutat asta.
20:17
It basicallype scurt never happensse întâmplă.
477
1202000
2000
De fapt nu se întâmplă niciodată.
20:19
But if you think about it,
478
1204000
2000
Dar dacă te gândești la asta,
20:21
if you are a hospitalspital,
479
1206000
2000
dacă ești un spital,
20:23
and you need to take a babybebelus away from its mothermamă,
480
1208000
2000
și dacă trebuie să iei un bebeluș de la mama lui,
20:25
out of the roomcameră to runalerga some teststeste,
481
1210000
2000
afară din cameră pentru niște teste,
20:27
you better have some good securitySecuritate theaterteatru,
482
1212000
2000
ar fi bine să ai un spectacol de securitate bun,
20:29
or she's going to ripRIP your armbraţ off.
483
1214000
2000
sau mama îți va rupe brațul.
20:31
(LaughterRâs)
484
1216000
2000
(Râsete)
20:33
So it's importantimportant for us,
485
1218000
2000
Deci este important pentru noi,
20:35
those of us who designproiecta securitySecuritate,
486
1220000
2000
cei care proiectăm securitatea,
20:37
who look at securitySecuritate policypolitică,
487
1222000
3000
care privim la politica de securitate,
20:40
or even look at publicpublic policypolitică
488
1225000
2000
sau doar privim la politica publică
20:42
in waysmoduri that affecta afecta securitySecuritate.
489
1227000
2000
în moduri care afectează securitatea.
20:44
It's not just realityrealitate; it's feelingsentiment and realityrealitate.
490
1229000
3000
Nu este doar realitate, este senzație și realitate.
20:47
What's importantimportant
491
1232000
2000
Ce este important
20:49
is that they be about the samela fel.
492
1234000
2000
este ca ele să fie la fel.
20:51
It's importantimportant that, if our feelingssentimente matchMeci realityrealitate,
493
1236000
2000
Este important, fiindcă dacă senzația se potrivește cu realitatea,
20:53
we make better securitySecuritate trade-offscompromisurile.
494
1238000
2000
facem schimburi mai bune de securitate.
20:55
Thank you.
495
1240000
2000
Vă mulțumesc.
20:57
(ApplauseAplauze)
496
1242000
2000
(Aplauze)
Translated by Laszlo Kereszturi
Reviewed by Magda Marcu

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com