ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Bruce Schneier: Mirazhi i sigurisë

Filmed:
958,315 views

Ndjesia e sigurisë dhe realiteti i sigurisë jo gjithmonë përputhen, shprehet eksperti i sigurisë Bruce Shcneier. Në TEDxPSU, ai shpjegon pse shpenzojmë miliarda për t'u marrë me rreziqe nga histori lajmesh, të tilla si "teatri me sigurinë" që po luhet tani në aeroportin tuaj, ndërkohë që lihen pas dore rreziqe më me probabilitet -- dhe se si mund ta heqim këtë huq.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So security is two different things:
0
0
2000
Atëherë, siguria është dy gjëra të ndryshme:
00:17
it's a feeling, and it's a reality.
1
2000
2000
është një ndjenjë, dhe është një realitet.
00:19
And they're different.
2
4000
2000
E këto dallojnë nga njëra-tjetra.
00:21
You could feel secure
3
6000
2000
Mund të ndiheni i sigurt
00:23
even if you're not.
4
8000
2000
edhe kur nuk jeni i tillë.
00:25
And you can be secure
5
10000
2000
Dhe mund të jeni i sigurt
00:27
even if you don't feel it.
6
12000
2000
edhe pse nuk ndiheni i tillë.
00:29
Really, we have two separate concepts
7
14000
2000
Vërtet, kemi dy koncepte të ndryshme
00:31
mapped onto the same word.
8
16000
2000
të projektuar drejt së njëjtës botë.
00:33
And what I want to do in this talk
9
18000
2000
Ajo çka dua të bëj në këtë trajtim
00:35
is to split them apart --
10
20000
2000
është t'i ndaj ato veç e veç --
00:37
figuring out when they diverge
11
22000
2000
për të parë se ku ndahen
00:39
and how they converge.
12
24000
2000
dhe se si konvergojnë.
00:41
And language is actually a problem here.
13
26000
2000
Gjuha këtu është vërtet një problem.
00:43
There aren't a lot of good words
14
28000
2000
Nuk ka dhe shumë fjalë të përshtatshme
00:45
for the concepts we're going to talk about.
15
30000
3000
për konceptet që do të diskutojmë.
00:48
So if you look at security
16
33000
2000
Kështu, nëse e shihni sigurinë
00:50
from economic terms,
17
35000
2000
nën dritën e termave ekonomikë,
00:52
it's a trade-off.
18
37000
2000
është një heqje dorë nga diçka.
00:54
Every time you get some security,
19
39000
2000
Sa herë që përfitoni ndoca siguri,
00:56
you're always trading off something.
20
41000
2000
përherë hiqni dorë nga diçka.
00:58
Whether this is a personal decision --
21
43000
2000
Si kur është fjala për një vendim personal --
01:00
whether you're going to install a burglar alarm in your home --
22
45000
2000
bie fjala kur vendosni të instaloni në shtëpi një alarm kundër hajnave --
01:02
or a national decision -- where you're going to invade some foreign country --
23
47000
3000
si për një vendim kombëtar -- kur vendosni të pushtoni një vend të huaj --
01:05
you're going to trade off something,
24
50000
2000
diçka do të shkëmbeni,
01:07
either money or time, convenience, capabilities,
25
52000
3000
para, kohë, rehati, mundësi,
01:10
maybe fundamental liberties.
26
55000
3000
ndoshta liri themelore.
01:13
And the question to ask when you look at a security anything
27
58000
3000
Dhe pyetja që duhet bërë kur mendoheni sipër diçkaje për sigurinë
01:16
is not whether this makes us safer,
28
61000
3000
nuk është nëse kjo na bën më të sigurt,
01:19
but whether it's worth the trade-off.
29
64000
3000
por nëse shkëmbimi është me leverdi apo jo.
01:22
You've heard in the past several years,
30
67000
2000
Keni dëgjuar këto vitet e shkuara,
01:24
the world is safer because Saddam Hussein is not in power.
31
69000
2000
që bota është më e parrezikshme ngaqë Sadam Hyseni nuk është në pushtet.
01:26
That might be true, but it's not terribly relevant.
32
71000
3000
Kjo mund të jetë e vërtetë, por nuk është e ndonjë peshe kushedi.
01:29
The question is, was it worth it?
33
74000
3000
Pyetja është, a ia vleu?
01:32
And you can make your own decision,
34
77000
3000
Dhe mund të dilni me vendimin tuaj,
01:35
and then you'll decide whether the invasion was worth it.
35
80000
2000
e mandej të vendosni nëse pushtimi ia vlejti a jo.
01:37
That's how you think about security --
36
82000
2000
Kjo është mënyra se si mendoni mbi sigurinë --
01:39
in terms of the trade-off.
37
84000
2000
në terma shkëmbimi.
01:41
Now there's often no right or wrong here.
38
86000
3000
Tani, shpesh këtu nuk ka "drejt" apo "gabim".
01:44
Some of us have a burglar alarm system at home,
39
89000
2000
Disa prej nesh kanë sistem alarmi në shtëpi,
01:46
and some of us don't.
40
91000
2000
dhe disa jo.
01:48
And it'll depend on where we live,
41
93000
2000
Dhe kjo do të varej nga se ku banojmë,
01:50
whether we live alone or have a family,
42
95000
2000
nëse banojmë vetëm apo kemi familje,
01:52
how much cool stuff we have,
43
97000
2000
sa gjëra me vlerë kemi,
01:54
how much we're willing to accept
44
99000
2000
deri në ç'shkallë do të donim të pranonim
01:56
the risk of theft.
45
101000
2000
rrezikun e vjedhjes.
01:58
In politics also,
46
103000
2000
Në politikë gjithashtu,
02:00
there are different opinions.
47
105000
2000
ka opinione të ndryshme.
02:02
A lot of times, these trade-offs
48
107000
2000
Shumë herë, këto heqje dorë
02:04
are about more than just security,
49
109000
2000
lidhen me më tepër se thjesht sigurinë,
02:06
and I think that's really important.
50
111000
2000
dhe mendoj se kjo është vërtet e rëndësishme.
02:08
Now people have a natural intuition
51
113000
2000
Njerëzit kanë një intuitë natyrore
02:10
about these trade-offs.
52
115000
2000
për këto shkëmbime.
02:12
We make them every day --
53
117000
2000
Bëjmë përditë të tilla --
02:14
last night in my hotel room,
54
119000
2000
mbrëmë në dhomën time në hotel,
02:16
when I decided to double-lock the door,
55
121000
2000
kur vendosa ta kyç dy herë derën,
02:18
or you in your car when you drove here,
56
123000
2000
ose ju në makinën tuaj kur erdhët këtu,
02:20
when we go eat lunch
57
125000
2000
kur shkojmë për drekë
02:22
and decide the food's not poison and we'll eat it.
58
127000
3000
dhe vendosim që ushqimi nuk është i helmuar dhe do ta hamë.
02:25
We make these trade-offs again and again,
59
130000
2000
Këto shkëmbime i bëjmë gjithë kohën
02:27
multiple times a day.
60
132000
2000
disa herë në ditë.
02:29
We often won't even notice them.
61
134000
2000
Shpesh as që i vëmë re.
02:31
They're just part of being alive; we all do it.
62
136000
2000
Thjesht janë pjesë e gjallimit tonë; kështu bëjmë të gjithë.
02:33
Every species does it.
63
138000
3000
Të gjitha speciet veprojnë kështu.
02:36
Imagine a rabbit in a field, eating grass,
64
141000
2000
Përfytyroni një lepur në arë, duke ngrënë bar,
02:38
and the rabbit's going to see a fox.
65
143000
3000
dhe lepuri papritmas sheh një dhelpër.
02:41
That rabbit will make a security trade-off:
66
146000
2000
Lepuri do të marrë një vendim sigurie:
02:43
"Should I stay, or should I flee?"
67
148000
2000
"Të rri, apo të bëhem tym?"
02:45
And if you think about it,
68
150000
2000
Po ta mendojmë një çast,
02:47
the rabbits that are good at making that trade-off
69
152000
3000
lepujt që janë të zotë në marrjen e këtij vendimi
02:50
will tend to live and reproduce,
70
155000
2000
priren të rrojnë dhe të riprodhohen,
02:52
and the rabbits that are bad at it
71
157000
2000
ndërsa lepujt që nuk ia dalin dot
02:54
will get eaten or starve.
72
159000
2000
do të bëhen pre ose do të ngordhin urie.
02:56
So you'd think
73
161000
2000
Kështu që mund të mendonit
02:58
that us, as a successful species on the planet --
74
163000
3000
se ne, si specie e suksesshme në planet --
03:01
you, me, everybody --
75
166000
2000
ju, unë, kushdo --
03:03
would be really good at making these trade-offs.
76
168000
3000
jemi vërtet të zot për këto lloj vendimesh.
03:06
Yet it seems, again and again,
77
171000
2000
Ja që, me sa duket, pareshtur,
03:08
that we're hopelessly bad at it.
78
173000
3000
jemi dëshpërimisht të paaftë këtu.
03:11
And I think that's a fundamentally interesting question.
79
176000
3000
Dhe mendoj që në thelb, kjo është një çështje me interes.
03:14
I'll give you the short answer.
80
179000
2000
Do t'i përgjigjem shkurt.
03:16
The answer is, we respond to the feeling of security
81
181000
2000
Përgjigja është: i përgjigjemi ndjenjës së sigurisë
03:18
and not the reality.
82
183000
3000
dhe jo realitetit.
03:21
Now most of the time, that works.
83
186000
3000
Tani, kjo, shumicën e kohës funksionon.
03:25
Most of the time,
84
190000
2000
Shumicën e kohës,
03:27
feeling and reality are the same.
85
192000
3000
ndjesia dhe realiteti janë e njëjta gjë.
03:30
Certainly that's true
86
195000
2000
Sigurisht që kjo është e vërtetë
03:32
for most of human prehistory.
87
197000
3000
për pjesën dërrmuese të prehistorisë njerëzore.
03:35
We've developed this ability
88
200000
3000
Këtë aftësi e kemi zhvilluar
03:38
because it makes evolutionary sense.
89
203000
2000
ngaqë ka kuptim nga pikëpamja evolucionare.
03:40
One way to think of it
90
205000
2000
Një mënyrë për ta parë atë
03:42
is that we're highly optimized
91
207000
2000
është që jemi shumë të specializuar
03:44
for risk decisions
92
209000
2000
për vendime lidhur me rreziqe
03:46
that are endemic to living in small family groups
93
211000
3000
që janë endemike për jetesën në grupe to vegjël familiarë
03:49
in the East African highlands in 100,000 B.C.
94
214000
3000
në pllajat e Afrikës Lindore në vitet 100 000 para erës sonë --
03:52
2010 New York, not so much.
95
217000
3000
jo dhe aq për Nju Jorkun e 2010-s.
03:56
Now there are several biases in risk perception.
96
221000
3000
Perceptimi i rrezikut mbart disa njëanëshmëri.
03:59
A lot of good experiments in this.
97
224000
2000
Këtu mund të eksperimentohet goxha.
04:01
And you can see certain biases that come up again and again.
98
226000
3000
Dhe mund të shihni disa njëanshmëri që ripërsëriten.
04:04
So I'll give you four.
99
229000
2000
Po ju tregoj katër të tilla.
04:06
We tend to exaggerate spectacular and rare risks
100
231000
3000
Priremi të mbivlerësojmë rreziqet spektakolare dhe të rralla
04:09
and downplay common risks --
101
234000
2000
dhe të mos peshojmë sa duhet rreziqet e rëndomta --
04:11
so flying versus driving.
102
236000
3000
bie fjala fluturimi kundrejt udhëtimit me automjete.
04:14
The unknown is perceived
103
239000
2000
E panjohura perceptohet
04:16
to be riskier than the familiar.
104
241000
3000
më e rrezikshme se sa familjarja.
04:20
One example would be,
105
245000
2000
Një shembull do të ishte,
04:22
people fear kidnapping by strangers
106
247000
3000
njerëzit kanë frikë se mos rrëmbehen nga të panjohur, ndërkohë që të dhënat
04:25
when the data supports kidnapping by relatives is much more common.
107
250000
3000
mbështesin faktin që rrëmbimi nga persona të afërt është shumë më i shpeshtë.
04:28
This is for children.
108
253000
2000
Në rastin e fëmijve.
04:30
Third, personified risks
109
255000
3000
Së treti, rreziqet e veshur dikujt
04:33
are perceived to be greater than anonymous risks --
110
258000
3000
perceptohen si të ishin më të mëdhenj se rreziqet anonimë --
04:36
so Bin Laden is scarier because he has a name.
111
261000
3000
pra Bin Laden është më i frikshëm sepse ka një emër.
04:39
And the fourth
112
264000
2000
Dhe së katërti,
04:41
is people underestimate risks
113
266000
2000
njerëzit i nënvlerësojnë rreziqet
04:43
in situations they do control
114
268000
2000
në situata që i kanë nën kontroll
04:45
and overestimate them in situations they don't control.
115
270000
4000
dhe mbivlerësojnë ato të situatave që nuk i kanë nën kontroll.
04:49
So once you take up skydiving or smoking,
116
274000
3000
Kështu, pasi filloni të tymosni duhan ose të hidheni me parashutë,
04:52
you downplay the risks.
117
277000
2000
ua nënvlerësoni rreziqet.
04:54
If a risk is thrust upon you -- terrorism was a good example --
118
279000
3000
Nëse ju servirin një rrezik -- terrorizmi qe shembull i goditur --
04:57
you'll overplay it because you don't feel like it's in your control.
119
282000
3000
do ta mbivlerësonit, ngaqë nuk ndiheni se e keni nën kontroll.
05:02
There are a bunch of other of these biases, these cognitive biases,
120
287000
3000
Ka një dorë njëanëshmërish të tilla, njëanëshmëri konjitive,
05:05
that affect our risk decisions.
121
290000
3000
që prekin vendimet tona në lidhje me rreziqet.
05:08
There's the availability heuristic,
122
293000
2000
Luan rol heuristika e të gatshmes
05:10
which basically means
123
295000
2000
që në thelb do të thotë
05:12
we estimate the probability of something
124
297000
3000
probabilitetin e diçkaje e vlerësojmë nga shkalla
05:15
by how easy it is to bring instances of it to mind.
125
300000
4000
se sa e lehtë është të sjellim në mendje raste të saj.
05:19
So you can imagine how that works.
126
304000
2000
Mund të përfytyroni si funksionon kjo.
05:21
If you hear a lot about tiger attacks, there must be a lot of tigers around.
127
306000
3000
Nëse dëgjoni shpesh rreth sulmesh nga tigrat, i bie të ketë plot tigra përqark.
05:24
You don't hear about lion attacks, there aren't a lot of lions around.
128
309000
3000
Për sulme nga luanët nuk dëgjoni, i bie të mos ketë shumë luanë përqark.
05:27
This works until you invent newspapers.
129
312000
3000
Kjo funksionon deri ditën që shpiket gazeta.
05:30
Because what newspapers do
130
315000
2000
Sepse ajo që bëjnë gazetat
05:32
is they repeat again and again
131
317000
2000
është të përsërisin pa pushim
05:34
rare risks.
132
319000
2000
rreziqet e rralla.
05:36
I tell people, if it's in the news, don't worry about it.
133
321000
2000
Unë u them njerëzve, po qe te lajmet, mos e çani kryet.
05:38
Because by definition,
134
323000
2000
Ngaqë me përkufizim,
05:40
news is something that almost never happens.
135
325000
3000
lajmet janë diçka që thuajse nuk ndodhin kurrë.
05:43
(Laughter)
136
328000
2000
(Të qeshura)
05:45
When something is so common, it's no longer news --
137
330000
3000
Kur diçka është kaq e zakontë, nuk përbën më lajm --
05:48
car crashes, domestic violence --
138
333000
2000
përplasje makinash, dhunë në familje --
05:50
those are the risks you worry about.
139
335000
3000
këto janë rreziqet për të cilat shqetësoheni.
05:53
We're also a species of storytellers.
140
338000
2000
Jemi edhe ca të dhënë pas rrëfenjave.
05:55
We respond to stories more than data.
141
340000
3000
Reagojmë ndaj historive më shumë se sa ndaj të dhënave.
05:58
And there's some basic innumeracy going on.
142
343000
2000
Edhe pazotësia në aritmetikë luan rol.
06:00
I mean, the joke "One, Two, Three, Many" is kind of right.
143
345000
3000
E kam fjalën, thënia "Një, Dy, Tree, Plot" është deri diku e drejtë.
06:03
We're really good at small numbers.
144
348000
3000
Jemi shumë të zotë me numrat e vegjël.
06:06
One mango, two mangoes, three mangoes,
145
351000
2000
Një mollë, dy mollë, tre mollë,
06:08
10,000 mangoes, 100,000 mangoes --
146
353000
2000
10 mijë mollë, 100 mijë mollë --
06:10
it's still more mangoes you can eat before they rot.
147
355000
3000
prapë më tepër se sa mund të hanit para se të zënë e të kalben.
06:13
So one half, one quarter, one fifth -- we're good at that.
148
358000
3000
Pra, një gjysmë, një çerek, një e pesta -- me këto ia dalim mbanë.
06:16
One in a million, one in a billion --
149
361000
2000
Një në një milion, një në një miliard --
06:18
they're both almost never.
150
363000
3000
të dyja janë thuajse baras me kurrë.
06:21
So we have trouble with the risks
151
366000
2000
Pra, kemi probleme me rreziqet
06:23
that aren't very common.
152
368000
2000
që nuk janë shumë të zakonshëm.
06:25
And what these cognitive biases do
153
370000
2000
Ajo çka bëjnë këto njëanshmëri konjitive
06:27
is they act as filters between us and reality.
154
372000
3000
është veprimi si filtrues mes nesh dhe realitetit.
06:30
And the result
155
375000
2000
Dhe përfundimi
06:32
is that feeling and reality get out of whack,
156
377000
2000
është që ndjesitë dhe realiteti shpërputhen,
06:34
they get different.
157
379000
3000
bëhen dy gjëra të ndryshme.
06:37
Now you either have a feeling -- you feel more secure than you are.
158
382000
3000
Ju, ose keni ndjesinë -- ndjeheni më i sigurt se sa jeni.
06:40
There's a false sense of security.
159
385000
2000
Këtu ka një ndjenjë të rreme sigurie.
06:42
Or the other way,
160
387000
2000
Ose e kundërta,
06:44
and that's a false sense of insecurity.
161
389000
2000
dhe këtu bëhet fjalë për një ndjenjë të rreme pasigurie.
06:46
I write a lot about "security theater,"
162
391000
3000
Unë shkruaj mjaft rreth "teatrit me sigurinë,"
06:49
which are products that make people feel secure,
163
394000
3000
i cili përbëhet nga produkte që i bëjnë njerëzit të ndihen të sigurt,
06:52
but don't actually do anything.
164
397000
2000
por që në fakt nuk bëjnë ndonjë gjë.
06:54
There's no real word for stuff that makes us secure,
165
399000
2000
Nuk ka ndonjë term për gjëra që na bëjnë të sigurt,
06:56
but doesn't make us feel secure.
166
401000
2000
por që nuk na bëjnë të ndihemi të sigurt.
06:58
Maybe it's what the CIA's supposed to do for us.
167
403000
3000
Ndoshta kjo është ajo çka CIA është menduar të bëjë për ne.
07:03
So back to economics.
168
408000
2000
Po i kthehemi anës ekonomike.
07:05
If economics, if the market, drives security,
169
410000
4000
Nëse ana ekonomike, tregu, udhëheq sigurinë,
07:09
and if people make trade-offs
170
414000
2000
dhe nëse njerëzit marrin vendime
07:11
based on the feeling of security,
171
416000
3000
bazuar në ndjesitë mbi sigurinë,
07:14
then the smart thing for companies to do
172
419000
2000
atëherë gjëja e zgjuar që do bërë nga kompanitë
07:16
for the economic incentives
173
421000
2000
për nxitje ekonomike
07:18
are to make people feel secure.
174
423000
3000
është t'i bëjnë njerëzit të ndihen të sigurt.
07:21
And there are two ways to do this.
175
426000
3000
Dhe ka dy rrugë për ta arritur këtë.
07:24
One, you can make people actually secure
176
429000
2000
Njëra, i bëni vërtet njerëzit më të sigurt
07:26
and hope they notice.
177
431000
2000
dhe shpresoni që ta vënë re.
07:28
Or two, you can make people just feel secure
178
433000
3000
Ose tjetra, thjesht i bëni të ndihen më të sigurt
07:31
and hope they don't notice.
179
436000
3000
dhe shpresoni që nuk do ta vënë re.
07:35
So what makes people notice?
180
440000
3000
Atëherë ç'e tërheq vëmendjen e njerëzve?
07:38
Well a couple of things:
181
443000
2000
Një dorë gjërash:
07:40
understanding of the security,
182
445000
2000
kuptimi mbi sigurinë,
07:42
of the risks, the threats,
183
447000
2000
rreziqet, kërcënimet,
07:44
the countermeasures, how they work.
184
449000
3000
kundërmasat, mënyra si funksionojnë këto.
07:47
But if you know stuff,
185
452000
2000
Por nëse i njihni gjërat,
07:49
you're more likely to have your feelings match reality.
186
454000
3000
ka më tepër gjasa që ndjesitë tuaja të përputhen me realitetin.
07:52
Enough real world examples helps.
187
457000
3000
Na vijnë në ndihmë mjaft shembuj nga bota e njëmendtë.
07:55
Now we all know the crime rate in our neighborhood,
188
460000
3000
Të gjithë e njohim shkallën e kriminalitetit në lagjen tonë,
07:58
because we live there, and we get a feeling about it
189
463000
3000
ngaqë aty banojmë, dhe përftojmë për të një ndjesi
08:01
that basically matches reality.
190
466000
3000
që në thelb përputhet me realitetin.
08:04
Security theater's exposed
191
469000
3000
Teatri me sigurinë shpaloset
08:07
when it's obvious that it's not working properly.
192
472000
3000
atëherë kur është e qartë që nuk po funksionon si duhet.
08:10
Okay, so what makes people not notice?
193
475000
4000
Bukur, atëherë ç'i bën njerëzit të mos vënë re?
08:14
Well, a poor understanding.
194
479000
2000
Të kuptuarit, njohja e pakët.
08:16
If you don't understand the risks, you don't understand the costs,
195
481000
3000
Nëse nuk i kuptoni rreziqet, nuk kuptoni dot koston,
08:19
you're likely to get the trade-off wrong,
196
484000
2000
ka gjasa që të merrni vendimin e gabuar,
08:21
and your feeling doesn't match reality.
197
486000
3000
dhe ndjesitë tuaja të mos përputhen me realitetin.
08:24
Not enough examples.
198
489000
2000
Këtu nuk ka mjaft shembuj.
08:26
There's an inherent problem
199
491000
2000
Ka një problem të brendshëm
08:28
with low probability events.
200
493000
2000
me ngjarjet me probabilitet të pakët.
08:30
If, for example,
201
495000
2000
Nëse, për shembull,
08:32
terrorism almost never happens,
202
497000
2000
terrorizmi thuajse nuk ndodh kurrë,
08:34
it's really hard to judge
203
499000
2000
është vërtet e zorshme të gjykohet
08:36
the efficacy of counter-terrorist measures.
204
501000
3000
efektshmëria e masave kundër terrorizmit.
08:40
This is why you keep sacrificing virgins,
205
505000
3000
Kjo është arsyeja pse vazhdohet me bërjen kurban të virgjëreshave,
08:43
and why your unicorn defenses are working just great.
206
508000
3000
dhe pse mbrojtja nga kuçedrat funksionon përsosur.
08:46
There aren't enough examples of failures.
207
511000
3000
Nuk ka shembuj të mjaftueshëm të dështimeve.
08:50
Also, feelings that are clouding the issues --
208
515000
3000
Po ashtu, ndjesitë që, si retë, fshehin pas çështjet --
08:53
the cognitive biases I talked about earlier,
209
518000
2000
njëanshmëritë konjitive për të cilat fola më lart,
08:55
fears, folk beliefs,
210
520000
3000
frikërat, besimet e miletit,
08:58
basically an inadequate model of reality.
211
523000
3000
në thelb një model jo adekuat i realitetit.
09:02
So let me complicate things.
212
527000
3000
Më lejoni t'i ndërlikoj gjërat.
09:05
I have feeling and reality.
213
530000
2000
Kemi ndjesitë dhe realitetin.
09:07
I want to add a third element. I want to add model.
214
532000
3000
Dëshiroj të shtoj një element të tretë. Dëshiroj të shtoj një model.
09:10
Feeling and model in our head,
215
535000
2000
Ndjesitë dhe modeli - në trurin tonë,
09:12
reality is the outside world.
216
537000
2000
realiteti është bota atje tej.
09:14
It doesn't change; it's real.
217
539000
3000
Që nuk ndryshon; është reale.
09:17
So feeling is based on our intuition.
218
542000
2000
Pra ndjesitë bazohen në intuitën tonë.
09:19
Model is based on reason.
219
544000
2000
Modeli bazohet te arsyetimi.
09:21
That's basically the difference.
220
546000
3000
Ky është në thelb ndryshimi.
09:24
In a primitive and simple world,
221
549000
2000
Në një botë primitive dhe të thjeshtë,
09:26
there's really no reason for a model
222
551000
3000
vërtet që nuk ka nevojë për një model.
09:29
because feeling is close to reality.
223
554000
3000
Ngaqë ndjesitë janë afër realitetit.
09:32
You don't need a model.
224
557000
2000
Nuk keni nevojë për model.
09:34
But in a modern and complex world,
225
559000
2000
Por në një botë moderne dhe të ndërlikuar,
09:36
you need models
226
561000
2000
ju duhen modele
09:38
to understand a lot of the risks we face.
227
563000
3000
që të kuptoni një numër rreziqesh që hasim.
09:42
There's no feeling about germs.
228
567000
2000
Për bakteret nuk ka ndjesi.
09:44
You need a model to understand them.
229
569000
3000
Ju duhet një model për t'i kuptuar.
09:47
So this model
230
572000
2000
Ky model
09:49
is an intelligent representation of reality.
231
574000
3000
është një paraqitje inteligjente e realitetit.
09:52
It's, of course, limited by science,
232
577000
3000
Është, sigurisht, i kufizuar nga shkenca,
09:55
by technology.
233
580000
2000
nga teknologjia.
09:57
We couldn't have a germ theory of disease
234
582000
3000
Para shpikjes së mikroskopit për t'i parë,
10:00
before we invented the microscope to see them.
235
585000
3000
s'mund të kishte teori sëmundjesh të shpjeguara.
10:04
It's limited by our cognitive biases.
236
589000
3000
Është i kufizuar nga njëanshmëritë tona konjitive.
10:07
But it has the ability
237
592000
2000
Por ka aftësinë
10:09
to override our feelings.
238
594000
2000
të anashkalojë ndjesitë tona.
10:11
Where do we get these models? We get them from others.
239
596000
3000
Nga i gjejmë këto modele? I marrim nga të tjerët.
10:14
We get them from religion, from culture,
240
599000
3000
I marrim nga feja, kultura,
10:17
teachers, elders.
241
602000
2000
mësuesit, të moshuarit.
10:19
A couple years ago,
242
604000
2000
Para ca vitesh,
10:21
I was in South Africa on safari.
243
606000
2000
qeshë në Afrikën e Jugut për safari.
10:23
The tracker I was with grew up in Kruger National Park.
244
608000
3000
Shoqëruesi im ish rritur në Parkun Kombëtar Kruger.
10:26
He had some very complex models of how to survive.
245
611000
3000
Dhe kish disa modele shumë të ndërlikuara se si të mbijetosh.
10:29
And it depended on if you were attacked
246
614000
2000
Që vareshin nga çfarë sulmoheshe
10:31
by a lion or a leopard or a rhino or an elephant --
247
616000
2000
luan apo leopard, rinoceront apo elefant --
10:33
and when you had to run away, and when you couldn't run away, and when you had to climb a tree --
248
618000
3000
dhe se kur duhej të bëheshe tym, kur duhej të ngjiteshe në pemë --
10:36
when you could never climb a tree.
249
621000
2000
kur nuk do të duhej në asnjë rast të ngjiteshe në një pemë.
10:38
I would have died in a day,
250
623000
3000
Unë do të kisha vdekur brenda ditës,
10:41
but he was born there,
251
626000
2000
por ai qe lindur aty,
10:43
and he understood how to survive.
252
628000
2000
dhe e kish kuptuar se si të mbijetonte.
10:45
I was born in New York City.
253
630000
2000
Unë jam lindur në Nju Jork.
10:47
I could have taken him to New York, and he would have died in a day.
254
632000
3000
Mund ta kisha marrë në Nju Jork, dhe të vdiste ai brenda ditës.
10:50
(Laughter)
255
635000
2000
(Të qeshura)
10:52
Because we had different models
256
637000
2000
Ngaqë kemi modele të ndryshme
10:54
based on our different experiences.
257
639000
3000
bazuar në përvojat tona të ndryshme.
10:58
Models can come from the media,
258
643000
2000
Modelet mund të na vijnë nga mediat,
11:00
from our elected officials.
259
645000
3000
nga zyrtarët e votuar prej nesh.
11:03
Think of models of terrorism,
260
648000
3000
Sillni në mend modelet e terrorizmit,
11:06
child kidnapping,
261
651000
3000
rrëmbimin e fëmijëve,
11:09
airline safety, car safety.
262
654000
2000
sigurinë e linjave ajrore, sigurinë rrugore.
11:11
Models can come from industry.
263
656000
3000
Modelet mund të vijnë nga industria.
11:14
The two I'm following are surveillance cameras,
264
659000
2000
Dy të tilla që po ndjek janë kamerat e mbikqyrjes,
11:16
ID cards,
265
661000
2000
dhe kartat me ID,
11:18
quite a lot of our computer security models come from there.
266
663000
3000
jo pak modele sigurie kompjuteri vijnë prej industrisë.
11:21
A lot of models come from science.
267
666000
3000
Mjaft modele vijnë prej shkencave.
11:24
Health models are a great example.
268
669000
2000
Modelet që lidhen me shëndetin janë shembull i bukur.
11:26
Think of cancer, of bird flu, swine flu, SARS.
269
671000
3000
Mendoni për një çast kancerin, gripin e shpendëve, gripin e derrave, SARS-in
11:29
All of our feelings of security
270
674000
3000
Krejt ndjesitë tona të sigurisë
11:32
about those diseases
271
677000
2000
lidhur me këto sëmundje
11:34
come from models
272
679000
2000
vijnë prej modelesh
11:36
given to us, really, by science filtered through the media.
273
681000
3000
që na janë dhënë, vërtet, nga shkenca e filtruar nga media.
11:40
So models can change.
274
685000
3000
Pra modelet mund të ndryshojnë.
11:43
Models are not static.
275
688000
2000
Modelet nuk janë të palëvizshme.
11:45
As we become more comfortable in our environments,
276
690000
3000
Teksa mësohemi më mirë me mjediset tona,
11:48
our model can move closer to our feelings.
277
693000
4000
modelet tona zhvendosen më afër ndjesive tona.
11:53
So an example might be,
278
698000
2000
Një shembull mund të ishte,
11:55
if you go back 100 years ago
279
700000
2000
sikur të ktheheshit 100 vjetë pas
11:57
when electricity was first becoming common,
280
702000
3000
kur zuri të përhapej së pari elektriciteti,
12:00
there were a lot of fears about it.
281
705000
2000
kish plot frikë prej tij.
12:02
I mean, there were people who were afraid to push doorbells,
282
707000
2000
Dua të them, pati njerëz që kishin frikë t'i binin ziles së portës,
12:04
because there was electricity in there, and that was dangerous.
283
709000
3000
ngaqë punonte me korrent, dhe kjo qe e rrezikshme.
12:07
For us, we're very facile around electricity.
284
712000
3000
Ne sot e kemi shumë kollaj me elektricitetin.
12:10
We change light bulbs
285
715000
2000
Ndërrojmë llampa
12:12
without even thinking about it.
286
717000
2000
pa u menduar fare për të.
12:14
Our model of security around electricity
287
719000
4000
Modeli ynë i sigurisë së electricitetit
12:18
is something we were born into.
288
723000
3000
është diçka që e gjetëm këtu sapo lindëm.
12:21
It hasn't changed as we were growing up.
289
726000
3000
Nuk ka ndryshuar as kur rriteshim.
12:24
And we're good at it.
290
729000
3000
Dhe ia kemi marrë dorën.
12:27
Or think of the risks
291
732000
2000
Ose mendoni rreziqet
12:29
on the Internet across generations --
292
734000
2000
në Internet nga brezi në brez --
12:31
how your parents approach Internet security,
293
736000
2000
si e trajtojnë sigurinë në Internet prindët tuaj,
12:33
versus how you do,
294
738000
2000
kundrejt trajtimit tuaj,
12:35
versus how our kids will.
295
740000
3000
kundrejt atij që do t'i bëjnë fëmijët tanë.
12:38
Models eventually fade into the background.
296
743000
3000
Modelet tek e fundit treten në prapaskenë.
12:42
Intuitive is just another word for familiar.
297
747000
3000
Intuitiv është thjesht një tjetër fjalë për familiar.
12:45
So as your model is close to reality,
298
750000
2000
Pra teksa modeli juaj është afër realitetit,
12:47
and it converges with feelings,
299
752000
2000
dhe bëhet njësh me ndjesitë,
12:49
you often don't know it's there.
300
754000
3000
shpesh nuk e dini që gjendet aty.
12:52
So a nice example of this
301
757000
2000
Një shembull i bukur i kësaj
12:54
came from last year and swine flu.
302
759000
3000
na erdhi vitin e kaluar me gripin e derrave.
12:57
When swine flu first appeared,
303
762000
2000
Kur u shfaq së pari gripi i derrave,
12:59
the initial news caused a lot of overreaction.
304
764000
4000
lajmet fillestare shkaktuan jo pak reagime të tepruara.
13:03
Now it had a name,
305
768000
2000
Pse kish një emër,
13:05
which made it scarier than the regular flu,
306
770000
2000
që e bënte më të frikshëm se sa gripi i zakonshëm,
13:07
even though it was more deadly.
307
772000
2000
edhe pse i zakonshmi është më vdekjeprurës.
13:09
And people thought doctors should be able to deal with it.
308
774000
4000
Dhe njerëzit menduan që mjekët duhej të ishin në gjendje të merreshin me të.
13:13
So there was that feeling of lack of control.
309
778000
2000
Pra patëm edhe ndjesinë e mungesës së kontrollit.
13:15
And those two things
310
780000
2000
E kështu këta dy elementë
13:17
made the risk more than it was.
311
782000
2000
e bënë më të rrezikshëm se sa qe.
13:19
As the novelty wore off, the months went by,
312
784000
3000
Dora-dorës që lajmi u vjetrua, kaluan muaj,
13:22
there was some amount of tolerance,
313
787000
2000
dhe pasoi një shkallë tolerimi,
13:24
people got used to it.
314
789000
2000
njerëzit u mësuan me të.
13:26
There was no new data, but there was less fear.
315
791000
3000
Nuk pati të dhëna të reja, por frika u zvogëlua.
13:29
By autumn,
316
794000
2000
Në vjeshtë,
13:31
people thought
317
796000
2000
njerëzia mendonte
13:33
the doctors should have solved this already.
318
798000
2000
se mjekët duhej ta kishin zgjidhur tashmë çështjen.
13:35
And there's kind of a bifurcation --
319
800000
2000
Dhe mbërrijmë në udhëkryq --
13:37
people had to choose
320
802000
2000
njerëzve iu desh të zgjidhnin
13:39
between fear and acceptance --
321
804000
4000
mes frikës dhe pranimit --
13:43
actually fear and indifference --
322
808000
2000
në të vërtetë mes frikës dhe indiferencës --
13:45
they kind of chose suspicion.
323
810000
3000
ata thuajse zgjodhën dyshimin.
13:48
And when the vaccine appeared last winter,
324
813000
3000
Dhe dimrin e kaluar, kur u shfaq vaksina,
13:51
there were a lot of people -- a surprising number --
325
816000
3000
pati jo pak njerëz -- një numër befasues --
13:54
who refused to get it --
326
819000
3000
që nuk pranuan ta marrin --
13:58
as a nice example
327
823000
2000
shembull i bukur
14:00
of how people's feelings of security change, how their model changes,
328
825000
3000
se si ndjesitë e njerëzve lidhur me sigurinë ndryshuan, se si ndryshon modeli i tyre,
14:03
sort of wildly
329
828000
2000
në mënyrë të çrregullt
14:05
with no new information,
330
830000
2000
pa të dhëna të reja,
14:07
with no new input.
331
832000
2000
pa prurje të reja.
14:09
This kind of thing happens a lot.
332
834000
3000
Kjo lloj gjëje ndodh shpesh.
14:12
I'm going to give one more complication.
333
837000
3000
Po shtoj edhe një ndërlikim tjetër.
14:15
We have feeling, model, reality.
334
840000
3000
Kemi pra ndjesitë, modelin, realitetin.
14:18
I have a very relativistic view of security.
335
843000
2000
Unë kam një ide mjaft relativiste mbi sigurinë.
14:20
I think it depends on the observer.
336
845000
3000
Mendoj se varet nga vëzhguesi.
14:23
And most security decisions
337
848000
2000
Dhe në shumicën e vendimeve që lidhen me sigurinë
14:25
have a variety of people involved.
338
850000
4000
përfshihen një numër njerëzish.
14:29
And stakeholders
339
854000
2000
Aksionerë
14:31
with specific trade-offs
340
856000
3000
me vendime specifike
14:34
will try to influence the decision.
341
859000
2000
do të përpiqen të ndikojnë vendimin.
14:36
And I call that their agenda.
342
861000
2000
Dhe unë këtë e quaj plani i tyre i punës.
14:38
And you see agenda --
343
863000
2000
Dhe shihni planin --
14:40
this is marketing, this is politics --
344
865000
3000
kjo është marketing, kjo është politikë --
14:43
trying to convince you to have one model versus another,
345
868000
3000
përpjekje për t'ju bindur të zgjidhni një model dhe jo tjetrin,
14:46
trying to convince you to ignore a model
346
871000
2000
përpjekje për t'ju bindur të shpërfillni një model
14:48
and trust your feelings,
347
873000
3000
dhe për t'u besuar ndjesive tuaja,
14:51
marginalizing people with models you don't like.
348
876000
3000
duke shtyrë në anë njerëzit me modele që nuk ju pëlqejnë.
14:54
This is not uncommon.
349
879000
3000
Kjo nuk është e padëgjuar.
14:57
An example, a great example, is the risk of smoking.
350
882000
3000
Një shembull, një shembull i shkëlqyer, është rreziku nga duhanpirja.
15:01
In the history of the past 50 years, the smoking risk
351
886000
3000
Në historinë e 50 vjetëve të shkuara, rreziku nga duhanpirja
15:04
shows how a model changes,
352
889000
2000
shpalos mënyrën se si ndryshon modeli,
15:06
and it also shows how an industry fights against
353
891000
3000
dhe tregon edhe se si një industri lufton kundër
15:09
a model it doesn't like.
354
894000
2000
një modeli që nuk e pëlqen.
15:11
Compare that to the secondhand smoke debate --
355
896000
3000
Krahasojeni këtë me debatin e duhanpirësve pasivë --
15:14
probably about 20 years behind.
356
899000
3000
këtu e 20 vjetë të shkuar ndoshta.
15:17
Think about seat belts.
357
902000
2000
Sillni në mend rripat e sigurimit.
15:19
When I was a kid, no one wore a seat belt.
358
904000
2000
Kur isha unë fëmijë, askush nuk i përdorte rripat e sigurimit.
15:21
Nowadays, no kid will let you drive
359
906000
2000
Sot, asnjë fëmijë nuk do t'ju lejojë të ngisni makinën
15:23
if you're not wearing a seat belt.
360
908000
2000
po qe se nuk keni vendosur rripin e sigurimit.
15:26
Compare that to the airbag debate --
361
911000
2000
Krahasojeni këtë me debatin për airbag-un --
15:28
probably about 30 years behind.
362
913000
3000
këtu e 30 vjetë të shkuar ndoshta.
15:31
All examples of models changing.
363
916000
3000
Krejt këta si shembuj ndryshimi modelesh.
15:36
What we learn is that changing models is hard.
364
921000
3000
Mësimi që nxjerrim është që ndryshimi i modeleve është i vështirë.
15:39
Models are hard to dislodge.
365
924000
2000
Është e vështirë të çrrënjosësh modelet.
15:41
If they equal your feelings,
366
926000
2000
Nëse janë njësoj me ndjesitë tuaja,
15:43
you don't even know you have a model.
367
928000
3000
ju as që e kuptoni se keni një model.
15:46
And there's another cognitive bias
368
931000
2000
Dhe këtu ndërhyn një tjetër njëanshmëri konjitive
15:48
I'll call confirmation bias,
369
933000
2000
Do ta quaj njëanshmëri konfirmimi,
15:50
where we tend to accept data
370
935000
3000
nën efektin e së cilës ne priremi të pranojmë të dhëna
15:53
that confirms our beliefs
371
938000
2000
që ripohojnë besimet tona
15:55
and reject data that contradicts our beliefs.
372
940000
3000
dhe të hedhim tej të dhënat që kundërshtojnë besimet tona.
15:59
So evidence against our model,
373
944000
2000
Pra, edhe pse me evidenca kundër modelit tonë,
16:01
we're likely to ignore, even if it's compelling.
374
946000
3000
ka shumë mundësi që ne t'i shpërfillim, edhe pse janë joshëse.
16:04
It has to get very compelling before we'll pay attention.
375
949000
3000
Duhet të bëhet shumë joshëse, pa t'i kushtojmë vëmendje.
16:08
New models that extend long periods of time are hard.
376
953000
2000
Modelet e reja, që prekin periudha të gjata kohore, janë të zorshme
16:10
Global warming is a great example.
377
955000
2000
Ngrohja globale është një shembull i shkëlqyer.
16:12
We're terrible
378
957000
2000
Jemi shumë të dobët
16:14
at models that span 80 years.
379
959000
2000
me modelet që shtrihen në 80 vjetë.
16:16
We can do to the next harvest.
380
961000
2000
Mund t'ia dalim deri te korrja e ardhshme.
16:18
We can often do until our kids grow up.
381
963000
3000
Shpesh shtyhemi deri sa fëmija të jenë rritur.
16:21
But 80 years, we're just not good at.
382
966000
3000
Por 80 vjetë, nuk ia dalim dot hiç.
16:24
So it's a very hard model to accept.
383
969000
3000
Ndaj është një model shumë i vështirë për t'u pranuar.
16:27
We can have both models in our head simultaneously,
384
972000
4000
Mund t'i kemi njëkohësisht që të dy modelet në kokë,
16:31
right, that kind of problem
385
976000
3000
ose atë lloj problemi
16:34
where we're holding both beliefs together,
386
979000
3000
ku i mbajmë tok të dy besimet,
16:37
right, the cognitive dissonance.
387
982000
2000
ose disonancën konjitive.
16:39
Eventually,
388
984000
2000
Në fund fare,
16:41
the new model will replace the old model.
389
986000
3000
modeli i ri do të zëvendësojë modelin e vjetër.
16:44
Strong feelings can create a model.
390
989000
3000
Ndjesitë e forta mund të krijojnë një model.
16:47
September 11th created a security model
391
992000
3000
11 Shtatori krijoi një model sigurie
16:50
in a lot of people's heads.
392
995000
2000
në mendjet e shumë njerëzve.
16:52
Also, personal experiences with crime can do it,
393
997000
3000
Po ashtu, këtë mund ta bëjë përvoja personale në krime,
16:55
personal health scare,
394
1000000
2000
frika personale për shëndetin,
16:57
a health scare in the news.
395
1002000
2000
një frikë e lidhur me shëndetin nga lajmet.
16:59
You'll see these called flashbulb events
396
1004000
2000
Do të shihni ato që psikiatrët i quajnë
17:01
by psychiatrists.
397
1006000
2000
ngjarje rrufe.
17:03
They can create a model instantaneously,
398
1008000
3000
Prej tyre mund të krijohet në çast një model,
17:06
because they're very emotive.
399
1011000
3000
ngaqë janë shumë emotive.
17:09
So in the technological world,
400
1014000
2000
Pra në botën teknologjike,
17:11
we don't have experience
401
1016000
2000
nuk kemi përvojë
17:13
to judge models.
402
1018000
2000
që të gjykojmë modelet.
17:15
And we rely on others. We rely on proxies.
403
1020000
2000
Dhe bazohemi te të tjerët. Bazohemi te ndërmjetësa.
17:17
I mean, this works as long as it's to correct others.
404
1022000
4000
Dua të them, kjo funksionon për aq kohë sa të ndreqen të tjerët.
17:21
We rely on government agencies
405
1026000
2000
Bazohemi te agjencitë qeveritare
17:23
to tell us what pharmaceuticals are safe.
406
1028000
5000
që na tregojnë se cilat barna janë pa zarar.
17:28
I flew here yesterday.
407
1033000
2000
Dje mbërrita këtu me avion.
17:30
I didn't check the airplane.
408
1035000
2000
Nuk i bëra unë kontroll avionit.
17:32
I relied on some other group
409
1037000
2000
U bazova në një grup tjetër
17:34
to determine whether my plane was safe to fly.
410
1039000
3000
që përcaktoi nëse avioni im mund të fluturonte me siguri.
17:37
We're here, none of us fear the roof is going to collapse on us,
411
1042000
3000
Ja ku jemi, dhe asnjë nga ne nuk i trembet shembjes së tavanit mbi kokat tona,
17:40
not because we checked,
412
1045000
3000
jo ngaqë e kontrolluam gjë,
17:43
but because we're pretty sure
413
1048000
2000
po ngaqë jemi goxha të sigurt
17:45
the building codes here are good.
414
1050000
3000
që kushtet e ndërtimit këtu janë të mira.
17:48
It's a model we just accept
415
1053000
2000
Është një model që thjesht e pranojmë
17:50
pretty much by faith.
416
1055000
2000
jo pak në mirëbesim.
17:52
And that's okay.
417
1057000
3000
Dhe nuk prish punë.
17:57
Now, what we want
418
1062000
2000
Tani, ajo që duam
17:59
is people to get familiar enough
419
1064000
2000
është që njerëzit të familjarizohen mjaftueshëm
18:01
with better models --
420
1066000
2000
me modele më të mira --
18:03
have it reflected in their feelings --
421
1068000
2000
t'i kenë të pasqyruar në ndjesitë e tyre --
18:05
to allow them to make security trade-offs.
422
1070000
4000
që t'i lejojnë vetes të marrin vendime sigurie.
18:09
Now when these go out of whack,
423
1074000
2000
Kur këto shpërputhen,
18:11
you have two options.
424
1076000
2000
keni dy mundësi.
18:13
One, you can fix people's feelings,
425
1078000
2000
Njëra, mund të rregulloni ndjesitë e njerëzve,
18:15
directly appeal to feelings.
426
1080000
2000
duke ndikuar drejtpërdrejt mbi ndjesitë.
18:17
It's manipulation, but it can work.
427
1082000
3000
Bëhet fjalë për manipulim, por mund të funksionojë.
18:20
The second, more honest way
428
1085000
2000
Rruga e dyta, më e ndershmja,
18:22
is to actually fix the model.
429
1087000
3000
është të ndreqet vetë modeli.
18:26
Change happens slowly.
430
1091000
2000
Ndryshimi ndodh ngadalë.
18:28
The smoking debate took 40 years,
431
1093000
3000
Debati mbi duhan-pirjen hëngri 40 vjetë,
18:31
and that was an easy one.
432
1096000
3000
dhe ky qe një nga ata të lehtët.
18:34
Some of this stuff is hard.
433
1099000
2000
Në disa raste kjo është e vështirë.
18:36
I mean really though,
434
1101000
2000
Por mendoj ama që
18:38
information seems like our best hope.
435
1103000
2000
informacioni duket si shpresa jonë më e mirë.
18:40
And I lied.
436
1105000
2000
Ja ku ju gënjeva.
18:42
Remember I said feeling, model, reality;
437
1107000
2000
Ju kujtohet që thashë ndjesitë, modeli, realiteti.
18:44
I said reality doesn't change. It actually does.
438
1109000
3000
Thashë që realiteti nuk ndryshon. Në fakt ndryshon.
18:47
We live in a technological world;
439
1112000
2000
Jetojmë në një botë teknologjike;
18:49
reality changes all the time.
440
1114000
3000
realiteti ndryshon gjithë kohës.
18:52
So we might have -- for the first time in our species --
441
1117000
3000
Pra mund të kishim -- për herë të parë për specien tonë --
18:55
feeling chases model, model chases reality, reality's moving --
442
1120000
3000
ndjesitë në ndjekje të modelit, modelin në ndjekje të realitetit, realitetin në ndryshim --
18:58
they might never catch up.
443
1123000
3000
mundet të mos e zënë kurrë njëri-tjetrin.
19:02
We don't know.
444
1127000
2000
Këtë nuk e dimë.
19:04
But in the long-term,
445
1129000
2000
Por në vështrim afatgjatë,
19:06
both feeling and reality are important.
446
1131000
3000
si ndjesitë, ashtu edhe realiteti janë të rëndësishëm.
19:09
And I want to close with two quick stories to illustrate this.
447
1134000
3000
Dhe dua ta mbyll me dy histori të shkurtra për ilustrim.
19:12
1982 -- I don't know if people will remember this --
448
1137000
2000
1982 -- Nuk e di nëse njerëzve u kujtohet --
19:14
there was a short epidemic
449
1139000
3000
pati një epidemi të shkurtër
19:17
of Tylenol poisonings in the United States.
450
1142000
2000
helmimi me Tylenol në Shtetet e Bashkuara.
19:19
It's a horrific story. Someone took a bottle of Tylenol,
451
1144000
3000
Qe një ngjarje e tmerrshme. Dikush mori një shishe Tylenol,
19:22
put poison in it, closed it up, put it back on the shelf.
452
1147000
3000
hodhi helm në të, e mbylli, e vuri prapë në raft.
19:25
Someone else bought it and died.
453
1150000
2000
Dikush e bleu dhe vdiq.
19:27
This terrified people.
454
1152000
2000
Kjo i tmerroi njerëzit.
19:29
There were a couple of copycat attacks.
455
1154000
2000
Pati disa imitime kopjace të kësaj.
19:31
There wasn't any real risk, but people were scared.
456
1156000
3000
Nuk pati ndonjë rrezik real, por njerëzit qenë të trembur.
19:34
And this is how
457
1159000
2000
Dhe kështu u shpik
19:36
the tamper-proof drug industry was invented.
458
1161000
2000
industria e taposjes hermetike të barnave.
19:38
Those tamper-proof caps, that came from this.
459
1163000
2000
Ato kapaçkat hermetike prej këtij rasti lindën.
19:40
It's complete security theater.
460
1165000
2000
Është krejtësisht teatër me sigurinë.
19:42
As a homework assignment, think of 10 ways to get around it.
461
1167000
2000
Si detyrë shtëpie, mendoni 10 mënyra se si ta nxirrni jashtë loje.
19:44
I'll give you one, a syringe.
462
1169000
3000
Po jua jap unë të parën, shiringa.
19:47
But it made people feel better.
463
1172000
3000
Por bëri që njerëzia të ndihej më mirë.
19:50
It made their feeling of security
464
1175000
2000
I bëri ndjesitë e tyre të sigurisë
19:52
more match the reality.
465
1177000
2000
të përputhen më tepër me realitetin.
19:54
Last story, a few years ago, a friend of mine gave birth.
466
1179000
3000
Historia tjetër, ca vite më parë, një shoqja ime lindi fëmijë.
19:57
I visit her in the hospital.
467
1182000
2000
I shkova për vizitë në spital.
19:59
It turns out when a baby's born now,
468
1184000
2000
Na del që sot, tashmë, kur lind një fëmijë,
20:01
they put an RFID bracelet on the baby,
469
1186000
2000
i vënë një byzylyk RFID foshnjës,
20:03
put a corresponding one on the mother,
470
1188000
2000
dhe një korrespondues lehonës,
20:05
so if anyone other than the mother takes the baby out of the maternity ward,
471
1190000
2000
që, nëse dikush tjetër veç mëmës e qit foshnjën nga shtëpia e lindjes,
20:07
an alarm goes off.
472
1192000
2000
zë e bie një alarm.
20:09
I said, "Well, that's kind of neat.
473
1194000
2000
I thashë, "Punë e paqme.
20:11
I wonder how rampant baby snatching is
474
1196000
2000
Po vras mendjen se sa i përhapur është rrëmbimi i foshnjave
20:13
out of hospitals."
475
1198000
2000
në spitale."
20:15
I go home, I look it up.
476
1200000
2000
Kthehem në shtëpi, dhe zë e kërkoj.
20:17
It basically never happens.
477
1202000
2000
Në thelb nuk ndodh kurrë.
20:19
But if you think about it,
478
1204000
2000
Por po ta mendoni,
20:21
if you are a hospital,
479
1206000
2000
po të jeni i spitalit,
20:23
and you need to take a baby away from its mother,
480
1208000
2000
dhe keni nevojë t'ia merrni për pak foshnjën nënës,
20:25
out of the room to run some tests,
481
1210000
2000
jashtë dhomës, për të bërë ca teste,
20:27
you better have some good security theater,
482
1212000
2000
më mirë të luani një teatër të bukur sigurie,
20:29
or she's going to rip your arm off.
483
1214000
2000
përndryshe jua shkurton duart.
20:31
(Laughter)
484
1216000
2000
(Të qeshura)
20:33
So it's important for us,
485
1218000
2000
Pra ka rëndësi për ne,
20:35
those of us who design security,
486
1220000
2000
për ne që merremi me konceptimin e sigurisë,
20:37
who look at security policy,
487
1222000
3000
që kontrollojmë rregulla sigurie,
20:40
or even look at public policy
488
1225000
2000
ose vëzhgojmë rregullat publike
20:42
in ways that affect security.
489
1227000
2000
nga kënde që prekin sigurinë.
20:44
It's not just reality; it's feeling and reality.
490
1229000
3000
S'është thjesht realiteti, janë ndjesitë dhe realiteti.
20:47
What's important
491
1232000
2000
Ajo që ka rëndësi
20:49
is that they be about the same.
492
1234000
2000
është që këto të jenë thuajse të njëjta.
20:51
It's important that, if our feelings match reality,
493
1236000
2000
është e rëndësishme që, nëse ndjesitë tona përputhen me realitetin,
20:53
we make better security trade-offs.
494
1238000
2000
të marrim vendime sigurie më të mira.
20:55
Thank you.
495
1240000
2000
Ju faleminderit.
20:57
(Applause)
496
1242000
2000
(Duartrokitje)
Translated by Besnik Bleta
Reviewed by Jeta Rudi

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com