ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Bruce Schneier: Ảo tưởng về an toàn

Filmed:
958,315 views

Các cảm giác an toàn và thực tế về an toàn không phải lúc nào cũng trùng khớp, theo chuyên gia bảo mật máy tính Bruce Schneier. Tại TEDxPSU, ông giải thích lý do tại sao chúng ta chi tiêu hàng tỷ để giải quyết những rủi ro lan truyền trên báo, giống như "rạp chiếu an ninh", trong khi bỏ qua những rủi ro có thể xảy ra nhiều hơn - và làm thế nào chúng ta có thể phá vỡ mô hình này.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securityBảo vệ is two differentkhác nhau things:
0
0
2000
Trạng thái an toàn có 2 dạng:
00:17
it's a feelingcảm giác, and it's a realitythực tế.
1
2000
2000
một là cảm giác, hai là thực tế
00:19
And they're differentkhác nhau.
2
4000
2000
Chúng khác nhau
00:21
You could feel securean toàn
3
6000
2000
Bạn có thể cảm thấy an toàn
00:23
even if you're not.
4
8000
2000
ngay cả khi không phải vậy.
Và bạn có thể an toàn
00:25
And you can be securean toàn
5
10000
2000
00:27
even if you don't feel it.
6
12000
2000
ngay cả khi bạn không cảm thấy vậy
Thực sự, có 2 khái niệm riêng biệt
00:29
Really, we have two separatetách rời conceptscác khái niệm
7
14000
2000
00:31
mappedánh xạ ontotrên the sametương tự wordtừ.
8
16000
2000
được áp vào cùng một từ.
00:33
And what I want to do in this talk
9
18000
2000
Việc tôi muốn làm trong buổi nói này
00:35
is to splitphân chia them apartxa nhau --
10
20000
2000
là tách chúng ra
nhận biết được khi nào chúng “phân kỳ”
00:37
figuringtìm kiếm out when they divergephân ra
11
22000
2000
00:39
and how they convergehội tụ.
12
24000
2000
và chúng “hội tụ” như thế nào.
00:41
And languagengôn ngữ is actuallythực ra a problemvấn đề here.
13
26000
2000
Và ngôn ngữ thực sự là một vấn đề ở đây.
00:43
There aren'tkhông phải a lot of good wordstừ ngữ
14
28000
2000
00:45
for the conceptscác khái niệm we're going to talk about.
15
30000
3000
không có nhiều khái niệm chính xác
00:48
So if you look at securityBảo vệ
16
33000
2000
Nếu bạn nhìn sự an toàn
00:50
from economicthuộc kinh tế termsđiều kiện,
17
35000
2000
từ góc độ kinh tế,
00:52
it's a trade-offthương mại-off.
18
37000
2000
Đó là một sự đánh đổi.
00:54
EveryMỗi time you get some securityBảo vệ,
19
39000
2000
Mỗi lần bạn nhận được vài thứ an toàn,
00:56
you're always tradingthương mại off something.
20
41000
2000
bạn luôn đánh đổi vài thứ.
00:58
WhetherCho dù this is a personalcá nhân decisionphán quyết --
21
43000
2000
cho dù đây là một quyết định cá nhân
01:00
whetherliệu you're going to installcài đặt, dựng lên a burglartên trộm alarmbáo thức in your home --
22
45000
2000
cho dù bạn sắp lắp
một thiết bị chống trộm trong nhà
01:02
or a nationalQuốc gia decisionphán quyết -- where you're going to invadexâm chiếm some foreignngoại quốc countryQuốc gia --
23
47000
3000
hay là một quyết định mang tầm quốc gia, bạn sẽ xâm lược
vài nước khác,
01:05
you're going to tradebuôn bán off something,
24
50000
2000
bạn sẽ đánh đổi vài thứ.
01:07
eitherhoặc moneytiền bạc or time, conveniencetiện lợi, capabilitieskhả năng,
25
52000
3000
cả tiền bạc và thời gian, tiện nghi, những khả năng
01:10
maybe fundamentalcăn bản libertiestự do.
26
55000
3000
có thể những quyền tự do cơ bản
Và câu hỏi đặt ra
01:13
And the questioncâu hỏi to askhỏi when you look at a securityBảo vệ anything
27
58000
3000
khi bạn nhìn vào bất cứ điều gì an toàn
01:16
is not whetherliệu this makeslàm cho us saferan toàn hơn,
28
61000
3000
không phải là liệu nó có giúp chúng ta an toàn hơn,
01:19
but whetherliệu it's worthgiá trị the trade-offthương mại-off.
29
64000
3000
mà là nó có đáng để đánh đổi không.
01:22
You've heardnghe in the pastquá khứ severalmột số yearsnăm,
30
67000
2000
Bạn đã từng nghe thấy vài năm qua,
01:24
the worldthế giới is saferan toàn hơn because SaddamSaddam HusseinHussein is not in powerquyền lực.
31
69000
2000
thế giới an toàn hơn vì Saddam Hussein mất thế lực
01:26
That mightcó thể be truethật, but it's not terriblykhủng khiếp relevantliên quan, thích hợp.
32
71000
3000
Điều đó có thể đúng, nhưng nó không hề liên quan
01:29
The questioncâu hỏi is, was it worthgiá trị it?
33
74000
3000
Câu hỏi đặt ra là, nó có đáng như vậy?
01:32
And you can make your ownsở hữu decisionphán quyết,
34
77000
3000
Bạn có thể ra quyết định của riêng bạn,
01:35
and then you'llbạn sẽ decidequyết định whetherliệu the invasioncuộc xâm lăng was worthgiá trị it.
35
80000
2000
Rồi bạn sẽ quyết định
liệu cuộc xâm lược có đáng giá không
01:37
That's how you think about securityBảo vệ --
36
82000
2000
Đó là cách bạn nghĩ về sự an toàn
01:39
in termsđiều kiện of the trade-offthương mại-off.
37
84000
2000
về việc đánh đổi.
01:41
Now there's oftenthường xuyên no right or wrongsai rồi here.
38
86000
3000
Thường là không có đúng hay sai ở đây.
01:44
Some of us have a burglartên trộm alarmbáo thức systemhệ thống at home,
39
89000
2000
Vài người trong chúng ta có hệ thống chống trộm ở nhà
01:46
and some of us don't.
40
91000
2000
vài người thì không.
Điều đó sẽ tùy thuộc vào nơi chúng ta sinh sống
01:48
And it'llnó sẽ dependtùy theo on where we livetrực tiếp,
41
93000
2000
01:50
whetherliệu we livetrực tiếp alonemột mình or have a familygia đình,
42
95000
2000
chúng ta sống một mình hay có một gia đình
01:52
how much coolmát mẻ stuffđồ đạc we have,
43
97000
2000
chúng ta có bao nhiêu thứ tốt đẹp,
01:54
how much we're willingsẵn lòng to acceptChấp nhận
44
99000
2000
chúng ta sẵn sàng chấp nhận bao nhiêu
01:56
the riskrủi ro of thefttrộm cắp.
45
101000
2000
rủi ro trộm cắp.
01:58
In politicschính trị alsocũng thế,
46
103000
2000
Trong chính trị cũng vậy,
02:00
there are differentkhác nhau opinionsý kiến.
47
105000
2000
có nhiều ý kiến khác nhau.
Rất nhiều lần, những đánh đổi
02:02
A lot of timeslần, these trade-offsthương mại
48
107000
2000
02:04
are about more than just securityBảo vệ,
49
109000
2000
còn giá trị hơn sự an toàn mà ta nhận được
02:06
and I think that's really importantquan trọng.
50
111000
2000
Và tôi nghĩ điều đó thực sự quan trọng.
02:08
Now people have a naturaltự nhiên intuitiontrực giác
51
113000
2000
Mọi người có một trực giác tự nhiên
02:10
about these trade-offsthương mại.
52
115000
2000
về những đánh đổi này.
Chúng ta làm điều đó hàng ngày.
02:12
We make them everymỗi day --
53
117000
2000
Tối qua, trong phòng khách sạn tôi ở,
02:14
last night in my hotelkhách sạn roomphòng,
54
119000
2000
tôi quyết định khóa 2 chốt cánh cửa.
02:16
when I decidedquyết định to double-lockDouble-lock the doorcửa,
55
121000
2000
Hay bạn ngồi trong xe và lái đến đây.
02:18
or you in your carxe hơi when you drovelái here,
56
123000
2000
02:20
when we go eatăn lunchBữa trưa
57
125000
2000
Khi chúng ta đi ăn trưa
02:22
and decidequyết định the food'sthức ăn not poisonchất độc and we'lltốt eatăn it.
58
127000
3000
và quyết định thức ăn không nhiễm độc
và chúng ta sẽ ăn chúng
02:25
We make these trade-offsthương mại again and again,
59
130000
2000
Chúng ta thực hiện những đánh đổi này lặp đi lặp lại
02:27
multiplenhiều timeslần a day.
60
132000
2000
nhiều lần trong một ngày.
02:29
We oftenthường xuyên won'tsẽ không even noticeđể ý them.
61
134000
2000
Chúng ta thường sẽ không chú ý đến chúng.
02:31
They're just partphần of beingđang alivesống sót; we all do it.
62
136000
2000
Chúng chỉ là một phần cuộc sống.
02:33
EveryMỗi speciesloài does it.
63
138000
3000
Tất cả chúng ta đều làm điều đó.
Mỗi giống loài đều thực hiện nó.
02:36
ImagineHãy tưởng tượng a rabbitthỏ in a fieldcánh đồng, eatingĂn grasscỏ,
64
141000
2000
Hãy tưởng tượng một con thỏ trên một cánh đồng
02:38
and the rabbit'sthỏ going to see a foxcáo.
65
143000
3000
đang ăn cỏ
Và con thỏ sẽ gặp một con cáo.
02:41
That rabbitthỏ will make a securityBảo vệ trade-offthương mại-off:
66
146000
2000
Con thỏ sẽ cân nhắc để đổi lấy an toàn
02:43
"Should I stayở lại, or should I fleechạy trốn?"
67
148000
2000
“Tôi nên đứng lại, hay nên chạy trốn?”
02:45
And if you think about it,
68
150000
2000
Nếu bạn nghĩ về nó,
02:47
the rabbitsthỏ that are good at makingchế tạo that trade-offthương mại-off
69
152000
3000
những con thỏ giỏi cân nhắc
02:50
will tendcó xu hướng to livetrực tiếp and reproducetái sản xuất,
70
155000
2000
sẽ có xu hướng sống và sinh sản,
và những con thỏ tệ trong việc đó
02:52
and the rabbitsthỏ that are badxấu at it
71
157000
2000
sẽ bị ăn hoặc chết đói.
02:54
will get eatenăn or starvechết đói.
72
159000
2000
Vì thế bạn sẽ nghĩ
02:56
So you'dbạn muốn think
73
161000
2000
rằng chúng ta, một loài thành công trên hành tinh này
02:58
that us, as a successfulthành công speciesloài on the planethành tinh --
74
163000
3000
03:01
you, me, everybodymọi người --
75
166000
2000
bạn, tôi, tất cả mọi người
03:03
would be really good at makingchế tạo these trade-offsthương mại.
76
168000
3000
sẽ thực sự giỏi trong việc đánh đổi.
03:06
YetNào được nêu ra it seemsdường như, again and again,
77
171000
2000
Tuy nhiên, có vẻ như, lặp đi lặp lại,
03:08
that we're hopelesslyHopelessly badxấu at it.
78
173000
3000
rằng chúng ta tệ hại một cách vô vọng trong việc đó
03:11
And I think that's a fundamentallyvề cơ bản interestinghấp dẫn questioncâu hỏi.
79
176000
3000
Tôi nghĩ đó là một câu hỏi cơ bản là thú vị
03:14
I'll give you the shortngắn answercâu trả lời.
80
179000
2000
Tôi sẽ cho bạn câu trả lời ngắn gọn.
03:16
The answercâu trả lời is, we respondtrả lời to the feelingcảm giác of securityBảo vệ
81
181000
2000
Câu trả lời là, chúng ta đáp lại
những cảm giác về sự an toàn
03:18
and not the realitythực tế.
82
183000
3000
và không thực tế.
Hầu như mọi lúc, điều đó xảy ra.
03:21
Now mostphần lớn of the time, that workscông trinh.
83
186000
3000
Hầu hết thời gian,
03:25
MostHầu hết of the time,
84
190000
2000
cảm giác và thực tế giống nhau.
03:27
feelingcảm giác and realitythực tế are the sametương tự.
85
192000
3000
Hiển nhiên, điều đó đúng
03:30
CertainlyChắc chắn that's truethật
86
195000
2000
03:32
for mostphần lớn of humanNhân loại prehistorythời tiền sử.
87
197000
3000
đối với hầu hết người thời tiền sử.
Chúng ta phát triển khả năng này
03:35
We'veChúng tôi đã developedđã phát triển this abilitycó khả năng
88
200000
3000
vì nó có ý nghĩa tiến hóa.
03:38
because it makeslàm cho evolutionarytiến hóa sensegiác quan.
89
203000
2000
03:40
One way to think of it
90
205000
2000
Một cách nghĩ về nó
03:42
is that we're highlycao optimizedtối ưu hóa
91
207000
2000
là chúng ta được tối ưu hóa cao
03:44
for riskrủi ro decisionsquyết định
92
209000
2000
cho các quyết định rủi ro
03:46
that are endemicđặc hữu to livingsống in smallnhỏ bé familygia đình groupscác nhóm
93
211000
3000
đó là loài đặc hữu sống trong những nhóm gia đình nhỏ
03:49
in the EastĐông AfricanChâu Phi highlandsTây nguyên in 100,000 B.C.
94
214000
3000
ở vùng cao nguyên Đông Phi vào 100,000 năm TCN
2010 New York, không quá lâu.
03:52
2010 NewMới YorkYork, not so much.
95
217000
3000
Hiện có vài thành kiến trong nhận thức rủi ro
03:56
Now there are severalmột số biasessự thiên vị in riskrủi ro perceptionnhận thức.
96
221000
3000
03:59
A lot of good experimentsthí nghiệm in this.
97
224000
2000
Nhiều cuộc thử nghiệm tốt trong việc này.
04:01
And you can see certainchắc chắn biasessự thiên vị that come up again and again.
98
226000
3000
Bạn có thể thấy
một số thành kiến xuất hiện lặp đi lặp lại
04:04
So I'll give you fourbốn.
99
229000
2000
Tôi sẽ cho bạn 4 ví dụ.
04:06
We tendcó xu hướng to exaggeratephóng đại spectacularđẹp mắt and rarehiếm risksrủi ro
100
231000
3000
Chúng ta có xu hướng thổi phồng
những rủi ro lớn và hiếm gặp
04:09
and downplaydownplay commonchung risksrủi ro --
101
234000
2000
và hạ thấp những rủi ro thông thường
04:11
so flyingbay versusđấu với drivingđiều khiển.
102
236000
3000
Vậy giữa việc bay so với lái xe thì sao
04:14
The unknownkhông rõ is perceivedcảm nhận
103
239000
2000
Những điều chưa biết được nhận thức
04:16
to be riskierrủi ro than the familiarquen.
104
241000
3000
là rủi ro hơn những thứ quen thuộc.
04:20
One examplethí dụ would be,
105
245000
2000
Một ví dụ,
04:22
people fearnỗi sợ kidnappingbắt cóc by strangersngười lạ
106
247000
3000
người ta sợ bị bắt cóc bởi người lạ
khi những dữ liệu cho thấy
04:25
when the datadữ liệu supportshỗ trợ kidnappingbắt cóc by relativesngười thân is much more commonchung.
107
250000
3000
bắt cóc bởi người thân phổ biến hơn nhiều
04:28
This is for childrenbọn trẻ.
108
253000
2000
Việc này là đối với trẻ em.
04:30
ThirdThứ ba, personifiednhân cách hóa risksrủi ro
109
255000
3000
Thứ ba, những rủi ro được nhân hình hóa
được cho là tốt hơn những rủi ro ẩn danh.
04:33
are perceivedcảm nhận to be greaterlớn hơn than anonymousvô danh risksrủi ro --
110
258000
3000
Nhưng Bin Laden đáng sợ hơn bởi vì ông ta có tên
04:36
so BinBin LadenLaden is scarierkinh hoàng because he has a nameTên.
111
261000
3000
Và thứ tư
04:39
And the fourththứ tư
112
264000
2000
là mọi người đánh giá thấp những rủi ro
04:41
is people underestimateđánh giá quá thấp risksrủi ro
113
266000
2000
04:43
in situationstình huống they do controlđiều khiển
114
268000
2000
trong các tình huống họ kiểm soát được
04:45
and overestimateđánh giá cao them in situationstình huống they don't controlđiều khiển.
115
270000
4000
và đánh giá quá cao chúng
trong tình huống họ không kiểm soát được.
04:49
So onceMột lần you take up skydivingnhảy dù or smokinghút thuốc lá,
116
274000
3000
Vậy khi bạn phóng nhảy dù hoặc hút thuốc,
04:52
you downplaydownplay the risksrủi ro.
117
277000
2000
bạn xem nhẹ những rủi ro.
Nếu một rủi ro ập đến bạn, nạn khủng bố chẳng hạn
04:54
If a riskrủi ro is thrustđẩy upontrên you -- terrorismkhủng bố was a good examplethí dụ --
118
279000
3000
04:57
you'llbạn sẽ overplayoverplay it because you don't feel like it's in your controlđiều khiển.
119
282000
3000
bạn sẽ quan trọng hóa nó
vì bạn không cảm thấy nó nằm trong tầm kiểm soát của bạn
Có một loạt những thành kiến khác
05:02
There are a bunch of other of these biasessự thiên vị, these cognitivenhận thức biasessự thiên vị,
120
287000
3000
thành kiến về nhận thức,
05:05
that affectcó ảnh hưởng đến our riskrủi ro decisionsquyết định.
121
290000
3000
ảnh hưởng đến những quyết định rủi ro của chúng ta
Có một khám phá khả dụng,
05:08
There's the availabilitytính khả dụng heuristicheuristic,
122
293000
2000
05:10
which basicallyvề cơ bản meanscó nghĩa
123
295000
2000
mà về cơ bản nghĩa là
05:12
we estimateước tính the probabilityxác suất of something
124
297000
3000
chúng tôi ước tính xác suất vài thứ
gợi nhớ lại một cách dễ dàng
05:15
by how easydễ dàng it is to bringmang đến instancestrường hợp of it to mindlí trí.
125
300000
4000
Bạn có thể tưởng tượng nó hoạt động như thế nào
05:19
So you can imaginetưởng tượng how that workscông trinh.
126
304000
2000
05:21
If you hearNghe a lot about tigercon hổ attackstấn công, there mustphải be a lot of tigershổ around.
127
306000
3000
Nếu bạn nghe nhiều về cọp tấn công
vậy hẳn có nhiều cọp xung quanh
05:24
You don't hearNghe about lionsư tử attackstấn công, there aren'tkhông phải a lot of lionssư tử around.
128
309000
3000
Bạn không nghe thấy sư tử tấn công
vậy hẳn không có nhiều sư tử xung quanh
05:27
This workscông trinh untilcho đến you inventphát minh newspapersBáo.
129
312000
3000
Điều này xảy ra cho đến khi bạn tìm thấy trên báo.
05:30
Because what newspapersBáo do
130
315000
2000
Bởi vì những gì các tờ báo làm
05:32
is they repeatnói lại again and again
131
317000
2000
là lặp đi lặp lại
05:34
rarehiếm risksrủi ro.
132
319000
2000
những rủi ro hiếm gặp.
05:36
I tell people, if it's in the newsTin tức, don't worrylo about it.
133
321000
2000
Tôi nói với mọi người
nếu nó là tin trên báo, đừng lo lắng
05:38
Because by definitionĐịnh nghĩa,
134
323000
2000
Bởi vì theo định nghĩa,
05:40
newsTin tức is something that almosthầu hết never happensxảy ra.
135
325000
3000
tin tức là những thứ mà hầu như không bao giờ xảy ra.
05:43
(LaughterTiếng cười)
136
328000
2000
(Cười)
05:45
When something is so commonchung, it's no longerlâu hơn newsTin tức --
137
330000
3000
Khi vài thứ quá phổ biến, nó không còn lên báo nữa
05:48
carxe hơi crashestai nạn, domestictrong nước violencebạo lực --
138
333000
2000
tai nạn xe hơi, bạo lực gia đình,
05:50
those are the risksrủi ro you worrylo about.
139
335000
3000
Đó là những rủi ro mà bạn lo lắng.
Chúng ta cũng là một loài kể chuyện.
05:53
We're alsocũng thế a speciesloài of storytellersngười kể chuyện.
140
338000
2000
05:55
We respondtrả lời to storiesnhững câu chuyện more than datadữ liệu.
141
340000
3000
Chúng ta đáp lại những câu chuyện nhiều dữ liệu hơn
05:58
And there's some basiccăn bản innumeracyinnumeracy going on.
142
343000
2000
Có vài trường hợp mù số cơ bản xảy ra.
06:00
I mean, the jokeđùa "One, Two, ThreeBa, ManyNhiều" is kindloại of right.
143
345000
3000
Ý tôi là, trò đùa “Một, Hai, Ba, Nhiều” khá đúng.
06:03
We're really good at smallnhỏ bé numberssố.
144
348000
3000
Chúng ta thực sự giỏi ở những con số nhỏ.
1 trái xoài, 2 trái xoài, 3 trái xoài,
06:06
One mangoXoài, two mangoesXoài, threesố ba mangoesXoài,
145
351000
2000
06:08
10,000 mangoesXoài, 100,000 mangoesXoài --
146
353000
2000
10,000 trái xoài, 100,000 trái xoài
06:10
it's still more mangoesXoài you can eatăn before they rotthối.
147
355000
3000
Còn nhiều trái xoài nữa
bạn có thể ăn trước khi chúng thối rữa
06:13
So one halfmột nửa, one quarterphần tư, one fifththứ năm -- we're good at that.
148
358000
3000
Một nửa, một phần tư, một phần năm
chúng ta giỏi với chúng
06:16
One in a milliontriệu, one in a billiontỷ --
149
361000
2000
Một phần một triệu, một phần một tỉ,
06:18
they're bothcả hai almosthầu hết never.
150
363000
3000
Cả hai đều hầu như không bao giờ xuất hiện
06:21
So we have troublerắc rối with the risksrủi ro
151
366000
2000
Nên chúng ta gặp rắc rối với những rủi ro
06:23
that aren'tkhông phải very commonchung.
152
368000
2000
không quá phổ biến.
06:25
And what these cognitivenhận thức biasessự thiên vị do
153
370000
2000
Những gì mà thành kiến về nhận thức làm
06:27
is they acthành động as filtersbộ lọc betweengiữa us and realitythực tế.
154
372000
3000
là chúng hoạt động
như những bộ lọc giữa chúng ta và thực tế
06:30
And the resultkết quả
155
375000
2000
Và kết quả
là cảm giác đó và thực tế không trùng khớp
06:32
is that feelingcảm giác and realitythực tế get out of whackđánh đòn,
156
377000
2000
06:34
they get differentkhác nhau.
157
379000
3000
Chúng khác nhau.
Bây giờ bạn cũng có một cảm giác
06:37
Now you eitherhoặc have a feelingcảm giác -- you feel more securean toàn than you are.
158
382000
3000
bạn thấy an toàn hơn so với thực tế
06:40
There's a falsesai sensegiác quan of securityBảo vệ.
159
385000
2000
Có cảm giác sai về an toàn.
06:42
Or the other way,
160
387000
2000
Hay nói cách khác,
đó là một cảm giác sai về sự không an toàn
06:44
and that's a falsesai sensegiác quan of insecuritymất an ninh.
161
389000
2000
Tôi viết rất nhiều về “rạp chiếu an ninh”,
06:46
I writeviết a lot about "securityBảo vệ theaterrạp hát,"
162
391000
3000
là những sản phẩm làm mọi người cảm thấy an toàn
06:49
which are productscác sản phẩm that make people feel securean toàn,
163
394000
3000
06:52
but don't actuallythực ra do anything.
164
397000
2000
nhưng thực sự không làm gì cả.
Không có một từ chính xác cho thứ
06:54
There's no realthực wordtừ for stuffđồ đạc that makeslàm cho us securean toàn,
165
399000
2000
làm cho chúng ta an toàn,
06:56
but doesn't make us feel securean toàn.
166
401000
2000
nhưng không làm chúng ta cảm thấy an toàn.
06:58
Maybe it's what the CIA'sCủa CIA supposedgiả định to do for us.
167
403000
3000
Có thể nó là cái mà CIA phải làm cho chúng ta.
07:03
So back to economicsKinh tế học.
168
408000
2000
Trở lại về kinh tế.
07:05
If economicsKinh tế học, if the marketthị trường, drivesổ đĩa securityBảo vệ,
169
410000
4000
Nếu kinh tế, thị trường kiểm soát sự an toàn
và nếu mọi người thực hiện các cuộc đánh đổi
07:09
and if people make trade-offsthương mại
170
414000
2000
07:11
baseddựa trên on the feelingcảm giác of securityBảo vệ,
171
416000
3000
dựa trên cảm giác về sự an toàn,
thì việc khôn ngoan mà các công ty thực hiện
07:14
then the smartthông minh thing for companiescác công ty to do
172
419000
2000
07:16
for the economicthuộc kinh tế incentivesưu đãi
173
421000
2000
để khuyến khích kinh tế
07:18
are to make people feel securean toàn.
174
423000
3000
là làm cho mọi người cảm thấy an toàn.
Có hai cách để làm điều này.
07:21
And there are two wayscách to do this.
175
426000
3000
Một, bạn có thể làm cho mọi người thực sự an toàn
07:24
One, you can make people actuallythực ra securean toàn
176
429000
2000
07:26
and hopemong they noticeđể ý.
177
431000
2000
và hy vọng họ để ý.
Hai, bạn có thể làm cho mọi người chỉ cảm thấy an toàn
07:28
Or two, you can make people just feel securean toàn
178
433000
3000
07:31
and hopemong they don't noticeđể ý.
179
436000
3000
và hy vọng họ không chú ý đến.
07:35
So what makeslàm cho people noticeđể ý?
180
440000
3000
Điều gì làm mọi người để ý?
07:38
Well a couplevợ chồng of things:
181
443000
2000
Vài ba thứ:
07:40
understandinghiểu biết of the securityBảo vệ,
182
445000
2000
hiểu về sự an toàn,
07:42
of the risksrủi ro, the threatsmối đe dọa,
183
447000
2000
về những rủi ro, những mối đe dọa
07:44
the countermeasuresbiện pháp đối phó, how they work.
184
449000
3000
các biện pháp đối phó, chúng hoạt động ra sao
Nếu bạn biết,
07:47
But if you know stuffđồ đạc,
185
452000
2000
có khả năng cảm giác của bạn hợp với thực tế hơn.
07:49
you're more likelycó khả năng to have your feelingscảm xúc matchtrận đấu realitythực tế.
186
454000
3000
07:52
EnoughĐủ realthực worldthế giới examplesví dụ helpsgiúp.
187
457000
3000
Có đủ ví dụ thực tiễn sẽ giúp bạn.
07:55
Now we all know the crimetội ác ratetỷ lệ in our neighborhoodkhu vực lân cận,
188
460000
3000
Tất cả chúng ta biết tỉ lệ tội phạm
trong khu phố của chúng ta,
07:58
because we livetrực tiếp there, and we get a feelingcảm giác about it
189
463000
3000
vì chúng ta sống ở đó, và chúng ta có cảm giác về nó
08:01
that basicallyvề cơ bản matchestrận đấu realitythực tế.
190
466000
3000
mà về cơ bản giống với thực tế.
08:04
SecurityAn ninh theater'scủa nhà hát exposedlộ ra
191
469000
3000
Rạp hát an ninh bị phơi bày
khi nó rõ ràng hoạt động không hợp lý.
08:07
when it's obvioushiển nhiên that it's not workingđang làm việc properlyđúng.
192
472000
3000
OK, điều gì khiến mọi người không chú ý?
08:10
Okay, so what makeslàm cho people not noticeđể ý?
193
475000
4000
Một sự thiếu hiểu biết.
08:14
Well, a poornghèo nàn understandinghiểu biết.
194
479000
2000
Nếu bạn không hiểu những rủi ro,
08:16
If you don't understandhiểu không the risksrủi ro, you don't understandhiểu không the costschi phí,
195
481000
3000
bạn không biết những chi phí tiêu tốn,
08:19
you're likelycó khả năng to get the trade-offthương mại-off wrongsai rồi,
196
484000
2000
có khả năng bạn đánh đổi sai,
08:21
and your feelingcảm giác doesn't matchtrận đấu realitythực tế.
197
486000
3000
và cảm giác của bạn không hợp với thực tế.
Chưa đủ ví dụ.
08:24
Not enoughđủ examplesví dụ.
198
489000
2000
Có một vấn đề cố hữu
08:26
There's an inherentvốn có problemvấn đề
199
491000
2000
08:28
with lowthấp probabilityxác suất eventssự kiện.
200
493000
2000
với các sự kiện xác suất thấp.
Nếu, ví dụ,
08:30
If, for examplethí dụ,
201
495000
2000
nạn khủng bố hầu như không bao giờ xảy ra,
08:32
terrorismkhủng bố almosthầu hết never happensxảy ra,
202
497000
2000
thực sự khó để đánh giá
08:34
it's really hardcứng to judgethẩm phán
203
499000
2000
08:36
the efficacyhiệu quả of counter-terroristchống khủng bố measurescác biện pháp.
204
501000
3000
hiệu quả của các biện pháp chống khủng bố.
Đây là lý do bạn vẫn hiến tế trinh nữ
08:40
This is why you keep sacrificingHy sinh virginstrinh nữ,
205
505000
3000
08:43
and why your unicornkỳ lân defensesphòng thủ are workingđang làm việc just great.
206
508000
3000
và tại sao việc đổ lỗi cho thần thánh vẫn hoạt động tốt
08:46
There aren'tkhông phải enoughđủ examplesví dụ of failuresthất bại.
207
511000
3000
Không có đủ những ví dụ về thất bại.
Những cảm giác cũng che khuất các vấn đề
08:50
AlsoCũng, feelingscảm xúc that are cloudingclouding the issuesvấn đề --
208
515000
3000
08:53
the cognitivenhận thức biasessự thiên vị I talkednói chuyện about earliersớm hơn,
209
518000
2000
những thành kiến nhận thức tôi nói lúc nãy
08:55
fearssợ hãi, folkdân gian beliefsniềm tin,
210
520000
3000
nỗi sợ hãi, những tín ngưỡng dân gian,
cơ bản là một mô hình thực tế không đầy đủ
08:58
basicallyvề cơ bản an inadequatekhông đầy đủ modelmô hình of realitythực tế.
211
523000
3000
Để tôi làm cho những thứ này phức tạp hơn
09:02
So let me complicatephức tạp things.
212
527000
3000
Tôi có cảm giác và thực tế.
09:05
I have feelingcảm giác and realitythực tế.
213
530000
2000
09:07
I want to addthêm vào a thirdthứ ba elementthành phần. I want to addthêm vào modelmô hình.
214
532000
3000
Tôi muốn thêm một yếu tố thứ ba. Tôi muốn thêm mô hình
09:10
FeelingCảm giác and modelmô hình in our headcái đầu,
215
535000
2000
Cảm giác và mô hình nằm trong đầu chúng ta
09:12
realitythực tế is the outsideở ngoài worldthế giới.
216
537000
2000
Thực tế thì ở bên ngoài.
09:14
It doesn't changethay đổi; it's realthực.
217
539000
3000
Nó không đổi; nó là sự thật.
Cảm giác dựa vào trực giác của chúng ta
09:17
So feelingcảm giác is baseddựa trên on our intuitiontrực giác.
218
542000
2000
09:19
ModelMô hình is baseddựa trên on reasonlý do.
219
544000
2000
Mô hình được dựa vào lý do.
09:21
That's basicallyvề cơ bản the differenceSự khác biệt.
220
546000
3000
Nó cơ bản khác nhau.
Trong một thế giới nguyên sơ và đơn giản,
09:24
In a primitivenguyên thủy and simpleđơn giản worldthế giới,
221
549000
2000
thực sự không có lý do cho một mô hình
09:26
there's really no reasonlý do for a modelmô hình
222
551000
3000
vì cảm giác gần với thực tế.
09:29
because feelingcảm giác is closegần to realitythực tế.
223
554000
3000
09:32
You don't need a modelmô hình.
224
557000
2000
Bạn không cần một mô hình.
Nhưng trong thế giới hiện đại và phức tạp
09:34
But in a modernhiện đại and complexphức tạp worldthế giới,
225
559000
2000
09:36
you need modelsmô hình
226
561000
2000
bạn cần những mô hình
09:38
to understandhiểu không a lot of the risksrủi ro we faceđối mặt.
227
563000
3000
để hiểu nhiều rủi ro chúng ta đối mặt.
Không có cảm giác về vi trùng.
09:42
There's no feelingcảm giác about germsvi trùng.
228
567000
2000
09:44
You need a modelmô hình to understandhiểu không them.
229
569000
3000
Bạn cần một mô hình để hiểu chúng.
Mô hình này
09:47
So this modelmô hình
230
572000
2000
là một đại diện thông minh của thực tế.
09:49
is an intelligentthông minh representationđại diện of realitythực tế.
231
574000
3000
Nó, dĩ nhiên, được giới hạn bởi khoa học,
09:52
It's, of coursekhóa học, limitedgiới hạn by sciencekhoa học,
232
577000
3000
09:55
by technologyCông nghệ.
233
580000
2000
bởi công nghệ.
Chúng ta không thể có lý thuyết về mầm bệnh
09:57
We couldn'tkhông thể have a germGerm theorylý thuyết of diseasedịch bệnh
234
582000
3000
10:00
before we inventedphát minh the microscopekính hiển vi to see them.
235
585000
3000
trước khi chúng ta phát minh ra kính hiển vi
để thấy chúng
Nó bị giới hạn bởi
10:04
It's limitedgiới hạn by our cognitivenhận thức biasessự thiên vị.
236
589000
3000
những thành kiến nhận thức của chúng ta
10:07
But it has the abilitycó khả năng
237
592000
2000
Nhưng nó có khả năng
10:09
to overrideghi đè our feelingscảm xúc.
238
594000
2000
gạt đi những cảm giác của chúng ta.
Chúng ta lấy những mô hình này ở đâu?
10:11
Where do we get these modelsmô hình? We get them from othersKhác.
239
596000
3000
Chúng ta lấy chúng từ những thứ khác.
10:14
We get them from religiontôn giáo, from culturenền văn hóa,
240
599000
3000
Chúng ta lấy chúng từ tôn giáo, từ văn hóa
10:17
teachersgiáo viên, eldersgià.
241
602000
2000
giáo viên, người già.
10:19
A couplevợ chồng yearsnăm agotrước,
242
604000
2000
Cách đây vài ba năm,
10:21
I was in SouthNam AfricaAfrica on safariSafari.
243
606000
2000
Tôi đi săn ở Nam Phi.
10:23
The trackertheo dõi I was with grewlớn lên up in KrugerKruger NationalQuốc gia ParkCông viên.
244
608000
3000
Thợ săn đi cùng tôi lớn lên ở Công viên Quốc gia Kruger
10:26
He had some very complexphức tạp modelsmô hình of how to survivetồn tại.
245
611000
3000
Anh ấy có vài mô hình rất phức tạp về cách sống sót
Và nó tùy thuộc vào việc bạn bị tấn công
10:29
And it dependedphụ thuộc on if you were attackedtấn công
246
614000
2000
bởi sư tử hay báo, tê giác hay voi,
10:31
by a lionsư tử or a leopardLeopard or a rhinotê giác or an elephantcon voi --
247
616000
2000
10:33
and when you had to runchạy away, and when you couldn'tkhông thể runchạy away, and when you had to climbleo a treecây --
248
618000
3000
khi bạn phải chạy đi, khi bạn không thể chạy
khi bạn phải trèo lên cây,
10:36
when you could never climbleo a treecây.
249
621000
2000
khi bạn không thể trèo cây.
10:38
I would have diedchết in a day,
250
623000
3000
Tôi sẽ chết một ngày nào đó,
nhưng anh ấy được sinh ra ở đó,
10:41
but he was bornsinh ra there,
251
626000
2000
10:43
and he understoodhiểu how to survivetồn tại.
252
628000
2000
Và anh ấy hiểu làm thế nào để sống sót.
10:45
I was bornsinh ra in NewMới YorkYork CityThành phố.
253
630000
2000
Tôi được sinh ra ở New York.
10:47
I could have takenLấy him to NewMới YorkYork, and he would have diedchết in a day.
254
632000
3000
Tôi có thể đưa anh ấy đến New York
và anh ấy sẽ chết một ngày nào đó
10:50
(LaughterTiếng cười)
255
635000
2000
(Cười)
10:52
Because we had differentkhác nhau modelsmô hình
256
637000
2000
Vì chúng tôi có những mô hình khác nhau
10:54
baseddựa trên on our differentkhác nhau experienceskinh nghiệm.
257
639000
3000
dựa trên những kinh nghiệm khác nhau.
Những mô hình có thể đến từ phương tiện truyền thông
10:58
ModelsMô hình can come from the mediaphương tiện truyền thông,
258
643000
2000
từ các quan chức được bầu cử của chúng ta.
11:00
from our electedbầu officialsquan chức.
259
645000
3000
11:03
Think of modelsmô hình of terrorismkhủng bố,
260
648000
3000
Hãy nghĩ về mô hình khủng bố,
bắt cóc trẻ con,
11:06
childđứa trẻ kidnappingbắt cóc,
261
651000
3000
an ninh hàng không, an toàn xe hơi.
11:09
airlinehãng hàng không safetyan toàn, carxe hơi safetyan toàn.
262
654000
2000
Những mô hình có thể đến từ công nghiệp.
11:11
ModelsMô hình can come from industryngành công nghiệp.
263
656000
3000
Hai thứ tôi đang theo là camera giám sát
11:14
The two I'm followingtiếp theo are surveillancegiám sát camerasmáy ảnh,
264
659000
2000
11:16
IDID cardsthẻ,
265
661000
2000
thẻ ID.
11:18
quitekhá a lot of our computermáy vi tính securityBảo vệ modelsmô hình come from there.
266
663000
3000
Khá nhiều những mô hình bảo mật máy tính ra đời từ đó.
11:21
A lot of modelsmô hình come from sciencekhoa học.
267
666000
3000
Nhiều mô hình ra đời từ khoa học.
Những mô hình sức khỏe là ví dụ tuyệt vời
11:24
HealthSức khỏe modelsmô hình are a great examplethí dụ.
268
669000
2000
Hãy nghĩ về ung thư, cúm gia cầm, cúm lợn, SARS.
11:26
Think of cancerung thư, of birdchim flucúm, swinelợn flucúm, SARSSARS.
269
671000
3000
11:29
All of our feelingscảm xúc of securityBảo vệ
270
674000
3000
Tất cả những cảm giác an toàn của chúng ta
11:32
about those diseasesbệnh tật
271
677000
2000
về những bệnh đó
đến từ những mô hình
11:34
come from modelsmô hình
272
679000
2000
dành cho chúng ta từ khoa học
11:36
givenđược to us, really, by sciencekhoa học filteredlọc throughxuyên qua the mediaphương tiện truyền thông.
273
681000
3000
được chọn lọc thông qua phương tiện truyền thông
11:40
So modelsmô hình can changethay đổi.
274
685000
3000
Những mô hình có thể thay đổi.
Những mô hình không ổn định.
11:43
ModelsMô hình are not statictĩnh.
275
688000
2000
Khi chúng ta trở nên thoải mái hơn
11:45
As we becometrở nên more comfortableThoải mái in our environmentsmôi trường,
276
690000
3000
trong môi trường của chúng ta
11:48
our modelmô hình can movedi chuyển closergần hơn to our feelingscảm xúc.
277
693000
4000
Mô hình của chúng ta có thể di chuyển đến gần hơn
cảm giác của chúng ta
11:53
So an examplethí dụ mightcó thể be,
278
698000
2000
Một ví dụ,
11:55
if you go back 100 yearsnăm agotrước
279
700000
2000
nếu bạn quay trở lại 100 năm trước
11:57
when electricityđiện was first becomingtrở thành commonchung,
280
702000
3000
khi điện lần đầu tiên trở nên phổ biến,
12:00
there were a lot of fearssợ hãi about it.
281
705000
2000
có nhiều nỗi sợ về nó.
12:02
I mean, there were people who were afraidsợ to pushđẩy doorbellsdoorbells,
282
707000
2000
Ý tôi là, có những người sợ nhấn chuông cửa
12:04
because there was electricityđiện in there, and that was dangerousnguy hiểm.
283
709000
3000
vì có điện trong đó, và nó nguy hiểm
12:07
For us, we're very facilefacile around electricityđiện.
284
712000
3000
Đối với chúng ta, chúng ta rất dễ chịu xung quanh điện
12:10
We changethay đổi lightánh sáng bulbsbóng đèn
285
715000
2000
Chúng ta thay bóng đèn
12:12
withoutkhông có even thinkingSuy nghĩ about it.
286
717000
2000
mà thậm chí không nghĩ về nó.
Mô hình an toàn của chúng ta xung quanh điện
12:14
Our modelmô hình of securityBảo vệ around electricityđiện
287
719000
4000
12:18
is something we were bornsinh ra into.
288
723000
3000
Là một cái gì đó mà khi sinh ra chúng ta đã có.
Nó đã không thay đổi khi chúng ta lớn lên.
12:21
It hasn'tđã không changedđã thay đổi as we were growingphát triển up.
289
726000
3000
12:24
And we're good at it.
290
729000
3000
Và chúng ta giỏi về nó.
Hoặc suy nghĩ về những rủi ro
12:27
Or think of the risksrủi ro
291
732000
2000
12:29
on the InternetInternet acrossbăng qua generationscác thế hệ --
292
734000
2000
trên Internet qua các thế hệ.
12:31
how your parentscha mẹ approachtiếp cận InternetInternet securityBảo vệ,
293
736000
2000
Ba mẹ bạn tiếp cận bảo mật mạng ra sao
12:33
versusđấu với how you do,
294
738000
2000
so với cách bạn làm,
so với cách con cái chúng ta làm.
12:35
versusđấu với how our kidstrẻ em will.
295
740000
3000
Những mô hình cuối cùng đã dần bị bỏ lại phía sau.
12:38
ModelsMô hình eventuallycuối cùng fadephai màu into the backgroundlý lịch.
296
743000
3000
Trực quan chỉ là một cách nói khác của quen thuộc
12:42
IntuitiveTrực quan is just anotherkhác wordtừ for familiarquen.
297
747000
3000
Khi mô hình của bạn gần với thực tế,
12:45
So as your modelmô hình is closegần to realitythực tế,
298
750000
2000
12:47
and it convergeshội tụ with feelingscảm xúc,
299
752000
2000
và nó hội tụ với những cảm xúc,
12:49
you oftenthường xuyên don't know it's there.
300
754000
3000
Bạn thường không biết là nó ở đó.
12:52
So a nicetốt đẹp examplethí dụ of this
301
757000
2000
Một ví dụ về nó
12:54
cameđã đến from last yearnăm and swinelợn flucúm.
302
759000
3000
xảy ra từ năm ngoái và về cúm lợn.
Khi cúm lợn lần đầu xuất hiện,
12:57
When swinelợn flucúm first appearedxuất hiện,
303
762000
2000
12:59
the initialban đầu newsTin tức causedgây ra a lot of overreactionoverreaction.
304
764000
4000
những tin tức ban đầu đã gây ra nhiều phản ứng thái quá
Nó đã có một cái tên,
13:03
Now it had a nameTên,
305
768000
2000
13:05
which madethực hiện it scarierkinh hoàng than the regularđều đặn flucúm,
306
770000
2000
làm nó đáng sợ hơn bệnh cúm thông thường
13:07
even thoughTuy nhiên it was more deadlychết người.
307
772000
2000
thậm chí nghĩ nó gây chết người nhiều hơn.
13:09
And people thought doctorsbác sĩ should be ablecó thể to dealthỏa thuận with it.
308
774000
4000
Và mọi người nghĩ bác sĩ sẽ có khả năng đối phó với nó.
Đó là cảm giác thiếu kiểm soát.
13:13
So there was that feelingcảm giác of lackthiếu sót of controlđiều khiển.
309
778000
2000
13:15
And those two things
310
780000
2000
Và 2 điều đó
đã gây rủi ro nhiều hơn.
13:17
madethực hiện the riskrủi ro more than it was.
311
782000
2000
Điều mới lạ mất dần, nhiều tháng trôi qua
13:19
As the noveltytính mới woređeo off, the monthstháng wentđã đi by,
312
784000
3000
đã có một số chấp nhận,
13:22
there was some amountsố lượng of tolerancelòng khoan dung,
313
787000
2000
mọi người đã quen với nó.
13:24
people got used to it.
314
789000
2000
Không có dữ liệu mới, nỗi sợ ít hơn.
13:26
There was no newMới datadữ liệu, but there was lessít hơn fearnỗi sợ.
315
791000
3000
Đến mùa thu,
13:29
By autumnmùa thu,
316
794000
2000
13:31
people thought
317
796000
2000
mọi người đã nghĩ
các bác sĩ chắc đã giải quyết xong.
13:33
the doctorsbác sĩ should have solvedđã được giải quyết this alreadyđã.
318
798000
2000
Và có sự phân chia
13:35
And there's kindloại of a bifurcationsự phân chia --
319
800000
2000
13:37
people had to choosechọn
320
802000
2000
mà mọi người phải chọn
giữa sợ hãi và chấp nhận
13:39
betweengiữa fearnỗi sợ and acceptancechấp nhận --
321
804000
4000
13:43
actuallythực ra fearnỗi sợ and indifferencethờ ơ --
322
808000
2000
thực chất là sự sợ hãi và sự thờ ơ
13:45
they kindloại of choseđã chọn suspicionnghi ngờ.
323
810000
3000
Họ hơi nghiêng về nghi ngờ.
Khi vắc – xin có vào mùa đông năm ngoái,
13:48
And when the vaccinevắc-xin appearedxuất hiện last wintermùa đông,
324
813000
3000
13:51
there were a lot of people -- a surprisingthật ngạc nhiên numbercon số --
325
816000
3000
đã có nhiều người, một con số bất ngờ,
13:54
who refusedtừ chối to get it --
326
819000
3000
đã từ chối để có được nó
như một ví dụ thú vị
13:58
as a nicetốt đẹp examplethí dụ
327
823000
2000
14:00
of how people'sngười feelingscảm xúc of securityBảo vệ changethay đổi, how theirhọ modelmô hình changesthay đổi,
328
825000
3000
về cảm giác an toàn của mọi người thay đổi như thế nào
cách mà mô hình của họ thay đổi
14:03
sortsắp xếp of wildlywildly
329
828000
2000
hơi kinh khủng
14:05
with no newMới informationthông tin,
330
830000
2000
khi không có thông tin mới,
14:07
with no newMới inputđầu vào.
331
832000
2000
không có tín hiệu mới.
Loại này xảy ra rất nhiều.
14:09
This kindloại of thing happensxảy ra a lot.
332
834000
3000
Tôi sắp cung cấp cho bạn thêm một thứ phức tạp nữa.
14:12
I'm going to give one more complicationbiến chứng.
333
837000
3000
Chúng ta có cảm giác, mô hình, thực tế.
14:15
We have feelingcảm giác, modelmô hình, realitythực tế.
334
840000
3000
Tôi có một cái nhìn rất tương đối về an toàn
14:18
I have a very relativistictương đối viewlượt xem of securityBảo vệ.
335
843000
2000
14:20
I think it dependsphụ thuộc on the observerngười quan sát.
336
845000
3000
Tôi nghĩ nó tùy thuộc vào quan sát viên.
14:23
And mostphần lớn securityBảo vệ decisionsquyết định
337
848000
2000
Và hầu hết những quyết định an toàn
14:25
have a varietyđa dạng of people involvedcó tính liên quan.
338
850000
4000
Có một lượng lớn người tham gia.
Và các bên liên quan
14:29
And stakeholderscác bên liên quan
339
854000
2000
14:31
with specificriêng trade-offsthương mại
340
856000
3000
với những đánh đổi cụ thể
14:34
will try to influenceảnh hưởng the decisionphán quyết.
341
859000
2000
sẽ cố gắng gây ảnh hưởng đến quyết định.
14:36
And I call that theirhọ agendachương trình nghị sự.
342
861000
2000
Tôi gọi đó là chương trình nghị sự của họ.
14:38
And you see agendachương trình nghị sự --
343
863000
2000
Bạn nhìn vào chương trình nghị sự
14:40
this is marketingtiếp thị, this is politicschính trị --
344
865000
3000
đây là tiếp thị, đây là chính trị
đang cố gắng thuyết phục bạn
14:43
tryingcố gắng to convincethuyết phục you to have one modelmô hình versusđấu với anotherkhác,
345
868000
3000
có một mô hình chống lại một cái khác
14:46
tryingcố gắng to convincethuyết phục you to ignorebỏ qua a modelmô hình
346
871000
2000
đang cố thuyết phục bạn bỏ qua một mô hình
14:48
and trustLòng tin your feelingscảm xúc,
347
873000
3000
và tin vào những cảm giác của bạn,
cách ly những người có những mô hình bạn không thích.
14:51
marginalizingmarginalizing people with modelsmô hình you don't like.
348
876000
3000
Điều này không phải là không phổ biến.
14:54
This is not uncommonphổ biến.
349
879000
3000
Một ví dụ, một ví dụ tuyệt vời,
14:57
An examplethí dụ, a great examplethí dụ, is the riskrủi ro of smokinghút thuốc lá.
350
882000
3000
là rủi ro của việc hút thuốc.
15:01
In the historylịch sử of the pastquá khứ 50 yearsnăm, the smokinghút thuốc lá riskrủi ro
351
886000
3000
Trong lịch sử, 50 năm qua, rủi ro của việc hút thuốc
15:04
showstrình diễn how a modelmô hình changesthay đổi,
352
889000
2000
cho thấy một mô hình thay đổi như thế nào,
15:06
and it alsocũng thế showstrình diễn how an industryngành công nghiệp fightschiến đấu againstchống lại
353
891000
3000
nó cũng cho thấy
làm cách nào một nền công nghiệp chống lại
15:09
a modelmô hình it doesn't like.
354
894000
2000
một mô hình mà nó không thích.
15:11
CompareSo sánh that to the secondhand smokehút thuốc lá debatetranh luận --
355
896000
3000
Hãy so sánh với cuộc tranh luận về hút thuốc gián tiếp
15:14
probablycó lẽ about 20 yearsnăm behindphía sau.
356
899000
3000
có thể sau khoảng 20 năm.
Về siết dây an toàn.
15:17
Think about seatghế beltsthắt lưng.
357
902000
2000
15:19
When I was a kidđứa trẻ, no one woređeo a seatghế beltthắt lưng.
358
904000
2000
Khi tôi là một đứa trẻ, không ai siết dây an toàn
15:21
NowadaysNgày nay, no kidđứa trẻ will let you drivelái xe
359
906000
2000
Ngày nay, không đứa trẻ nào sẽ để bạn lái
15:23
if you're not wearingđeo a seatghế beltthắt lưng.
360
908000
2000
nếu bạn không siết dây an toàn.
Hãy so sánh với cuộc tranh luận về túi khí
15:26
CompareSo sánh that to the airbagtúi khí debatetranh luận --
361
911000
2000
15:28
probablycó lẽ about 30 yearsnăm behindphía sau.
362
913000
3000
có thể sau khoảng 30 năm.
15:31
All examplesví dụ of modelsmô hình changingthay đổi.
363
916000
3000
Tất cả là những ví dụ của việc thay đổi mô hình
15:36
What we learnhọc hỏi is that changingthay đổi modelsmô hình is hardcứng.
364
921000
3000
Những gì chúng ta học được là
thay đổi mô hình là việc khó
15:39
ModelsMô hình are hardcứng to dislodgedislodge.
365
924000
2000
Những mô hình rất khó để đánh bật.
15:41
If they equalcông bằng your feelingscảm xúc,
366
926000
2000
Nếu chúng tương đương với cảm giác của bạn,
15:43
you don't even know you have a modelmô hình.
367
928000
3000
Bạn thậm chí không biết bạn có một mô hình.
15:46
And there's anotherkhác cognitivenhận thức biassự thiên vị
368
931000
2000
Và có một thành kiến nhận thức khác
15:48
I'll call confirmationxác nhận biassự thiên vị,
369
933000
2000
tôi sẽ gọi là thành kiến xác nhận,
15:50
where we tendcó xu hướng to acceptChấp nhận datadữ liệu
370
935000
3000
nơi mà chúng ta chấp nhận các dữ liệu
xác nhận niềm tin của chúng ta
15:53
that confirmsxác nhận our beliefsniềm tin
371
938000
2000
15:55
and rejecttừ chối datadữ liệu that contradictsmâu thuẫn với our beliefsniềm tin.
372
940000
3000
và bác bỏ những dữ liệu
trái ngược với niềm tin của chúng ta
15:59
So evidencechứng cớ againstchống lại our modelmô hình,
373
944000
2000
Bằng chứng chống lại mô hình của chúng ta,
16:01
we're likelycó khả năng to ignorebỏ qua, even if it's compellinghấp dẫn.
374
946000
3000
có khả năng chúng ta bác bỏ, ngay cả khi nó thuyết phục.
16:04
It has to get very compellinghấp dẫn before we'lltốt paytrả attentionchú ý.
375
949000
3000
Nó phải rất thuyết phục trước khi chúng ta chú ý đến
16:08
NewMới modelsmô hình that extendmở rộng long periodskinh nguyệt of time are hardcứng.
376
953000
2000
Những mô hình mới
rất khó kéo dài thêm một khoảng thời gian.
16:10
GlobalToàn cầu warmingsự nóng lên is a great examplethí dụ.
377
955000
2000
Nóng lên toàn cầu là ví dụ điển hình
16:12
We're terriblekhủng khiếp
378
957000
2000
Chúng ta thấy khủng khiếp
16:14
at modelsmô hình that spannhịp 80 yearsnăm.
379
959000
2000
với những mô hình trải qua 80 năm.
16:16
We can do to the nextkế tiếp harvestmùa gặt.
380
961000
2000
Chúng ta có thể làm đến vụ thu hoạch sau
16:18
We can oftenthường xuyên do untilcho đến our kidstrẻ em growlớn lên up.
381
963000
3000
Chúng ta có thể làm thường xuyên
đến khi con cái chúng ta lớn lên
16:21
But 80 yearsnăm, we're just not good at.
382
966000
3000
Nhưng 80 năm, chúng ta không giỏi.
16:24
So it's a very hardcứng modelmô hình to acceptChấp nhận.
383
969000
3000
Nó là một mô hình rất khó để chấp nhận.
16:27
We can have bothcả hai modelsmô hình in our headcái đầu simultaneouslyđồng thời,
384
972000
4000
Chúng ta có thể có cả hai mô hình trong đầu cùng lúc
đúng vậy, đó là một vấn đề
16:31
right, that kindloại of problemvấn đề
385
976000
3000
16:34
where we're holdinggiữ bothcả hai beliefsniềm tin togethercùng với nhau,
386
979000
3000
nơi mà chúng ta đang nắm giữ cả hai niềm tin
16:37
right, the cognitivenhận thức dissonancedissonance.
387
982000
2000
Đúng vậy, sự bất hòa nhận thức.
16:39
EventuallyCuối cùng,
388
984000
2000
Cuối cùng,
mô hình mới sẽ thay thế mô hình cũ.
16:41
the newMới modelmô hình will replacethay thế the old modelmô hình.
389
986000
3000
Những cảm giác mạnh mẽ có thể tạo ra một mô hình.
16:44
StrongMạnh mẽ feelingscảm xúc can createtạo nên a modelmô hình.
390
989000
3000
Ngày 11 tháng 9 đã tạo ra một mô hình an ninh
16:47
SeptemberTháng chín 11ththứ createdtạo a securityBảo vệ modelmô hình
391
992000
3000
16:50
in a lot of people'sngười headsđầu.
392
995000
2000
trong đầu của nhiều người.
16:52
AlsoCũng, personalcá nhân experienceskinh nghiệm with crimetội ác can do it,
393
997000
3000
Những trải nghiệm cá nhân về tội phạm cũng có thể làm điều đó
16:55
personalcá nhân healthSức khỏe scaresợ hãi,
394
1000000
2000
nỗi lo sợ về sức khỏe cá nhân,
một nỗi sợ về sức khỏe trong các tin tức.
16:57
a healthSức khỏe scaresợ hãi in the newsTin tức.
395
1002000
2000
16:59
You'llBạn sẽ see these calledgọi là flashbulbflashbulb eventssự kiện
396
1004000
2000
Bạn có thể thấy những cái được gọi là sự kiện bóng đèn
17:01
by psychiatristsbác sĩ tâm thần.
397
1006000
2000
bởi những chuyên gia tâm thần.
17:03
They can createtạo nên a modelmô hình instantaneouslyngay lập tức,
398
1008000
3000
Họ có thể tạo ra một mô hình ngay tức thì,
17:06
because they're very emotiveđa cảm.
399
1011000
3000
bởi vì họ rất đa cảm.
Trong thế giới công nghệ,
17:09
So in the technologicaltínhór แทน użyciu แห่ง แทน แทน แทน ustaw worldthế giới,
400
1014000
2000
17:11
we don't have experiencekinh nghiệm
401
1016000
2000
chúng ta không có kinh nghiệm
để đánh giá mô hình.
17:13
to judgethẩm phán modelsmô hình.
402
1018000
2000
Chúng ta dựa vào những cái khác.
17:15
And we relydựa on othersKhác. We relydựa on proxiesproxy.
403
1020000
2000
Chúng ta dựa vào sự ủy nhiệm.
17:17
I mean, this workscông trinh as long as it's to correctchính xác othersKhác.
404
1022000
4000
Ý tôi là, nó hoạt động
miễn sao nó khắc phục những cái khác
Chúng ta dựa vào những cơ quan chính phủ
17:21
We relydựa on governmentchính quyền agenciescơ quan
405
1026000
2000
17:23
to tell us what pharmaceuticalsdược phẩm are safean toàn.
406
1028000
5000
để cho chúng ta biết dược phẩm nào an toàn.
17:28
I flewbay here yesterdayhôm qua.
407
1033000
2000
Tôi đã bay đến đây ngày hôm qua.
17:30
I didn't checkkiểm tra the airplaneMáy bay.
408
1035000
2000
Tôi đã không kiểm tra máy bay.
17:32
I reliedDựa on some other groupnhóm
409
1037000
2000
Tôi đã dựa vào vài nhóm khác
17:34
to determinemục đích whetherliệu my planemáy bay was safean toàn to flybay.
410
1039000
3000
để xác định liệu máy bay có an toàn để bay
17:37
We're here, nonekhông ai of us fearnỗi sợ the roofmái nhà is going to collapsesự sụp đổ on us,
411
1042000
3000
Chúng ta ở đây, không ai trong chúng ta sợ
mái nhà đang sắp sửa sụp đổ xuống
17:40
not because we checkedđã kiểm tra,
412
1045000
3000
không phải vì chúng ta đã kiểm tra,
mà vì chúng ta khá chắc rằng
17:43
but because we're prettyđẹp sure
413
1048000
2000
tiêu chuẩn xây dựng ở đây là tốt.
17:45
the buildingTòa nhà codesMã số here are good.
414
1050000
3000
Nó là một mô hình chúng ta chỉ chấp nhận
17:48
It's a modelmô hình we just acceptChấp nhận
415
1053000
2000
17:50
prettyđẹp much by faithđức tin.
416
1055000
2000
khá nhiều bởi lòng tin.
17:52
And that's okay.
417
1057000
3000
Và nó ổn.
17:57
Now, what we want
418
1062000
2000
Bây giờ, những gì chúng ta muốn
17:59
is people to get familiarquen enoughđủ
419
1064000
2000
là mọi người đủ quen thuộc
18:01
with better modelsmô hình --
420
1066000
2000
với những mô hình tốt hơn.
18:03
have it reflectedphản ánh in theirhọ feelingscảm xúc --
421
1068000
2000
nó được phản ánh trong cảm giác của họ
18:05
to allowcho phép them to make securityBảo vệ trade-offsthương mại.
422
1070000
4000
cho phép họ thực hiện những đánh đổi an toàn
Khi những điều này không trùng khớp,
18:09
Now when these go out of whackđánh đòn,
423
1074000
2000
18:11
you have two optionslựa chọn.
424
1076000
2000
Bạn có 2 lựa chọn.
18:13
One, you can fixsửa chữa people'sngười feelingscảm xúc,
425
1078000
2000
Một, bạn có thể sửa cảm giác của mọi người
18:15
directlytrực tiếp appealkháng cáo to feelingscảm xúc.
426
1080000
2000
phản đối trực tiếp những cảm giác.
18:17
It's manipulationthao túng, but it can work.
427
1082000
3000
Nó là thao tác, nhưng nó có thể làm được.
18:20
The secondthứ hai, more honestthật thà way
428
1085000
2000
Thứ hai, cách trung thực hơn
18:22
is to actuallythực ra fixsửa chữa the modelmô hình.
429
1087000
3000
là thực sự sửa chữa mô hình.
Thay đổi xảy ra chậm.
18:26
ChangeThay đổi happensxảy ra slowlychậm rãi.
430
1091000
2000
18:28
The smokinghút thuốc lá debatetranh luận tooklấy 40 yearsnăm,
431
1093000
3000
Cuộc tranh luận về hút thuốc mất 40 năm,
18:31
and that was an easydễ dàng one.
432
1096000
3000
và đó là một cách dễ dàng.
Vài thứ trong số này là khó khăn.
18:34
Some of this stuffđồ đạc is hardcứng.
433
1099000
2000
18:36
I mean really thoughTuy nhiên,
434
1101000
2000
Nghĩa là, thực sự,
18:38
informationthông tin seemsdường như like our besttốt hopemong.
435
1103000
2000
mặc dù thông tin
có vẻ giống như hy vọng lớn nhất của chúng ta
18:40
And I liednói dối.
436
1105000
2000
Tôi đã nói dối.
18:42
RememberHãy nhớ I said feelingcảm giác, modelmô hình, realitythực tế;
437
1107000
2000
Hãy nhớ tôi đã nói về cảm giác, mô hình, thực tế
18:44
I said realitythực tế doesn't changethay đổi. It actuallythực ra does.
438
1109000
3000
tôi nói thực tế không thay đổi. Nó thực sự thay đổi
18:47
We livetrực tiếp in a technologicaltínhór แทน użyciu แห่ง แทน แทน แทน ustaw worldthế giới;
439
1112000
2000
Chúng ta sống trong thế giới công nghệ
18:49
realitythực tế changesthay đổi all the time.
440
1114000
3000
Thực tế thay đổi mọi lúc.
18:52
So we mightcó thể have -- for the first time in our speciesloài --
441
1117000
3000
Vì thế có lẽ, lần đầu tiên trong loài chúng ta
cảm giác đuổi theo mô hình, mô hình đuổi theo thực tế
18:55
feelingcảm giác chasesđuổi theo bắt modelmô hình, modelmô hình chasesđuổi theo bắt realitythực tế, reality'sthực tế của movingdi chuyển --
442
1120000
3000
thực tế chuyển động
18:58
they mightcó thể never catchbắt lấy up.
443
1123000
3000
Chúng có thể không bao giờ đuổi kịp.
19:02
We don't know.
444
1127000
2000
Chúng ta không biết.
19:04
But in the long-termdài hạn,
445
1129000
2000
Nhưng về lâu dài,
19:06
bothcả hai feelingcảm giác and realitythực tế are importantquan trọng.
446
1131000
3000
cả cảm giác và thực tế đều quan trọng
19:09
And I want to closegần with two quicknhanh chóng storiesnhững câu chuyện to illustrateMinh họa this.
447
1134000
3000
Và tôi muốn kết thúc bằng hai câu chuyện ngắn
để minh họa điều đó.
19:12
1982 -- I don't know if people will remembernhớ lại this --
448
1137000
2000
Năm 1982, tôi không biết mọi người có nhớ
19:14
there was a shortngắn epidemicustaw teraz teraz
449
1139000
3000
có một dịch bệnh
19:17
of TylenolTylenol poisoningsngộ in the UnitedVương StatesTiểu bang.
450
1142000
2000
ngộ độc Tylenol tại Hoa Kỳ.
Đó là một câu chuyện khủng khiếp
19:19
It's a horrifickinh khủng storycâu chuyện. SomeoneAi đó tooklấy a bottlechai of TylenolTylenol,
451
1144000
3000
Ai đó đã lấy một chai Tylenol
19:22
put poisonchất độc in it, closedđóng it up, put it back on the shelfkệ.
452
1147000
3000
cho thuốc độc vào, đậy nắp lại, đặt nó trở lại trên kệ
19:25
SomeoneAi đó elsekhác boughtđã mua it and diedchết.
453
1150000
2000
Có người khác đã mua nó và đã chết.
19:27
This terrifiedsợ people.
454
1152000
2000
Điều này làm mọi người sợ hãi.
19:29
There were a couplevợ chồng of copycatcopycat attackstấn công.
455
1154000
2000
Đã có vài ba vụ tấn công bắt chước.
19:31
There wasn'tkhông phải là any realthực riskrủi ro, but people were scaredsợ hãi.
456
1156000
3000
Không có bất kỳ rủi ro thực sự
nhưng mọi người đã sợ hãi
19:34
And this is how
457
1159000
2000
Và đây là cách
mà ngành công nghiệp thuốc chống trộm được phát minh
19:36
the tamper-proofbằng chứng giả mạo drugthuốc uống industryngành công nghiệp was inventedphát minh.
458
1161000
2000
19:38
Those tamper-proofbằng chứng giả mạo caps, that cameđã đến from this.
459
1163000
2000
Những nắp chống trộm ra đời từ việc này.
19:40
It's completehoàn thành securityBảo vệ theaterrạp hát.
460
1165000
2000
Nó hoàn toàn là rạp chiếu an ninh.
19:42
As a homeworkbài tập về nhà assignmentnhiệm vụ, think of 10 wayscách to get around it.
461
1167000
2000
Như một bài tập về nhà, hãy nghĩ 10 cách để đối phó nó
19:44
I'll give you one, a syringeống tiêm.
462
1169000
3000
Tôi sẽ cho bạn một cách, một ống tiêm.
Nhưng nó làm mọi người cảm thấy tốt hơn.
19:47
But it madethực hiện people feel better.
463
1172000
3000
Nó làm cảm giác của họ về an toàn
19:50
It madethực hiện theirhọ feelingcảm giác of securityBảo vệ
464
1175000
2000
19:52
more matchtrận đấu the realitythực tế.
465
1177000
2000
khớp với thực tế hơn.
19:54
Last storycâu chuyện, a fewvài yearsnăm agotrước, a friendngười bạn of minetôi gaveđưa ra birthSinh.
466
1179000
3000
Câu chuyện cuối cùng, vài năm trước
một người bạn của tôi sinh con
19:57
I visitchuyến thăm her in the hospitalbệnh viện.
467
1182000
2000
Tôi đến thăm cô ấy trong bệnh viện.
19:59
It turnslượt out when a baby'sem bé bornsinh ra now,
468
1184000
2000
Hóa ra bây giờ, khi một em bé được sinh ra
20:01
they put an RFIDRFID braceletvòng đeo tay on the babyđứa bé,
469
1186000
2000
họ đeo một vòng tay RFID lên em bé,
20:03
put a correspondingtương ứng one on the mothermẹ,
470
1188000
2000
và một cái tương ứng lên người mẹ,
20:05
so if anyonebất kỳ ai other than the mothermẹ takes the babyđứa bé out of the maternitythai sản wardkhu vực,
471
1190000
2000
vì thế bất cứ ai khác bế em bé đi khỏi nhà hộ sinh
20:07
an alarmbáo thức goesđi off.
472
1192000
2000
Cảnh báo hoạt động.
Tôi đã nói, “Chà, thật rõ ràng.
20:09
I said, "Well, that's kindloại of neatkhéo léo.
473
1194000
2000
Tôi tự hỏi
20:11
I wonderngạc nhiên how rampanthung hăng babyđứa bé snatchinggiật is
474
1196000
2000
nạn bắt cóc trẻ em ngoài bệnh viện tràn lan thế nào".
20:13
out of hospitalsbệnh viện."
475
1198000
2000
20:15
I go home, I look it up.
476
1200000
2000
Tôi về nhà. Tôi tìm hiểu
Nó cơ bản không bao giờ xảy ra.
20:17
It basicallyvề cơ bản never happensxảy ra.
477
1202000
2000
20:19
But if you think about it,
478
1204000
2000
Nhưng nếu bạn nghĩ về nó,
20:21
if you are a hospitalbệnh viện,
479
1206000
2000
nếu bạn là một bệnh viện,
20:23
and you need to take a babyđứa bé away from its mothermẹ,
480
1208000
2000
và bạn cần lấy em bé đi xa khỏi mẹ nó,
20:25
out of the roomphòng to runchạy some testskiểm tra,
481
1210000
2000
ra khỏi phòng để làm một số xét nghiệm,
20:27
you better have some good securityBảo vệ theaterrạp hát,
482
1212000
2000
tốt hơn bạn nên có vài rạp chiếu an ninh
20:29
or she's going to ripYên nghỉ your armcánh tay off.
483
1214000
2000
hoặc cô ấy sẽ chặt tay bạn ra.
20:31
(LaughterTiếng cười)
484
1216000
2000
(Cười)
20:33
So it's importantquan trọng for us,
485
1218000
2000
Nó quan trọng đối với chúng ta,
20:35
those of us who designthiết kế securityBảo vệ,
486
1220000
2000
những người trong chúng ta thiết kế an ninh
20:37
who look at securityBảo vệ policychính sách,
487
1222000
3000
những người nhìn vào chính sách bảo mật,
hay thậm chí nhìn vào chính sách công cộng
20:40
or even look at publiccông cộng policychính sách
488
1225000
2000
20:42
in wayscách that affectcó ảnh hưởng đến securityBảo vệ.
489
1227000
2000
theo những cách ảnh hưởng đến an toàn.
20:44
It's not just realitythực tế; it's feelingcảm giác and realitythực tế.
490
1229000
3000
Nó không chỉ là thực tế, nó là cảm giác và thực tế
20:47
What's importantquan trọng
491
1232000
2000
Điều quan trọng
20:49
is that they be about the sametương tự.
492
1234000
2000
là chúng gần như giống nhau.
20:51
It's importantquan trọng that, if our feelingscảm xúc matchtrận đấu realitythực tế,
493
1236000
2000
Nó quan trọng rằng,
nếu cảm giác của chúng ta phù hợp với thực tế
20:53
we make better securityBảo vệ trade-offsthương mại.
494
1238000
2000
chúng ta thực hiện những đánh đổi an toàn tốt hơn.
20:55
Thank you.
495
1240000
2000
Xin cảm ơn.
20:57
(ApplauseVỗ tay)
496
1242000
2000
(Vỗ tay)
Translated by Diem Hoang
Reviewed by Mai Nguyen

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com