ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

بروس شنيير: سراب الأمن

Filmed:
958,315 views

يقول خبير أمن معلومات الحاسوب بروس شنيير أن الشعور بالأمن و حقيقة الأمن لا يتطابقان دائما. في "تيد إكس بي أس يو"، يفسر بروس لماذا نصرف المليارات لنبين قصص إخبارية للمخاطر, مثل "مسرح الأمن" الآن يتم عرضها في مطاركم المحلي، في حين إهمالنا مخاطر أكثر احتمالا -- و كيف بإمكننا كسر هذه النمطية.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securityالأمان is two differentمختلف things:
0
0
2000
إذن الأمن هو شيئان مختلفان:
00:17
it's a feelingشعور, and it's a realityواقع.
1
2000
2000
إنه إحساس، و إنه حقيقة.
00:19
And they're differentمختلف.
2
4000
2000
و هما مختلفان.
00:21
You could feel secureتأمين
3
6000
2000
تسطيعون الإحساس بالأمان
00:23
even if you're not.
4
8000
2000
حتى لو لم تكونوا آمنين.
00:25
And you can be secureتأمين
5
10000
2000
و تستطيعون أن تكونوا بأمان
00:27
even if you don't feel it.
6
12000
2000
حتى لو لم تشعروا بذلك.
00:29
Really, we have two separateمنفصل conceptsالمفاهيم
7
14000
2000
فعلا، إنهما فكرتان مستقلتان
00:31
mappedتعيين ontoعلى the sameنفسه wordكلمة.
8
16000
2000
وضعا في كلمة واحدة.
00:33
And what I want to do in this talk
9
18000
2000
و ما أريد أن أفعله في هذه المحاضرة
00:35
is to splitانشق، مزق them apartبعيدا، بمعزل، على حد --
10
20000
2000
هو فصلهما عن بعض --
00:37
figuringكشف out when they divergeتباعد
11
22000
2000
معرفة أين ينحرفان
00:39
and how they convergeتقارب.
12
24000
2000
و أين يقتربان.
00:41
And languageلغة is actuallyفعلا a problemمشكلة here.
13
26000
2000
و اللغة حقا مشكلة هنا.
00:43
There aren'tلا a lot of good wordsكلمات
14
28000
2000
لا يوجد كثير من الكلمات الجيدة
00:45
for the conceptsالمفاهيم we're going to talk about.
15
30000
3000
للأفكار التي سنتكلم عنها.
00:48
So if you look at securityالأمان
16
33000
2000
فلو نظرتم إلى الأمن
00:50
from economicاقتصادي termsشروط,
17
35000
2000
من ناحية اقتصادية،
00:52
it's a trade-offالتنازل عن ميزة ممن أجل الحصول على أخرى.
18
37000
2000
إنه مقايضة.
00:54
Everyكل time you get some securityالأمان,
19
39000
2000
كل مرة تحصلون فيها على بعض الأمن،
00:56
you're always tradingتجارة off something.
20
41000
2000
دائما تقايضونه بشيء.
00:58
Whetherسواء this is a personalالشخصية decisionقرار --
21
43000
2000
سواء أن كان قرار شخصيا --
01:00
whetherسواء you're going to installالتثبت a burglarلص alarmإنذار in your home --
22
45000
2000
سواء كنتم ستركبون جرس إنذار عن اللصوص في بيوتكم --
01:02
or a nationalالوطني decisionقرار -- where you're going to invadeغزا some foreignأجنبي countryبلد --
23
47000
3000
أو قرارا وطنيا -- سواء أن كنتم ستحتلون بلدا أجنبيا --
01:05
you're going to tradeتجارة off something,
24
50000
2000
ستقومون بمقايضة شيئ ما،
01:07
eitherإما moneyمال or time, convenienceالسهولة أو الراحة, capabilitiesقدرات,
25
52000
3000
إما النقود أو الوقت، الراحة، القدرات،
01:10
maybe fundamentalأساسي libertiesالحريات.
26
55000
3000
ربما حريات أساسية.
01:13
And the questionسؤال to askيطلب when you look at a securityالأمان anything
27
58000
3000
و السؤال الذي يطرح عند النظر إلى أمن أي شيء
01:16
is not whetherسواء this makesيصنع us saferأكثر أمانا,
28
61000
3000
هو ليس هل بإمكانه أن يجعلنا بأمان أكبر،
01:19
but whetherسواء it's worthيستحق the trade-offالتنازل عن ميزة ممن أجل الحصول على أخرى.
29
64000
3000
لكن هل هو يستحق المقايضة.
01:22
You've heardسمعت in the pastالماضي severalالعديد من yearsسنوات,
30
67000
2000
سمعتم في السنوات القليلة التي مضت،
01:24
the worldالعالمية is saferأكثر أمانا because Saddamصدام Husseinحسين is not in powerقوة.
31
69000
2000
أن العالم مكان آمن أكثر لأن صدام حسين ليس بالحكم.
01:26
That mightربما be trueصحيح, but it's not terriblyرهيب relevantذو صلة.
32
71000
3000
قد يكون هذا حقيقي، لكنه ليس تماما ذو صلة قوية.
01:29
The questionسؤال is, was it worthيستحق it?
33
74000
3000
السؤال هو، هل كان يستحق ذلك؟
01:32
And you can make your ownخاصة decisionقرار,
34
77000
3000
و تسطيعون صنع القرار بأنفسكم،
01:35
and then you'llعليك decideقرر whetherسواء the invasionغزو was worthيستحق it.
35
80000
2000
و بعدها تقررون إن كان الاحتلال ذو قيمة.
01:37
That's how you think about securityالأمان --
36
82000
2000
هكذا كيف تفكرون بالأمن --
01:39
in termsشروط of the trade-offالتنازل عن ميزة ممن أجل الحصول على أخرى.
37
84000
2000
بمصطلحات المقايضة.
01:41
Now there's oftenغالبا no right or wrongخطأ here.
38
86000
3000
الآن لا يوجد صواب أو خطأ هنا.
01:44
Some of us have a burglarلص alarmإنذار systemالنظام at home,
39
89000
2000
بعضنا لديه في البيت جرس إنذار عن اللصوص،
01:46
and some of us don't.
40
91000
2000
و بعضنا ليس لديه.
01:48
And it'llأنه سوف dependتعتمد on where we liveحي,
41
93000
2000
و كل هذا يعتمد على أين نعيش،
01:50
whetherسواء we liveحي aloneوحده or have a familyأسرة,
42
95000
2000
هل نعيش لوحدنا أو مع عائلتنا،
01:52
how much coolبارد stuffأمور we have,
43
97000
2000
ما عدد الأشياء القيمة التي لدينا،
01:54
how much we're willingراغب to acceptقبول
44
99000
2000
ما مدى تتقبلنا
01:56
the riskخطر of theftسرقة.
45
101000
2000
لمخاطرة السرقة.
01:58
In politicsسياسة alsoأيضا,
46
103000
2000
في السياسة أيضا،
02:00
there are differentمختلف opinionsالآراء.
47
105000
2000
هناك آراء مختلفة.
02:02
A lot of timesمرات, these trade-offsالمقايضات
48
107000
2000
كثير من المرات، هذه المقايضات
02:04
are about more than just securityالأمان,
49
109000
2000
عن أشياء أكثر من الأمن ،
02:06
and I think that's really importantمهم.
50
111000
2000
و أظن أن هذا حقا مهم.
02:08
Now people have a naturalطبيعي >> صفة intuitionحدس
51
113000
2000
الآن الناس لديهم حاسة طبيعية
02:10
about these trade-offsالمقايضات.
52
115000
2000
لهذه المقايضات.
02:12
We make them everyكل day --
53
117000
2000
نقوم بعملها كل يوم--
02:14
last night in my hotelالفندق roomمجال,
54
119000
2000
البارحة في غرفتي الفندقية،
02:16
when I decidedقرر to double-lockقفل مزدوج the doorباب,
55
121000
2000
عندما قررت أن أضاعف قفل الباب،
02:18
or you in your carسيارة when you droveقاد here,
56
123000
2000
أو عندما قدتم سيارتكم إلى هنا،
02:20
when we go eatتأكل lunchغداء
57
125000
2000
عندما نذهب لتناول الغداء
02:22
and decideقرر the food'sفي الغذاء not poisonسم and we'llحسنا eatتأكل it.
58
127000
3000
و نقرر أن الأكل ليس مسموم لنأكله.
02:25
We make these trade-offsالمقايضات again and again,
59
130000
2000
نحن نقوم بهذه المقايضات مرارا و تكرارا
02:27
multipleمضاعف timesمرات a day.
60
132000
2000
عدة مرات في اليوم.
02:29
We oftenغالبا won'tمتعود even noticeتنويه them.
61
134000
2000
عادة لا نلاحظها حتى.
02:31
They're just partجزء of beingيجرى aliveعلى قيد الحياة; we all do it.
62
136000
2000
أنها جزء من كوننا على قيد الحياة; كلنا نقوم بها.
02:33
Everyكل speciesمحيط does it.
63
138000
3000
كل المخلوقات تقوم بها.
02:36
Imagineتخيل a rabbitأرنب in a fieldحقل, eatingيتناول الطعام grassنجيل,
64
141000
2000
تخيلوا الأرنب في الحقل، يأكل العشب،
02:38
and the rabbit'sالأرنب going to see a foxثعلب.
65
143000
3000
و سيرى الأرنب ثعلبا.
02:41
That rabbitأرنب will make a securityالأمان trade-offالتنازل عن ميزة ممن أجل الحصول على أخرى:
66
146000
2000
ذلك الأرنب سيقوم بمقايضة:
02:43
"Should I stayالبقاء, or should I fleeهرب?"
67
148000
2000
"هل علي المكوث، أو هل علي الهروب؟"
02:45
And if you think about it,
68
150000
2000
و لو فكرتم بها،
02:47
the rabbitsالأرانب that are good at makingصناعة that trade-offالتنازل عن ميزة ممن أجل الحصول على أخرى
69
152000
3000
الأرانب الجيدة في عمل تلك المقايضة
02:50
will tendتميل to liveحي and reproduceإعادة إنتاج,
70
155000
2000
هي التي ستعيش و تنجب،
02:52
and the rabbitsالأرانب that are badسيئة at it
71
157000
2000
و الأرانب السيئة فيها
02:54
will get eatenتؤكل or starveجاع.
72
159000
2000
ستؤكل أو تموت من الجوع.
02:56
So you'dكنت think
73
161000
2000
و ستفكرون
02:58
that us, as a successfulناجح speciesمحيط on the planetكوكب --
74
163000
3000
أن نحن، ككائنات ناجحة على الأرض --
03:01
you, me, everybodyالجميع --
75
166000
2000
أنتم، أنا، كلنا --
03:03
would be really good at makingصناعة these trade-offsالمقايضات.
76
168000
3000
سنكون حقا جيدين في عمل هذه المقايضات.
03:06
Yetبعد it seemsيبدو, again and again,
77
171000
2000
و مع ذلك يبدو، مرارا و تكرار،
03:08
that we're hopelesslyميؤوس badسيئة at it.
78
173000
3000
أننا سيئون بها لليأس.
03:11
And I think that's a fundamentallyفي الأساس interestingمثير للإعجاب questionسؤال.
79
176000
3000
و أن هذا سؤال مثير جدا للاهتمام.
03:14
I'll give you the shortقصيرة answerإجابة.
80
179000
2000
سأعطيكم الجواب القصير.
03:16
The answerإجابة is, we respondرد to the feelingشعور of securityالأمان
81
181000
2000
الإجابة هي، نحن نستجيب إلى الاحساس بالأمن
03:18
and not the realityواقع.
82
183000
3000
و ليس الحقيقة.
03:21
Now mostعظم of the time, that worksأعمال.
83
186000
3000
الآن في معظم الأوقات، هذا يعمل.
03:25
Mostعظم of the time,
84
190000
2000
في معظم الوقت،
03:27
feelingشعور and realityواقع are the sameنفسه.
85
192000
3000
الاحساس بالأمن و حقيقة الأمن هما الشىء نفسه.
03:30
Certainlyمن المؤكد that's trueصحيح
86
195000
2000
بالتأكيد هذا صحيح
03:32
for mostعظم of humanبشري prehistoryقبل التاريخ.
87
197000
3000
لمعظم التاريخ ما قبل البشري.
03:35
We'veقمنا developedالمتقدمة this abilityالقدرة
88
200000
3000
نحن بنينا هذه المقدرة
03:38
because it makesيصنع evolutionaryتطوري senseإحساس.
89
203000
2000
لأنها تعطي شعورا تطويريا.
03:40
One way to think of it
90
205000
2000
إحدى الطرق التي نفكر بها
03:42
is that we're highlyجدا optimizedالأمثل
91
207000
2000
هي أننا نحن محسنين
03:44
for riskخطر decisionsقرارات
92
209000
2000
للقرارات الخطرة
03:46
that are endemicالمتوطنة to livingالمعيشة in smallصغير familyأسرة groupsمجموعة
93
211000
3000
المتطورة لعيشنا في مجموعات عائلية صغيرة
03:49
in the Eastالشرق Africanالأفريقي highlandsالمرتفعات in 100,000 B.C.
94
214000
3000
في مرتفعات شرق أفريقا في ١٠٠،٠٠٠ قبل الميلاد --
03:52
2010 Newالجديد Yorkيورك, not so much.
95
217000
3000
٢٠١٠ نيويورك، ليس كثيرا.
03:56
Now there are severalالعديد من biasesالتحيزات in riskخطر perceptionالمعرفة.
96
221000
3000
الآن هناك عدة من التحيزات في النظرة إلى الأخطار.
03:59
A lot of good experimentsتجارب in this.
97
224000
2000
الكثير من التجارب الجيدة في هذا.
04:01
And you can see certainالمؤكد biasesالتحيزات that come up again and again.
98
226000
3000
و تستطيعون أن تروا تحيزات معينة تعاد مرارا و تكرارا.
04:04
So I'll give you fourأربعة.
99
229000
2000
سوف أعطيكم أربعة.
04:06
We tendتميل to exaggerateمبالغة spectacularمذهل and rareنادر risksالمخاطر
100
231000
3000
نحن نميل إلى المبالغة في مخاطر مذهلة و نادرة
04:09
and downplayالتقليل commonمشترك risksالمخاطر --
101
234000
2000
و نقلل من شأن المخاطر المتداولة --
04:11
so flyingطيران versusمقابل drivingالقيادة.
102
236000
3000
فالطيران مقابل القيادة.
04:14
The unknownغير معروف is perceivedمحسوس - ملموس
103
239000
2000
ينظر إلى المجهول
04:16
to be riskierخطورة than the familiarمألوف.
104
241000
3000
أنه أكثر خطرا من المعروف.
04:20
One exampleمثال would be,
105
245000
2000
أحد الأمثلة هو،
04:22
people fearخوف kidnappingخطف by strangersالغرباء
106
247000
3000
الناس يخافون الاختطاف من الغرباء،
04:25
when the dataالبيانات supportsالدعم kidnappingخطف by relativesأقارب is much more commonمشترك.
107
250000
3000
في حين أن المعلومات تدعم أن الاختطاف من قبل الأقرباء هو أكثر انتشارا.
04:28
This is for childrenالأطفال.
108
253000
2000
هذا بالنسبة للأطفال.
04:30
Thirdالثالث, personifiedجسد risksالمخاطر
109
255000
3000
ثالثا، الأخطار المجسدة
04:33
are perceivedمحسوس - ملموس to be greaterأكبر than anonymousمجهول risksالمخاطر --
110
258000
3000
ينظر إليها باعتبار أكبر من الأخطار المجهولة --
04:36
so Binبن Ladenمثقل is scarierاخافة because he has a nameاسم.
111
261000
3000
فبن لادن هو أخطر لأن له اسما.
04:39
And the fourthرابع
112
264000
2000
و رابعا
04:41
is people underestimateيقلل من شأن risksالمخاطر
113
266000
2000
الناس تقلل من شأن الأخطار
04:43
in situationsمواقف they do controlمراقبة
114
268000
2000
في المواقف التي يكونون فيها تحت السيطرة
04:45
and overestimateتقدير مبالغ فيه them in situationsمواقف they don't controlمراقبة.
115
270000
4000
و يبالغون فيها في المواقف التي ليس لديهم فيها سيطرة.
04:49
So onceذات مرة you take up skydivingالقفز بالمظلات or smokingتدخين,
116
274000
3000
في حال أن تقوموا بالقفز بالمظلات أو التدخين،
04:52
you downplayالتقليل the risksالمخاطر.
117
277000
2000
أنتم تقللون من أهمية الخطر.
04:54
If a riskخطر is thrustدفع uponبناء على you -- terrorismإرهاب was a good exampleمثال --
118
279000
3000
لو أن الخطر ظهر أمامكم -- الإرهاب مثال جيد--
04:57
you'llعليك overplayفرط في الإعجاب بنفسه it because you don't feel like it's in your controlمراقبة.
119
282000
3000
ستفرطون به، لأنكم لا تشعرون بأن لديكم سيطرة عليه.
05:02
There are a bunchباقة of other of these biasesالتحيزات, these cognitiveالإدراكي biasesالتحيزات,
120
287000
3000
هناك العديد من هذه التحيزات ، كلها تحيزات إدراكية،
05:05
that affectتؤثر our riskخطر decisionsقرارات.
121
290000
3000
تؤثر على قراراتنا للخطر.
05:08
There's the availabilityتوفر heuristicارشادي,
122
293000
2000
هناك إرشادية التوفر،
05:10
whichالتي basicallyفي الأساس meansيعني
123
295000
2000
و الذي أساسا يعني
05:12
we estimateتقدير the probabilityاحتمالا of something
124
297000
3000
أننا نقدر احتمالية أمر ما
05:15
by how easyسهل it is to bringاحضر instancesالحالات of it to mindعقل.
125
300000
4000
حسب سهولة حضوره إلى ذهننا.
05:19
So you can imagineتخيل how that worksأعمال.
126
304000
2000
فتسطيعون تخيل كيف يعمل هذا.
05:21
If you hearسمع a lot about tigerنمر attacksهجمات, there mustيجب be a lot of tigersالنمور around.
127
306000
3000
إذا سمعتم الكثير عن خطورة هجمات النمور، لابد أن يكون هنالك نمورا كثيرة في المنطقة.
05:24
You don't hearسمع about lionأسد attacksهجمات, there aren'tلا a lot of lionsأسود around.
128
309000
3000
لا تسمعون عن هجوم الأسود، لا توجد أسود كثيرة هنا.
05:27
This worksأعمال untilحتى you inventاخترع newspapersالصحف.
129
312000
3000
هذا يعمل حتى اخترعت الجرائد.
05:30
Because what newspapersالصحف do
130
315000
2000
لأن ما تعمله الجرائد
05:32
is they repeatكرر again and again
131
317000
2000
هو إعادة و تكرار
05:34
rareنادر risksالمخاطر.
132
319000
2000
الأخطار النادرة.
05:36
I tell people, if it's in the newsأخبار, don't worryقلق about it.
133
321000
2000
أنا أقول للناس، إذا كانت في الأخبار، فلا تقلقوا .
05:38
Because by definitionفريف,
134
323000
2000
لأنه حسب التعريف،
05:40
newsأخبار is something that almostتقريبيا never happensيحدث.
135
325000
3000
الأخبار هي شىء بالكاد يحدث.
05:43
(Laughterضحك)
136
328000
2000
(ضحك)
05:45
When something is so commonمشترك, it's no longerطويل newsأخبار --
137
330000
3000
عندما يكون الشئ متداول، لا يعود خبرا بعد ذلك --
05:48
carسيارة crashesحوادث, domesticالمنزلي violenceعنف --
138
333000
2000
اصطدام السيارات، العنف العائلي --
05:50
those are the risksالمخاطر you worryقلق about.
139
335000
3000
كل هذه أخطار نقلق منها.
05:53
We're alsoأيضا a speciesمحيط of storytellersرواة القصص.
140
338000
2000
نحن أيضا مخلوقات قصاصة.
05:55
We respondرد to storiesقصص more than dataالبيانات.
141
340000
3000
نحن نستجيب للقصص أكثر من المعلومات.
05:58
And there's some basicالأساسية innumeracyجهلهم بقواعد الحساب going on.
142
343000
2000
هناك جهل بمنطق الرياضيات يدور هنا.
06:00
I mean, the jokeنكتة "One, Two, Threeثلاثة, Manyكثير" is kindطيب القلب of right.
143
345000
3000
أقصد، النكتة "واحدة، اثنان، ثلاثة، كثير،" نوعا ما صائبة.
06:03
We're really good at smallصغير numbersأعداد.
144
348000
3000
نحن جيدون بالأرقام الصغيرة.
06:06
One mangoمانجو, two mangoesالمانجو, threeثلاثة mangoesالمانجو,
145
351000
2000
واحد مانجا، اثنان مانجا، ثلاثة مانجا،
06:08
10,000 mangoesالمانجو, 100,000 mangoesالمانجو --
146
353000
2000
١٠،٠٠٠ مانجا، ١٠٠،٠٠٠ مانجا --
06:10
it's still more mangoesالمانجو you can eatتأكل before they rotتعفن.
147
355000
3000
هناك الكثير من المانجا تستطيعون أن تأكلونها قبل أن تفسد.
06:13
So one halfنصف, one quarterربع, one fifthخامس -- we're good at that.
148
358000
3000
فالنصف، الربع، الخمس-- كلنا جيدون بها.
06:16
One in a millionمليون, one in a billionمليار --
149
361000
2000
واحد في المليون، واحد في المليار --
06:18
they're bothكلا almostتقريبيا never.
150
363000
3000
كلاهما يكادان لا يحصلان.
06:21
So we have troubleمشكلة with the risksالمخاطر
151
366000
2000
فنحن لدينا مشاكل مع الأخطار
06:23
that aren'tلا very commonمشترك.
152
368000
2000
التي ليست كثيرة التدوال.
06:25
And what these cognitiveالإدراكي biasesالتحيزات do
153
370000
2000
و ما تعمله هذه الإدراكات التحيزيه هو
06:27
is they actفعل as filtersمرشحات betweenما بين us and realityواقع.
154
372000
3000
أنها تعمل كمرشحات بيننا و بين الحقيقة.
06:30
And the resultنتيجة
155
375000
2000
و النتيجة هي
06:32
is that feelingشعور and realityواقع get out of whackاجتز,
156
377000
2000
أن الحقيقة و الإحساس لا يعملان مثلما توقعنا،
06:34
they get differentمختلف.
157
379000
3000
يصبحان مختلفان
06:37
Now you eitherإما have a feelingشعور -- you feel more secureتأمين than you are.
158
382000
3000
الآن إما أن يكون لديكم إحساس -- أن تشعروا أنكم أكثر أمانا مما أنتم عليه.
06:40
There's a falseخاطئة senseإحساس of securityالأمان.
159
385000
2000
هناك إحساس زائف بالأمان.
06:42
Or the other way,
160
387000
2000
أو بطريقة أخرى،
06:44
and that's a falseخاطئة senseإحساس of insecurityانعدام الأمن.
161
389000
2000
هناك أحساس زائف بالخطر.
06:46
I writeاكتب a lot about "securityالأمان theaterمسرح,"
162
391000
3000
أنا أكتب عن "مسرح الأمن،"
06:49
whichالتي are productsمنتجات that make people feel secureتأمين,
163
394000
3000
الذي هو المنتجات التي تجعل الناس يشعرون بالأمان
06:52
but don't actuallyفعلا do anything.
164
397000
2000
لكنها في الواقع لا تفعل أي شئ.
06:54
There's no realحقيقة wordكلمة for stuffأمور that makesيصنع us secureتأمين,
165
399000
2000
لا توجد كلمة حقيقية للأشياء التي تجعلنا آمنين،
06:56
but doesn't make us feel secureتأمين.
166
401000
2000
لكنها لا تجعلنا نشعر بالأمان.
06:58
Maybe it's what the CIA'sوCIA supposedمفترض to do for us.
167
403000
3000
ربما هو ما يتوجب على "السي أي أيه" عمله لنا.
07:03
So back to economicsاقتصاديات.
168
408000
2000
لنعد للاقتصاد.
07:05
If economicsاقتصاديات, if the marketسوق, drivesمحركات securityالأمان,
169
410000
4000
إذا كان الاقتصاد، إذا كان السوق، يقود الأمن ،
07:09
and if people make trade-offsالمقايضات
170
414000
2000
و إذا كان الناس يقومون بالمقايضات
07:11
basedعلى أساس on the feelingشعور of securityالأمان,
171
416000
3000
حسب احساسهم بالأمان،
07:14
then the smartذكي thing for companiesالشركات to do
172
419000
2000
إذن إنها فكرة ذكية للشركات أن تعمل
07:16
for the economicاقتصادي incentivesحوافز
173
421000
2000
بالمحفزات الاقتصادية
07:18
are to make people feel secureتأمين.
174
423000
3000
لتجعل الناس يشعرون بالأمان.
07:21
And there are two waysطرق to do this.
175
426000
3000
و هناك طريقتان لعمل هذا.
07:24
One, you can make people actuallyفعلا secureتأمين
176
429000
2000
الأولى، هي جعل الناس حقا بأمان
07:26
and hopeأمل they noticeتنويه.
177
431000
2000
و التمني أنهم سيتنبهون.
07:28
Or two, you can make people just feel secureتأمين
178
433000
3000
أو الثانية، يسطيعون أن يجعلوا الناس فقط يشعرون بالأمان
07:31
and hopeأمل they don't noticeتنويه.
179
436000
3000
و التمني بأنهم لن يتنبهوا.
07:35
So what makesيصنع people noticeتنويه?
180
440000
3000
فمالذي يجعل الناس يتنبهوا؟
07:38
Well a coupleزوجان of things:
181
443000
2000
هناك شيئان:
07:40
understandingفهم of the securityالأمان,
182
445000
2000
فهمهم للأمن
07:42
of the risksالمخاطر, the threatsالتهديدات,
183
447000
2000
للمخاطر، و التهديدات،
07:44
the countermeasuresالتدابير المضادة, how they work.
184
449000
3000
للتدبيرات المضادة، و لكيف تعمل.
07:47
But if you know stuffأمور,
185
452000
2000
لكن إذا كنتم تعرفون الأمور،
07:49
you're more likelyالمحتمل أن to have your feelingsمشاعر matchمباراة realityواقع.
186
454000
3000
فإن أغلب الظن أن تتطابق أحاسيسكم مع الواقع.
07:52
Enoughكافية realحقيقة worldالعالمية examplesأمثلة helpsيساعد.
187
457000
3000
أمثلة كافية من الواقع تساعد.
07:55
Now we all know the crimeجريمة rateمعدل in our neighborhoodحي,
188
460000
3000
الآن كلنا نعرف نسبة الجرائم في حاراتنا،
07:58
because we liveحي there, and we get a feelingشعور about it
189
463000
3000
لأننا نعيش هنا، و لدينا إحساس بها
08:01
that basicallyفي الأساس matchesاعواد الكبريت realityواقع.
190
466000
3000
الذي حقا سيطابق الواقع.
08:04
Securityالأمان theater'sالمسرح exposedمكشوف
191
469000
3000
يكشف مسرح الأمن
08:07
when it's obviousواضح that it's not workingعامل properlyبصورة صحيحة.
192
472000
3000
عندما يكون بديهيا أنه لا تعمل بشكل كما يفترض.
08:10
Okay, so what makesيصنع people not noticeتنويه?
193
475000
4000
إذن ، ما الذي يجعل الناس لا يتنبهون؟
08:14
Well, a poorفقير understandingفهم.
194
479000
2000
حسنا، أنه الفهم الضعيف.
08:16
If you don't understandتفهم the risksالمخاطر, you don't understandتفهم the costsالتكاليف,
195
481000
3000
إذا كنتم لا تفهمون المخاطر، إذن لا تفهمون القيم،
08:19
you're likelyالمحتمل أن to get the trade-offالتنازل عن ميزة ممن أجل الحصول على أخرى wrongخطأ,
196
484000
2000
فأنتم غالبا ستقومون بمقايضة خاطئة،
08:21
and your feelingشعور doesn't matchمباراة realityواقع.
197
486000
3000
و احساسكم لا يتطابق مع الحقيقة.
08:24
Not enoughكافية examplesأمثلة.
198
489000
2000
لا توجد أمثلة كافية.
08:26
There's an inherentمتأصل problemمشكلة
199
491000
2000
هنا مشكلة كامنة
08:28
with lowمنخفض probabilityاحتمالا eventsأحداث.
200
493000
2000
احتمالية أحداثها ضئيلة.
08:30
If, for exampleمثال,
201
495000
2000
لو، على سبيل المثال،
08:32
terrorismإرهاب almostتقريبيا never happensيحدث,
202
497000
2000
الإرهاب لا يكاد أن يحدث،
08:34
it's really hardالصعب to judgeالقاضي
203
499000
2000
من الصعب حقا الحكم
08:36
the efficacyفعالية of counter-terroristمكافحة الإرهاب measuresالإجراءات.
204
501000
3000
بفعالية على ترتيبات مضادة للإرهاب.
08:40
This is why you keep sacrificingالتضحية virginsالعذارى,
205
505000
3000
لهذا نقوم بالتضحية بالعذارى
08:43
and why your unicornآحادي القرن حيوان خرافي defensesالدفاعات are workingعامل just great.
206
508000
3000
و لهذا دفاع حريشكم (حصان خرافي بقرن واحد) يعمل بشكل جيد.
08:46
There aren'tلا enoughكافية examplesأمثلة of failuresالفشل.
207
511000
3000
لا توجد أمثلة كافية للفشل.
08:50
Alsoأيضا, feelingsمشاعر that are cloudingتغيم the issuesمسائل --
208
515000
3000
أيضا، الأحاسيس تحجب هذه الأمور --
08:53
the cognitiveالإدراكي biasesالتحيزات I talkedتحدث about earlierسابقا,
209
518000
2000
التحيزات الإدراكية التي تكلمت عنها مسبقا،
08:55
fearsالمخاوف, folkقوم beliefsالمعتقدات,
210
520000
3000
الخوف، المعتقدات التراثية،
08:58
basicallyفي الأساس an inadequateغير كاف modelنموذج of realityواقع.
211
523000
3000
أساسا نموذج واقع غير كافي.
09:02
So let me complicateتعقد things.
212
527000
3000
دعوني أعقد الأشياء.
09:05
I have feelingشعور and realityواقع.
213
530000
2000
لدي إحساس و حقيقة.
09:07
I want to addإضافة a thirdالثالث elementجزء. I want to addإضافة modelنموذج.
214
532000
3000
أريد أن أزيد عنصرا ثالثا. أريد أن أزيد نموذجا.
09:10
Feelingشعور and modelنموذج in our headرئيس,
215
535000
2000
إحساس و نموذج في فكرنا،
09:12
realityواقع is the outsideفي الخارج worldالعالمية.
216
537000
2000
حقيقة في العالم الخارجي.
09:14
It doesn't changeيتغيرون; it's realحقيقة.
217
539000
3000
لا يتغير; إنها حقيقة.
09:17
So feelingشعور is basedعلى أساس on our intuitionحدس.
218
542000
2000
فالإحساس مبني على حدسنا.
09:19
Modelنموذج is basedعلى أساس on reasonالسبب.
219
544000
2000
النموذج مبني على الأسباب.
09:21
That's basicallyفي الأساس the differenceفرق.
220
546000
3000
هذا هو الفرق ببساطة.
09:24
In a primitiveبدائي and simpleبسيط worldالعالمية,
221
549000
2000
في عالم بدائي و بسيط،
09:26
there's really no reasonالسبب for a modelنموذج
222
551000
3000
لا يوجد حقا سبب لنموذج.
09:29
because feelingشعور is closeأغلق to realityواقع.
223
554000
3000
لأن الإحساس يقارب الحقيقة.
09:32
You don't need a modelنموذج.
224
557000
2000
لا نحتاج إلى نموذج.
09:34
But in a modernحديث and complexمركب worldالعالمية,
225
559000
2000
لكن في عالم متحضر و معقد،
09:36
you need modelsعارضات ازياء
226
561000
2000
تحتاجون إلى نماذج
09:38
to understandتفهم a lot of the risksالمخاطر we faceوجه.
227
563000
3000
لفهم الكثير من المخاطر التي تواجهنا.
09:42
There's no feelingشعور about germsجراثيم.
228
567000
2000
لا يوجد إحساس بالجراثيم.
09:44
You need a modelنموذج to understandتفهم them.
229
569000
3000
نحتاج إلى نموذج لفهمها.
09:47
So this modelنموذج
230
572000
2000
بذلك هذا النموذج
09:49
is an intelligentذكي representationالتمثيل of realityواقع.
231
574000
3000
هو تجسيد ذكي للواقع.
09:52
It's, of courseدورة, limitedمحدود by scienceعلم,
232
577000
3000
إذن، بالطبع، إنه محدود علميا
09:55
by technologyتقنية.
233
580000
2000
تقنيا.
09:57
We couldn'tلم أستطع have a germبذرة theoryنظرية of diseaseمرض
234
582000
3000
لا نستطيع أن نكون نظرية لجراثيم الأمراض
10:00
before we inventedاخترع the microscopeمجهر to see them.
235
585000
3000
قبل أن نخترع مكروسكوبا لرؤيتها.
10:04
It's limitedمحدود by our cognitiveالإدراكي biasesالتحيزات.
236
589000
3000
إنه محدود بتحيزاتنا الإداركية.
10:07
But it has the abilityالقدرة
237
592000
2000
لكن لديه القدرة
10:09
to overrideتجاوز our feelingsمشاعر.
238
594000
2000
بأن يتجاوز أحاسيسنا.
10:11
Where do we get these modelsعارضات ازياء? We get them from othersالآخرين.
239
596000
3000
أين نحصل على هذه النماذج؟ نحصل عليها من الآخرين.
10:14
We get them from religionدين, from cultureحضاره,
240
599000
3000
نحصل عليها من الدين، الثقافة،
10:17
teachersمعلمون, eldersشيوخ.
241
602000
2000
المعلمين، كبار السن.
10:19
A coupleزوجان yearsسنوات agoمنذ,
242
604000
2000
قبل عامين،
10:21
I was in Southجنوب Africaأفريقيا on safariرحلات السفاري.
243
606000
2000
كنت على رحلة سفاري في جنوب أفريقيا.
10:23
The trackerتعقب I was with grewنمت up in Krugerكروجر Nationalالوطني Parkمنتزه.
244
608000
3000
الدليل الذي كنت معه ترعرع في "كرقر ناشنل بارك".
10:26
He had some very complexمركب modelsعارضات ازياء of how to surviveينجو.
245
611000
3000
كانت لديه نماذج معقدة عن كيفية النجاة.
10:29
And it dependedيتوقف on if you were attackedهاجم
246
614000
2000
و هذا يعتمد إذا تمت مهاجمتكم
10:31
by a lionأسد or a leopardفهد or a rhinoوحيد القرن or an elephantفيل --
247
616000
2000
من قبل أسد أو نمر أو الكركدن أو فيل --
10:33
and when you had to runيركض away, and when you couldn'tلم أستطع runيركض away, and when you had to climbتسلق a treeشجرة --
248
618000
3000
و الوقت الذي تفرون به، و الوقت الذي تتسلقون فيه الأشجار --
10:36
when you could never climbتسلق a treeشجرة.
249
621000
2000
في حين يمكن أنكم لم تقوموا أبدا بتسلق شجرة.
10:38
I would have diedمات in a day,
250
623000
3000
أنا سأموت بيوم،
10:41
but he was bornمولود there,
251
626000
2000
لكن هو ولد هناك،
10:43
and he understoodفهم how to surviveينجو.
252
628000
2000
و فهم كيف ينجو.
10:45
I was bornمولود in Newالجديد Yorkيورك Cityمدينة.
253
630000
2000
أنا ولدت في مدينة نيويورك.
10:47
I could have takenتؤخذ him to Newالجديد Yorkيورك, and he would have diedمات in a day.
254
632000
3000
أستطيع أن أخذه إلى نيويورك و سيموت في يوم.
10:50
(Laughterضحك)
255
635000
2000
(ضحك)
10:52
Because we had differentمختلف modelsعارضات ازياء
256
637000
2000
لأن لدينا نماذج مختلفة
10:54
basedعلى أساس on our differentمختلف experiencesخبرة.
257
639000
3000
حسب تجارب مختلفة.
10:58
Modelsعارضات ازياء can come from the mediaوسائل الإعلام,
258
643000
2000
نماذج تأتي من الإعلام،
11:00
from our electedانتخب officialsمسؤولون.
259
645000
3000
من مسؤلين منتخبين.
11:03
Think of modelsعارضات ازياء of terrorismإرهاب,
260
648000
3000
لنفكر بنماذج الإرهاب،
11:06
childطفل kidnappingخطف,
261
651000
3000
اختطاف الأطفال،
11:09
airlineشركة طيران safetyسلامة, carسيارة safetyسلامة.
262
654000
2000
أمن الطيران، أمن السيارات.
11:11
Modelsعارضات ازياء can come from industryصناعة.
263
656000
3000
نماذج تأتي من الصناعة.
11:14
The two I'm followingالتالية are surveillanceمراقبة camerasكاميرات,
264
659000
2000
الاثنتين التي أتابعهما هي كاميرات المراقبة،
11:16
IDهوية شخصية cardsبطاقات,
265
661000
2000
بطاقات التعريف،
11:18
quiteالى حد كبير a lot of our computerالحاسوب securityالأمان modelsعارضات ازياء come from there.
266
663000
3000
كثير من النماذج الحاسوبية تأتي من هنا.
11:21
A lot of modelsعارضات ازياء come from scienceعلم.
267
666000
3000
الكثير من النماذج تأتي من العلوم.
11:24
Healthالصحة modelsعارضات ازياء are a great exampleمثال.
268
669000
2000
نماذج الصحة هي أمثلة رائعة.
11:26
Think of cancerسرطان, of birdطائر fluأنفلونزا, swineخنزير fluأنفلونزا, SARSالسارس.
269
671000
3000
لنفكر بالسرطان، انفلونزا الطيور، انفلونزا الخنازير، سارز.
11:29
All of our feelingsمشاعر of securityالأمان
270
674000
3000
كل أحاسيسنا بالأمن
11:32
about those diseasesالأمراض
271
677000
2000
عن هذه الأمراض
11:34
come from modelsعارضات ازياء
272
679000
2000
تأتي من نماذج
11:36
givenمعطى to us, really, by scienceعلم filteredمصفى throughعبر the mediaوسائل الإعلام.
273
681000
3000
أعطيت لنا، حقا، بالعلوم المرشحة من الإعلام.
11:40
So modelsعارضات ازياء can changeيتغيرون.
274
685000
3000
فالنماذج تتغير.
11:43
Modelsعارضات ازياء are not staticثابتة.
275
688000
2000
النماذج ليست ثابتة.
11:45
As we becomeيصبح more comfortableمريح in our environmentsالبيئات,
276
690000
3000
فكل ما كنا مرتاحين أكثر في بيئتنا،
11:48
our modelنموذج can moveنقل closerأقرب to our feelingsمشاعر.
277
693000
4000
تقترب نماذجنا من أحاسيسنا بشكل أكبر.
11:53
So an exampleمثال mightربما be,
278
698000
2000
قد يكون هذا مثالا،
11:55
if you go back 100 yearsسنوات agoمنذ
279
700000
2000
إذا رجعنا ١٠٠ سنة للخلف
11:57
when electricityكهرباء was first becomingتصبح commonمشترك,
280
702000
3000
عندما كانت بداية تداول الكهرباء،
12:00
there were a lot of fearsالمخاوف about it.
281
705000
2000
كانت هناك مخاوف كثيرة منها.
12:02
I mean, there were people who were afraidخائف to pushإدفع doorbellsالأجراس,
282
707000
2000
أقصد، كان هناك أناس يخافون من ضغط جرس الباب،
12:04
because there was electricityكهرباء in there, and that was dangerousخطير.
283
709000
3000
لأنه كان بها كهرباء، و كان هذا خطرا.
12:07
For us, we're very facileواثق من نفسه around electricityكهرباء.
284
712000
3000
بالنسبة لنا، نحن سطحيين حول الكهرباء.
12:10
We changeيتغيرون lightضوء bulbsمصابيح
285
715000
2000
نبدل أضواء المصابيح
12:12
withoutبدون even thinkingتفكير about it.
286
717000
2000
حتى من دون تفكير بها.
12:14
Our modelنموذج of securityالأمان around electricityكهرباء
287
719000
4000
نمودج الأمن من الكهرباء لدينا
12:18
is something we were bornمولود into.
288
723000
3000
هو شئ ولدنا فيه
12:21
It hasn'tلم changedتغير as we were growingمتزايد up.
289
726000
3000
لم يتغير في حين كبرنا.
12:24
And we're good at it.
290
729000
3000
و كلنا جيدون به.
12:27
Or think of the risksالمخاطر
291
732000
2000
أو لنفكر بالمخاطر
12:29
on the Internetالإنترنت acrossعبر generationsأجيال --
292
734000
2000
على الانترت عبر الأجيال --
12:31
how your parentsالآباء approachمقاربة Internetالإنترنت securityالأمان,
293
736000
2000
كيف تعامل أبواكم مع أمن الانترنت،
12:33
versusمقابل how you do,
294
738000
2000
مقابل كيف فعلتم أنتم،
12:35
versusمقابل how our kidsأطفال will.
295
740000
3000
مقابل كيف سيفعل أولادنا.
12:38
Modelsعارضات ازياء eventuallyفي النهاية fadeتلاشى into the backgroundخلفية.
296
743000
3000
النماذج ستتلاشى تدريجيا إلى الخلفية.
12:42
Intuitiveحدسي is just anotherآخر wordكلمة for familiarمألوف.
297
747000
3000
الحدس هو كلمة أخرى للمتداول.
12:45
So as your modelنموذج is closeأغلق to realityواقع,
298
750000
2000
فبقرب نماذجنا إلى الواقع،
12:47
and it convergesCONVERGES with feelingsمشاعر,
299
752000
2000
و تقاطعها مع أحاسيسنا،
12:49
you oftenغالبا don't know it's there.
300
754000
3000
فالغالبية لا يعرفون أنها هناك.
12:52
So a niceلطيف exampleمثال of this
301
757000
2000
فمثال رائع على هذا
12:54
cameأتى from last yearعام and swineخنزير fluأنفلونزا.
302
759000
3000
يأتي من انفلونزا الخنزير في السنة الماضية.
12:57
When swineخنزير fluأنفلونزا first appearedظهر,
303
762000
2000
عندما ظهرت انفلونزا الخنازير،
12:59
the initialمبدئي newsأخبار causedتسبب a lot of overreactionرد فعل بصورة مبالغة.
304
764000
4000
الأخبار المبدئية أحدثت ردة فعل مبالغ بها.
13:03
Now it had a nameاسم,
305
768000
2000
الآن لديها اسم،
13:05
whichالتي madeمصنوع it scarierاخافة than the regularمنتظم fluأنفلونزا,
306
770000
2000
الأمر الذي جعلها مخيفة أكثر من الانفلونزا العادية،
13:07
even thoughاعتقد it was more deadlyمميت.
307
772000
2000
حتى و إن كانت مميتة أكثر.
13:09
And people thought doctorsالأطباء should be ableقادر to dealصفقة with it.
308
774000
4000
و الناس ظنوا أن الأطباء سيتعاملون معها.
13:13
So there was that feelingشعور of lackقلة of controlمراقبة.
309
778000
2000
فكان هناك الاحساس بفقدان السيطرة.
13:15
And those two things
310
780000
2000
و هذين الأمرين
13:17
madeمصنوع the riskخطر more than it was.
311
782000
2000
جعلاها أكثر خطرا مما هي عليه.
13:19
As the noveltyبدعة woreلبس off, the monthsالشهور wentذهب by,
312
784000
3000
و باختفاء الحداثة ، و مرور الشهور،
13:22
there was some amountكمية of toleranceتفاوت,
313
787000
2000
كان هناك مقدار من التسامح،
13:24
people got used to it.
314
789000
2000
الناس اعتادوا عليها.
13:26
There was no newالجديد dataالبيانات, but there was lessأقل fearخوف.
315
791000
3000
لم تكن هناك معلومات جديدة، لكن هناك قل الخوف.
13:29
By autumnالخريف,
316
794000
2000
بحلول الخريف،
13:31
people thought
317
796000
2000
ظن الناس
13:33
the doctorsالأطباء should have solvedتم حلها this alreadyسابقا.
318
798000
2000
أن الأطباء توجب عليهم حل هذا.
13:35
And there's kindطيب القلب of a bifurcationتفريع --
319
800000
2000
و كان هناك نوع من التشعبات --
13:37
people had to chooseأختر
320
802000
2000
توجب على الناس الاختيار
13:39
betweenما بين fearخوف and acceptanceقبول --
321
804000
4000
بين الخوف و التقبل --
13:43
actuallyفعلا fearخوف and indifferenceلا مبالاة --
322
808000
2000
فعلا الخوف و المشابهة --
13:45
they kindطيب القلب of choseاختار suspicionاشتباه.
323
810000
3000
تقريبا اختاروا الشك.
13:48
And when the vaccineلقاح appearedظهر last winterشتاء,
324
813000
3000
و عندما ظهر العلاج في آخر الشتاء،
13:51
there were a lot of people -- a surprisingمفاجئ numberرقم --
325
816000
3000
كان هناك الكثير من الناس -- رقم مفاجأ --
13:54
who refusedرفض to get it --
326
819000
3000
الذين رفضوا أخذه --
13:58
as a niceلطيف exampleمثال
327
823000
2000
و مثال جيد
14:00
of how people'sوالناس feelingsمشاعر of securityالأمان changeيتغيرون, how theirهم modelنموذج changesالتغييرات,
328
825000
3000
لكيف يشعر الناس بتغيير الأمن، كيف يتغير نموذجهم،
14:03
sortفرز of wildlyبعنف
329
828000
2000
عنيف نوعا ما
14:05
with no newالجديد informationمعلومات,
330
830000
2000
و بدون معلومات جديدة،
14:07
with no newالجديد inputإدخال.
331
832000
2000
و بدون معطيات جديدة.
14:09
This kindطيب القلب of thing happensيحدث a lot.
332
834000
3000
هذا النوع من الأشياء يحدث كثيرا.
14:12
I'm going to give one more complicationتعقيد.
333
837000
3000
سأقوم باعطائكم تصعيب واحد زيادة.
14:15
We have feelingشعور, modelنموذج, realityواقع.
334
840000
3000
لدينا احساس، نموذج، حقيقة.
14:18
I have a very relativisticنسبوي viewرأي of securityالأمان.
335
843000
2000
لدي منظور نسبوي للأمن.
14:20
I think it dependsيعتمد على on the observerمراقب.
336
845000
3000
أظن أنه يعتمد على المشاهد.
14:23
And mostعظم securityالأمان decisionsقرارات
337
848000
2000
و معظم قرارات الأمن
14:25
have a varietyتشكيلة of people involvedمتورط.
338
850000
4000
تتضمن اشتراك أناس مختلفين.
14:29
And stakeholdersأصحاب المصلحة
339
854000
2000
و شركاء
14:31
with specificمحدد trade-offsالمقايضات
340
856000
3000
بمقياضات معينة
14:34
will try to influenceتأثير the decisionقرار.
341
859000
2000
يحاولون التأثير على القرار.
14:36
And I call that theirهم agendaجدول أعمال.
342
861000
2000
و أنا اسميها "جدول أعمالهم".
14:38
And you see agendaجدول أعمال --
343
863000
2000
و ترون أن "جدول أعمالهم"--
14:40
this is marketingتسويق, this is politicsسياسة --
344
865000
3000
هو التسويق، هو السياسة--
14:43
tryingمحاولة to convinceإقناع you to have one modelنموذج versusمقابل anotherآخر,
345
868000
3000
محاولة اقناعكم أنه هناك نموذج ضد آخر،
14:46
tryingمحاولة to convinceإقناع you to ignoreتجاهل a modelنموذج
346
871000
2000
محاولة اقناعكم بتجاهل نموذج
14:48
and trustثقة your feelingsمشاعر,
347
873000
3000
و الثقة بأحاسيسكم،
14:51
marginalizingتهميش people with modelsعارضات ازياء you don't like.
348
876000
3000
لتهميش الناس الذين لديهم نماذج لا تعجبكم.
14:54
This is not uncommonغير مألوف.
349
879000
3000
هذا ليس غريبا.
14:57
An exampleمثال, a great exampleمثال, is the riskخطر of smokingتدخين.
350
882000
3000
كمثال، مثال رائع، خطر التدخين.
15:01
In the historyالتاريخ of the pastالماضي 50 yearsسنوات, the smokingتدخين riskخطر
351
886000
3000
في تاريخ الـ٥٠ سنة الماضية، خطر التدخين
15:04
showsعروض how a modelنموذج changesالتغييرات,
352
889000
2000
يريكم كيف يتغير النموذج،
15:06
and it alsoأيضا showsعروض how an industryصناعة fightsمعارك againstضد
353
891000
3000
و كيف يحارب مجال الصناعة ضد
15:09
a modelنموذج it doesn't like.
354
894000
2000
نموذج لا يعجبه.
15:11
Compareقارن that to the secondhandاليد الثانية smokeدخان debateالنقاش --
355
896000
3000
لنقارن مناقشة التدخين السلبية --
15:14
probablyالمحتمل about 20 yearsسنوات behindخلف.
356
899000
3000
تقريبا نحو ٢٠ سنة للوراء.
15:17
Think about seatمقعد beltsأحزمة.
357
902000
2000
لنفكر بأحزمة الأمان.
15:19
When I was a kidطفل, no one woreلبس a seatمقعد beltحزام.
358
904000
2000
عندما كنت طفلا، لم يرتدي أحد حزام الأمان.
15:21
Nowadaysالوقت الحاضر, no kidطفل will let you driveقيادة
359
906000
2000
الآن، لن يسمح لكم طفل بالقيادة
15:23
if you're not wearingيلبس a seatمقعد beltحزام.
360
908000
2000
إذا لم ترتدوا حزام الأمان.
15:26
Compareقارن that to the airbagوسادة هوائية debateالنقاش --
361
911000
2000
لنقارن ذلك بنقاش الوسادة الهوائية --
15:28
probablyالمحتمل about 30 yearsسنوات behindخلف.
362
913000
3000
تقريبا نحو ٣٠ سنة للوراء.
15:31
All examplesأمثلة of modelsعارضات ازياء changingمتغير.
363
916000
3000
كل أمثلة تغيير النماذج.
15:36
What we learnتعلم is that changingمتغير modelsعارضات ازياء is hardالصعب.
364
921000
3000
ما نتعلمه منها هو أن تغيير النماذج صعب.
15:39
Modelsعارضات ازياء are hardالصعب to dislodgeطرد.
365
924000
2000
النماذج صعب طردها.
15:41
If they equalمساو your feelingsمشاعر,
366
926000
2000
إذا كانت مساوية لأحاسيسكم،
15:43
you don't even know you have a modelنموذج.
367
928000
3000
لا تعرفون حتى أن لديكم نموذجا.
15:46
And there's anotherآخر cognitiveالإدراكي biasانحياز، نزعة
368
931000
2000
و هناك تحيز معرفي آخر
15:48
I'll call confirmationالتأكيد biasانحياز، نزعة,
369
933000
2000
سأسميه تحيزا اثباتيا،
15:50
where we tendتميل to acceptقبول dataالبيانات
370
935000
3000
نحن نميل لتقبل المعلومات
15:53
that confirmsيؤكد our beliefsالمعتقدات
371
938000
2000
التي تثبت معتقداتنا
15:55
and rejectرفض dataالبيانات that contradictsيتناقض our beliefsالمعتقدات.
372
940000
3000
و نرفض المعلومات التي نخالف معتقداتنا.
15:59
So evidenceدليل againstضد our modelنموذج,
373
944000
2000
فالدليل ضد نموذجنا،
16:01
we're likelyالمحتمل أن to ignoreتجاهل, even if it's compellingقهري.
374
946000
3000
غالبا سنتجاهله، حتى لو كان قاهرا.
16:04
It has to get very compellingقهري before we'llحسنا payدفع attentionانتباه.
375
949000
3000
يجب أن يكون قاهرا جدا قبل أن نعطيه اهتماما.
16:08
Newالجديد modelsعارضات ازياء that extendتمديد long periodsفترات of time are hardالصعب.
376
953000
2000
النماذج الجديدة التي تمتد لفترات طويلة هي صعبة.
16:10
Globalعالمي warmingتسخين is a great exampleمثال.
377
955000
2000
الاحترار العالمي مثال رائع.
16:12
We're terribleرهيب
378
957000
2000
نحن شنيعين
16:14
at modelsعارضات ازياء that spanامتداد 80 yearsسنوات.
379
959000
2000
في نماذج تمتد ٨٠ سنة.
16:16
We can do to the nextالتالى harvestحصاد.
380
961000
2000
نستطيع أن نعمل الغلة القادمة.
16:18
We can oftenغالبا do untilحتى our kidsأطفال growتنمو up.
381
963000
3000
نستطيع فعله حتى يكبر أولادنا.
16:21
But 80 yearsسنوات, we're just not good at.
382
966000
3000
لكن ٨٠ سنة، نحن ليسنا جيدين بهذا.
16:24
So it's a very hardالصعب modelنموذج to acceptقبول.
383
969000
3000
فهذا نموذج صعب تقبله.
16:27
We can have bothكلا modelsعارضات ازياء in our headرئيس simultaneouslyالوقت ذاته,
384
972000
4000
نستطيع أن يكون بفكرنا نموذجان يعملان بنفس الوقت،
16:31
right, that kindطيب القلب of problemمشكلة
385
976000
3000
أو نوعا من هذه المشكلة
16:34
where we're holdingتحتجز bothكلا beliefsالمعتقدات togetherسويا,
386
979000
3000
حيث نحمل معتقدان سويا،
16:37
right, the cognitiveالإدراكي dissonanceتنافر.
387
982000
2000
أو تنافر معرفي.
16:39
Eventuallyفي النهاية,
388
984000
2000
تدريجيا،
16:41
the newالجديد modelنموذج will replaceيحل محل the oldقديم modelنموذج.
389
986000
3000
النموذج الجديد سيبدل النموذج القديم.
16:44
Strongقوي feelingsمشاعر can createخلق a modelنموذج.
390
989000
3000
أحاسيسنا القوية ستنصنع نموذجا.
16:47
Septemberسبتمبر 11thعشر createdخلقت a securityالأمان modelنموذج
391
992000
3000
سبتمبر ١١ صنع نموذجا للأمن
16:50
in a lot of people'sوالناس headsرؤساء.
392
995000
2000
في فكر الكثير من الناس.
16:52
Alsoأيضا, personalالشخصية experiencesخبرة with crimeجريمة can do it,
393
997000
3000
أيضا، التجارب الشخصية في الجرائم تقوم بذلك،
16:55
personalالشخصية healthالصحة scareفزع,
394
1000000
2000
الخوف على الصحة الشخصية.
16:57
a healthالصحة scareفزع in the newsأخبار.
395
1002000
2000
الخوف على الصحة في الأنباء.
16:59
You'llعليك see these calledمسمي flashbulbلمبة كهربائية eventsأحداث
396
1004000
2000
سترون تلك التي تدعى أحداث الـ "فلاش بلب" (عودة الذاكرة لصورة حدث مشابه)
17:01
by psychiatristsالأطباء النفسيين.
397
1006000
2000
من قبل الأطباء النفسيين.
17:03
They can createخلق a modelنموذج instantaneouslyعلى الفور,
398
1008000
3000
بها نستطيع صنع نموذج تلقائيا،
17:06
because they're very emotiveانفعالي.
399
1011000
3000
لأنها مليئة بالمشاعر.
17:09
So in the technologicalالتكنولوجية worldالعالمية,
400
1014000
2000
ففي عالم التقنية،
17:11
we don't have experienceتجربة
401
1016000
2000
ليست لدينا خبرة
17:13
to judgeالقاضي modelsعارضات ازياء.
402
1018000
2000
للحكم على النماذج.
17:15
And we relyاعتمد on othersالآخرين. We relyاعتمد on proxiesوكلاء.
403
1020000
2000
و نعتمد على الآخرين. نعتمد على الوسطاء.
17:17
I mean, this worksأعمال as long as it's to correctصيح othersالآخرين.
404
1022000
4000
اقصد، إن هذا يعمل ما دام أنه صحيح للآخرين.
17:21
We relyاعتمد on governmentحكومة agenciesوكالات
405
1026000
2000
نحن نعتمد على المنظمات الحكومية
17:23
to tell us what pharmaceuticalsالأدوية are safeآمنة.
406
1028000
5000
ليخبرونا أي المنتجات الصيدلية آمنة.
17:28
I flewطار here yesterdayفي الامس.
407
1033000
2000
لقد طرت الى هنا بالأمس.
17:30
I didn't checkالتحقق من the airplaneمطار.
408
1035000
2000
لم أفحص الطائرة.
17:32
I reliedاعتمد on some other groupمجموعة
409
1037000
2000
لقد اعتمدت على مجموعة أخرى
17:34
to determineتحديد whetherسواء my planeطائرة was safeآمنة to flyيطير.
410
1039000
3000
ليحددوا ماذا كانت الطائرة آمنة للطيران.
17:37
We're here, noneلا شيء of us fearخوف the roofسقف is going to collapseانهدام on us,
411
1042000
3000
نحن هنا، لا أحد منا يخاف أن ينهار علينا السطح،
17:40
not because we checkedالتحقق,
412
1045000
3000
ليس لأننا فحصناه،
17:43
but because we're prettyجميلة sure
413
1048000
2000
لكننا لأننا جدا متأكدون
17:45
the buildingبناء codesرموز here are good.
414
1050000
3000
أن معايير البناء هنا جيدة.
17:48
It's a modelنموذج we just acceptقبول
415
1053000
2000
إنه نموذج تقبلناه
17:50
prettyجميلة much by faithإيمان.
416
1055000
2000
بكثير من الإيمان.
17:52
And that's okay.
417
1057000
3000
و هذا حسن.
17:57
Now, what we want
418
1062000
2000
الآن، الذي نريده هو
17:59
is people to get familiarمألوف enoughكافية
419
1064000
2000
أن نجعل الناس بكفاية يألفون
18:01
with better modelsعارضات ازياء --
420
1066000
2000
نماذج أفضل --
18:03
have it reflectedانعكست in theirهم feelingsمشاعر --
421
1068000
2000
نجعلها تنعكس على أحاسيسهم
18:05
to allowالسماح them to make securityالأمان trade-offsالمقايضات.
422
1070000
4000
لتسمح لهم بعمل مقايضات أمن أفضل.
18:09
Now when these go out of whackاجتز,
423
1074000
2000
الآن عندما تخرج هذه من السيطرة،
18:11
you have two optionsخيارات.
424
1076000
2000
سيكون لدينا خياران.
18:13
One, you can fixحل people'sوالناس feelingsمشاعر,
425
1078000
2000
واحد، نستطيع اصلاح أحاسيس الناس،
18:15
directlyمباشرة appealمناشدة to feelingsمشاعر.
426
1080000
2000
بمبادرة مباشرة للأحاسيس.
18:17
It's manipulationبمعالجة, but it can work.
427
1082000
3000
إنه تلاعب، لكن قد يعمل.
18:20
The secondثانيا, more honestصادق way
428
1085000
2000
اثنان، طريقة أكثر مصداقية
18:22
is to actuallyفعلا fixحل the modelنموذج.
429
1087000
3000
هو بالفعل اصلاح النموذج.
18:26
Changeيتغيرون happensيحدث slowlyببطء.
430
1091000
2000
التغييرات تحدث ببطء.
18:28
The smokingتدخين debateالنقاش tookأخذ 40 yearsسنوات,
431
1093000
3000
نقاش التدخين أخذ ٤٠ عاما،
18:31
and that was an easyسهل one.
432
1096000
3000
و قد كان أمرا سهلا.
18:34
Some of this stuffأمور is hardالصعب.
433
1099000
2000
بعض الأشياء صعبة.
18:36
I mean really thoughاعتقد,
434
1101000
2000
أعني بالفعل، على الرغم من أن
18:38
informationمعلومات seemsيبدو like our bestالأفضل hopeأمل.
435
1103000
2000
المعلومات تبدو أملنا الأفضل.
18:40
And I liedكذب.
436
1105000
2000
و لقد كذبت.
18:42
Rememberتذكر I said feelingشعور, modelنموذج, realityواقع;
437
1107000
2000
تذكرون عندما قلت أن الإحساس، النموذج، الحقيقة.
18:44
I said realityواقع doesn't changeيتغيرون. It actuallyفعلا does.
438
1109000
3000
قلت أن الحقيقة لا تتغير. لكنها بالفعل تتغير.
18:47
We liveحي in a technologicalالتكنولوجية worldالعالمية;
439
1112000
2000
نحن نعيش في عالم تقني:
18:49
realityواقع changesالتغييرات all the time.
440
1114000
3000
الحقيقة تتغير كل الوقت.
18:52
So we mightربما have -- for the first time in our speciesمحيط --
441
1117000
3000
فقد يكون لدينا -- لأول مرة في نوع مخلوقاتنا --
18:55
feelingشعور chasesمطاردات modelنموذج, modelنموذج chasesمطاردات realityواقع, reality'sواقع في movingمتحرك --
442
1120000
3000
نموذج اللحاق بالاحساس، نموذج اللاحق بالواقع، الواقع المتحرك --
18:58
they mightربما never catchقبض على up.
443
1123000
3000
قد لا نستطيع أبدا التماس ذلك.
19:02
We don't know.
444
1127000
2000
نحن لا نعلم
19:04
But in the long-termطويل الأمد,
445
1129000
2000
لكن على المدى الطويل،
19:06
bothكلا feelingشعور and realityواقع are importantمهم.
446
1131000
3000
كل من الاحساس و الحقيقة مهمان.
19:09
And I want to closeأغلق with two quickبسرعة storiesقصص to illustrateتوضيح this.
447
1134000
3000
و أريد أن أختتم بقصتان قصيرتان لأوضح هذا.
19:12
1982 -- I don't know if people will rememberتذكر this --
448
1137000
2000
١٩٨٢ -- لا أعرف إذا كان الناس يتذكرون هذا --
19:14
there was a shortقصيرة epidemicوباء
449
1139000
3000
كان هناك وباء مدته قصيرة
19:17
of Tylenolتايلينول poisoningsحالات التسمم in the Unitedمتحد Statesتنص على.
450
1142000
2000
من تسمم "التايلنول" في الولايات المتحدة.
19:19
It's a horrificمرعب storyقصة. Someoneشخصا ما tookأخذ a bottleزجاجة of Tylenolتايلينول,
451
1144000
3000
إنها قصة مفجعة. أحدهم أخذ قنينة من "التايلنول"،
19:22
put poisonسم in it, closedمغلق it up, put it back on the shelfرفوف.
452
1147000
3000
وضع فيها سما، أغلقها، أرجعها على مكانها بالرف.
19:25
Someoneشخصا ما elseآخر boughtاشترى it and diedمات.
453
1150000
2000
أحد آخر اشتراها و توفي.
19:27
This terrifiedمذعور people.
454
1152000
2000
هذا أخاف الناس.
19:29
There were a coupleزوجان of copycatتقليد attacksهجمات.
455
1154000
2000
كان هناك بعض المقلدين للعملية.
19:31
There wasn'tلم يكن any realحقيقة riskخطر, but people were scaredخائف، خواف، مذعور.
456
1156000
3000
لم يكن هناك أي خطر حقيقي، لكن الناس كان خائفين.
19:34
And this is how
457
1159000
2000
و هذا كيف
19:36
the tamper-proofعبث دليل drugالمخدرات industryصناعة was inventedاخترع.
458
1161000
2000
اخترعت صناعات الأدوية التي غير قابلة للعبث.
19:38
Those tamper-proofعبث دليل capsقبعات, that cameأتى from this.
459
1163000
2000
هذه الأغطية التي غير قابلة للعب أتت من هذا.
19:40
It's completeاكتمال securityالأمان theaterمسرح.
460
1165000
2000
إنه مسرح أمني كامل.
19:42
As a homeworkواجب منزلي assignmentمهمة, think of 10 waysطرق to get around it.
461
1167000
2000
كواجب منزلي، فكروا بـ١٠ طرق لخرق هذا.
19:44
I'll give you one, a syringeمحقنة.
462
1169000
3000
سأعطيكم واحدة، المحقنة.
19:47
But it madeمصنوع people feel better.
463
1172000
3000
لكنها جعلت احساس الناس أفضل.
19:50
It madeمصنوع theirهم feelingشعور of securityالأمان
464
1175000
2000
جعلت احساسهم بالأمن
19:52
more matchمباراة the realityواقع.
465
1177000
2000
يتماشى أكثر مع الواقع.
19:54
Last storyقصة, a fewقليل yearsسنوات agoمنذ, a friendصديق of mineالخاص بي gaveأعطى birthولادة.
466
1179000
3000
آخر قصة، قبل بضع سنوات، وضعت أحد صديقاتي مولودا.
19:57
I visitيزور her in the hospitalمستشفى.
467
1182000
2000
زرتها في المستشفى.
19:59
It turnsيتحول out when a baby'sالرضيع bornمولود now,
468
1184000
2000
ووجدت أنه الآن عند ما يولد الطفل،
20:01
they put an RFIDRFID braceletسوار on the babyطفل,
469
1186000
2000
يضعون على الطفل اسوارة "الأر أف أي دي" (كاشف ترددات الراديو)
20:03
put a correspondingالمقابلة one on the motherأم,
470
1188000
2000
و يضعون واحدا تابعا له على الأم،
20:05
so if anyoneأي واحد other than the motherأم takes the babyطفل out of the maternityالتوليد wardجناح,
471
1190000
2000
فإذا حاول أي شخص أحد غير الأم أخذ الطفل من جناح الولادة،
20:07
an alarmإنذار goesيذهب off.
472
1192000
2000
يبدأ جرس بالرنين.
20:09
I said, "Well, that's kindطيب القلب of neatأنيق.
473
1194000
2000
قلت، "حسنا، هذا أنيق بعض الشئ.
20:11
I wonderيتساءل how rampantمتفشيا babyطفل snatchingخطف is
474
1196000
2000
أتساءل كيف سيكون تفشي سرقة الأطفال
20:13
out of hospitalsالمستشفيات."
475
1198000
2000
خارج المستشفيات."
20:15
I go home, I look it up.
476
1200000
2000
أذهب إلى البيت، و أبحث عنه.
20:17
It basicallyفي الأساس never happensيحدث.
477
1202000
2000
أساسا لا يحدث أبدا.
20:19
But if you think about it,
478
1204000
2000
لكن إذا فكرتم بها،
20:21
if you are a hospitalمستشفى,
479
1206000
2000
إذا كنتم مستشفى،
20:23
and you need to take a babyطفل away from its motherأم,
480
1208000
2000
و احتجتم أن تأخذوا الطفل بعيدا عن أمه،
20:25
out of the roomمجال to runيركض some testsاختبارات,
481
1210000
2000
خارج الغرفة لإجراء بعض التحاليل،
20:27
you better have some good securityالأمان theaterمسرح,
482
1212000
2000
يجب أن يكون لديكم نوع من المسرح الأمني الجيد،
20:29
or she's going to ripRIP your armذراع off.
483
1214000
2000
أو أنها ستنتزع أياديكم.
20:31
(Laughterضحك)
484
1216000
2000
(ضحك)
20:33
So it's importantمهم for us,
485
1218000
2000
فهو مهم بالنسبة لنا،
20:35
those of us who designالتصميم securityالأمان,
486
1220000
2000
نحن الذين نصمم الأمن،
20:37
who look at securityالأمان policyسياسات,
487
1222000
3000
و ننظر إلى سياسة الأمن،
20:40
or even look at publicعامة policyسياسات
488
1225000
2000
أو حتى السياسة العامة
20:42
in waysطرق that affectتؤثر securityالأمان.
489
1227000
2000
التي بطرقها تؤثر على الأمن.
20:44
It's not just realityواقع; it's feelingشعور and realityواقع.
490
1229000
3000
إنها ليست فقط الحقيقة، إنه إحساس و واقع.
20:47
What's importantمهم
491
1232000
2000
ما هو مهم
20:49
is that they be about the sameنفسه.
492
1234000
2000
هو أن يكونا عن الشئ نفسه.
20:51
It's importantمهم that, if our feelingsمشاعر matchمباراة realityواقع,
493
1236000
2000
إنه مهم أن، تكون أحاسيسنا تطابق الحقيقة،
20:53
we make better securityالأمان trade-offsالمقايضات.
494
1238000
2000
لنستطيع صنع مقايضات أمن أفضل.
20:55
Thank you.
495
1240000
2000
شكرا لكم.
20:57
(Applauseتصفيق)
496
1242000
2000
(تصفيق)
Translated by Wafa Alnasayan
Reviewed by Faisal Jeber

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com