ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

ברוס שנאייר: ברוס שנאייר: תעתועי הבטחון

Filmed:
958,315 views

תחושת הבטחון והמציאות הביטחונית לא תמיד תואמים, אומר המומחה לאבטחת מחשבים ברוס שנאייר. ב-TEDxPSU, הוא מסביר למה אנחנו מבזבזים מיליארדים על סיכונים שמהווים סיפורים חדשותיים, כמו "תאטרון הבטחון" שמציג עכשיו בשדה התעופה שלך, בעודנו מזניחים סיכונים סבירים יותר -- ואיך ניתן לפרוץ את התבנית.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securityבִּטָחוֹן is two differentשונה things:
0
0
2000
בטחון הוא שני דברים שונים:
00:17
it's a feelingמַרגִישׁ, and it's a realityמְצִיאוּת.
1
2000
2000
הוא תחושה, והוא מציאות.
00:19
And they're differentשונה.
2
4000
2000
ואלו דברים שונים.
00:21
You could feel secureלבטח
3
6000
2000
אתה יכול לחוש בטוח
00:23
even if you're not.
4
8000
2000
אפילו כשאתה לא.
00:25
And you can be secureלבטח
5
10000
2000
ואתה יכול להיות בטוח
00:27
even if you don't feel it.
6
12000
2000
אפילו בלי לחוש כך.
00:29
Really, we have two separateנפרד conceptsמושגים
7
14000
2000
באמת, יש לנו שני מושגים שונים
00:31
mappedממופה ontoעַל גַבֵּי the sameאותו wordמִלָה.
8
16000
2000
שמתייחסים לאותה המילה.
00:33
And what I want to do in this talk
9
18000
2000
ומה שאני רוצה לעשות
בהרצאה זו
00:35
is to splitלְפַצֵל them apartמלבד --
10
20000
2000
הוא להפריד ביניהם --
00:37
figuringלהבין out when they divergeלִסְטוֹת
11
22000
2000
למצוא מתי הם נפרדים
00:39
and how they convergeלְהִתְכַּנֵס.
12
24000
2000
ומתי הם מתלכדים.
00:41
And languageשפה is actuallyלמעשה a problemבְּעָיָה here.
13
26000
2000
והשפה היא למעשה בעיה כאן.
00:43
There aren'tלא a lot of good wordsמילים
14
28000
2000
אין הרבה מילים טובות
00:45
for the conceptsמושגים we're going to talk about.
15
30000
3000
עבור המושגים עליהם נדבר.
00:48
So if you look at securityבִּטָחוֹן
16
33000
2000
אז כשמסתכלים על בטחון
00:50
from economicכַּלְכָּלִי termsמונחים,
17
35000
2000
מבחינה כלכלית,
00:52
it's a trade-offסחר- off.
18
37000
2000
יש פה פשרה.
00:54
Everyכֹּל time you get some securityבִּטָחוֹן,
19
39000
2000
בכל פעם שמשיגים קצת בטחון,
00:56
you're always tradingמִסְחָר off something.
20
41000
2000
מתפשרים על משהו.
00:58
Whetherהאם this is a personalאישי decisionהַחְלָטָה --
21
43000
2000
בין אם זו החלטה אישית --
01:00
whetherהאם you're going to installלהתקין a burglarפּוֹרֵץ alarmאזעקה in your home --
22
45000
2000
אם מחליטים להתקין בבית
אזעקה נגד פורצים --
01:02
or a nationalלאומי decisionהַחְלָטָה -- where you're going to invadeלִפְלוֹשׁ some foreignזָר countryמדינה --
23
47000
3000
או החלטה לאומית --
כשמחליטים לפלוש לאיזו מדינה --
01:05
you're going to tradeסַחַר off something,
24
50000
2000
צריך להתפשר על משהו,
01:07
eitherאוֹ moneyכֶּסֶף or time, convenienceנוֹחוּת, capabilitiesיכולות,
25
52000
3000
כסף או זמן, נוחות, יכולות,
01:10
maybe fundamentalבסיסי libertiesחירויות.
26
55000
3000
ואולי חירויות יסוד.
01:13
And the questionשְׁאֵלָה to askלִשְׁאוֹל when you look at a securityבִּטָחוֹן anything
27
58000
3000
והשאלה שיש לשאול
כשבוחנים אבטחה כלשהי
01:16
is not whetherהאם this makesעושה us saferבטוח יותר,
28
61000
3000
היא לא אם היא משפרת
את הבטחון שלנו,
01:19
but whetherהאם it's worthשִׁוּוּי the trade-offסחר- off.
29
64000
3000
אלא אם היא שווה את הפשרה.
01:22
You've heardשמע in the pastעבר severalכַּמָה yearsשנים,
30
67000
2000
שמעתם במהלך השנים האחרונות,
01:24
the worldעוֹלָם is saferבטוח יותר because Saddamסדאם Hussein22ations is not in powerכּוֹחַ.
31
69000
2000
שהעולם בטוח יותר
כי סדאם חוסיין כבר לא בשלטון.
01:26
That mightאולי be trueנָכוֹן, but it's not terriblyנוֹרָא relevantרלוונטי.
32
71000
3000
זה עשוי להיות נכון,
אבל זה לא ממש רלבנטי.
01:29
The questionשְׁאֵלָה is, was it worthשִׁוּוּי it?
33
74000
3000
השאלה היא,
האם זה השתלם?
01:32
And you can make your ownשֶׁלוֹ decisionהַחְלָטָה,
34
77000
3000
ואתם יכולים להחליט בעצמכם,
01:35
and then you'llאתה decideלְהַחלִיט whetherהאם the invasionפְּלִישָׁה was worthשִׁוּוּי it.
35
80000
2000
אתם תחליטו האם הפלישה השתלמה.
01:37
That's how you think about securityבִּטָחוֹן --
36
82000
2000
כך אתם צריכים לחשוב על בטחון --
01:39
in termsמונחים of the trade-offסחר- off.
37
84000
2000
במונחים של פשרה.
01:41
Now there's oftenלעתים קרובות no right or wrongלא בסדר here.
38
86000
3000
לעתים אין "נכון" או "לא נכון".
01:44
Some of us have a burglarפּוֹרֵץ alarmאזעקה systemמערכת at home,
39
89000
2000
לחלקנו יש בבית מערכת אזעקה,
01:46
and some of us don't.
40
91000
2000
ולחלקנו לא.
01:48
And it'llזה יהיה dependלִסְמוֹך on where we liveלחיות,
41
93000
2000
וזה תלוי במקום בו אנו גרים,
01:50
whetherהאם we liveלחיות aloneלבד or have a familyמִשׁפָּחָה,
42
95000
2000
האם אנחנו גרים לבד
או שיש לנו משפחה,
01:52
how much coolמגניב stuffדברים we have,
43
97000
2000
בכמות הדברים היקרים שיש לנו,
01:54
how much we're willingמוּכָן to acceptלְקַבֵּל
44
99000
2000
עד כמה אנחנו מוכנים לקבל
01:56
the riskלְהִסְתָכֵּן of theftגְנֵבָה.
45
101000
2000
את הסיכון שתהיה גניבה.
01:58
In politicsפּוֹלִיטִיקָה alsoגַם,
46
103000
2000
גם בפוליטיקה,
02:00
there are differentשונה opinionsדעות.
47
105000
2000
יש דיעות שונות.
02:02
A lot of timesפִּי, these trade-offsסחר- offs
48
107000
2000
במקרים רבים, פשרות אלו
02:04
are about more than just securityבִּטָחוֹן,
49
109000
2000
קשורות ביותר מאשר בטחון,
02:06
and I think that's really importantחָשׁוּב.
50
111000
2000
ואני חושב שזה מאוד חשוב.
02:08
Now people have a naturalטִבעִי intuitionאינטואיציה
51
113000
2000
לאנשים יש אינטואיציה טבעית
02:10
about these trade-offsסחר- offs.
52
115000
2000
לגבי פשרות אלו.
02:12
We make them everyכֹּל day --
53
117000
2000
אנו עושים אותן כל יום --
02:14
last night in my hotelמלון roomחֶדֶר,
54
119000
2000
אתמול בלילה, בחדרי במלון,
02:16
when I decidedהחליט to double-lockמנעול כפול the doorדלת,
55
121000
2000
כשהחלטתי לנעול את הדלת
נעילה כפולה,
02:18
or you in your carאוטו when you droveנסע here,
56
123000
2000
או אתם במכונית,
כשנהגתם הנה,
02:20
when we go eatלאכול lunchארוחת צהריים
57
125000
2000
כשאנחנו הולכים לאכול ארוחת צהריים
02:22
and decideלְהַחלִיט the food'sמזון not poisonרַעַל and we'llטוֹב eatלאכול it.
58
127000
3000
ומחליטים שהמזון אינו רעיל
ואוכלים אותו.
02:25
We make these trade-offsסחר- offs again and again,
59
130000
2000
אנו מתפשרים כך שוב ושוב
02:27
multipleמְרוּבֶּה timesפִּי a day.
60
132000
2000
פעמים רבות ביום.
02:29
We oftenלעתים קרובות won'tרָגִיל even noticeהודעה them.
61
134000
2000
לרוב אנו בכלל לא מבחינים בזאת.
02:31
They're just partחֵלֶק of beingלהיות aliveבחיים; we all do it.
62
136000
2000
הן פשוט חלק מהחיים.
כולנו עושים את זה.
02:33
Everyכֹּל speciesמִין does it.
63
138000
3000
כל המינים עושים את זה.
02:36
Imagineלדמיין a rabbitארנב in a fieldשדה, eatingאֲכִילָה grassדֶשֶׁא,
64
141000
2000
דמיינו ארנב שאוכל עשב בשדה,
02:38
and the rabbit'sארנב going to see a foxשׁוּעָל.
65
143000
3000
והארנב רואה שועל.
02:41
That rabbitארנב will make a securityבִּטָחוֹן trade-offסחר- off:
66
146000
2000
הארנב יעשה פשרת-אבטחה:
02:43
"Should I stayשָׁהוּת, or should I fleeלברוח?"
67
148000
2000
"האם עלי להישאר או לברוח?"
02:45
And if you think about it,
68
150000
2000
ואם חושבים על זה,
02:47
the rabbitsארנבות that are good at makingהֲכָנָה that trade-offסחר- off
69
152000
3000
הארנבים שטובים בעשיית הפשרה הזו
02:50
will tendנוטה to liveלחיות and reproduceלְשַׁחְזֵר,
70
155000
2000
יזכו לחיות ולהתרבות,
02:52
and the rabbitsארנבות that are badרַע at it
71
157000
2000
והארנבים שישגו בבחירתם
02:54
will get eatenאָכוּל or starveלְהַרְעִיב.
72
159000
2000
ייטרפו או יגוועו ברעב.
02:56
So you'dהיית רוצה think
73
161000
2000
הייתם חושבים
02:58
that us, as a successfulמוּצלָח speciesמִין on the planetכוכב לכת --
74
163000
3000
שאנחנו, כמין מצליח בכדור הארץ --
03:01
you, me, everybodyכולם --
75
166000
2000
אתם, אני, כולם --
03:03
would be really good at makingהֲכָנָה these trade-offsסחר- offs.
76
168000
3000
נהיה ממש טובים בהתפשרויות האלה.
03:06
Yetעדיין it seemsנראה, again and again,
77
171000
2000
ובכל זאת נראה, פעם אחר פעם,
03:08
that we're hopelesslyללא תקנה badרַע at it.
78
173000
3000
שאנחנו גרועים בזה ללא תקנה.
03:11
And I think that's a fundamentallyבִּיסוֹדוֹ interestingמעניין questionשְׁאֵלָה.
79
176000
3000
ואני חושב שזוהי שאלה
מעניינת מיסודה.
03:14
I'll give you the shortקצר answerתשובה.
80
179000
2000
אתן לכם תשובה קצרה.
03:16
The answerתשובה is, we respondלְהָגִיב to the feelingמַרגִישׁ of securityבִּטָחוֹן
81
181000
2000
התשובה היא,
שאנחנו מגיבים לתחושת הבטחון
03:18
and not the realityמְצִיאוּת.
82
183000
3000
ולא למציאות.
03:21
Now mostרוב of the time, that worksעובד.
83
186000
3000
לרוב, זה עובד.
03:25
Mostרוב of the time,
84
190000
2000
ברוב המקרים,
03:27
feelingמַרגִישׁ and realityמְצִיאוּת are the sameאותו.
85
192000
3000
התחושה והמציאות שווים.
03:30
Certainlyבְּהֶחלֵט that's trueנָכוֹן
86
195000
2000
זה ללא ספק נכון
03:32
for mostרוב of humanבן אנוש prehistoryפרהיסטוריה.
87
197000
3000
במשך רוב הפרהיסטוריה האנושית.
03:35
We'veללא שם: יש לנו developedמפותח this abilityיְכוֹלֶת
88
200000
3000
פיתחנו את היכולת הזו
03:38
because it makesעושה evolutionaryאֵבוֹלוּצִיוֹנִי senseלָחוּשׁ.
89
203000
2000
כי היא היתה הגיונית
מבחינה אבולוציונית.
03:40
One way to think of it
90
205000
2000
דרך אחת להסתכל על זה
03:42
is that we're highlyמְאוֹד optimizedממוטב
91
207000
2000
היא שהגענו למיטוב גבוה מאוד
03:44
for riskלְהִסְתָכֵּן decisionsהחלטות
92
209000
2000
בהחלטות הנוגעות לסיכונים
03:46
that are endemicאֶנדֵמִי to livingחַי in smallקָטָן familyמִשׁפָּחָה groupsקבוצות
93
211000
3000
ששייכים לחיים בקבוצות משפחתיות קטנות
03:49
in the Eastמזרח Africanאַפְרִיקַנִי highlandsהרמה in 100,000 B.C.
94
214000
3000
ברמות של מזרח אפריקה,
כ-100,000 שנה לפני הספירה --
03:52
2010 Newחָדָשׁ Yorkיורק, not so much.
95
217000
3000
ולא כל כך בניו-יורק של 2010.
03:56
Now there are severalכַּמָה biasesהטיות in riskלְהִסְתָכֵּן perceptionתפיסה.
96
221000
3000
קיימות הטיות מסויימות
בקשר לתפישת סיכון.
03:59
A lot of good experimentsניסויים in this.
97
224000
2000
נעשו מחקרים טובים רבים על כך,
04:01
And you can see certainמסוים biasesהטיות that come up again and again.
98
226000
3000
וניתן לראות שהטיות מסויימות
עולות שוב ושוב.
04:04
So I'll give you fourארבעה.
99
229000
2000
אתן לכם ארבע.
04:06
We tendנוטה to exaggerateלְהַגזִים spectacularמַרהִיב and rareנָדִיר risksסיכונים
100
231000
3000
אנו נוטים להגזים
בנוגע לסיכונים מרשימים ונדירים
04:09
and downplayמשחק commonמשותף risksסיכונים --
101
234000
2000
ולהמעיט בסיכונים נפוצים --
04:11
so flyingעַף versusנגד drivingנְהִיגָה.
102
236000
3000
כמו טיסה לעומת נהיגה.
04:14
The unknownלא ידוע is perceivedנתפס
103
239000
2000
הבלתי ידוע נתפש
04:16
to be riskierמסוכן than the familiarמוּכָּר.
104
241000
3000
כמסוכן יותר מאשר המוכּר.
04:20
One exampleדוגמא would be,
105
245000
2000
דוגמה אחת תהיה:
04:22
people fearפַּחַד kidnappingחֲטִיפָה by strangersזרים
106
247000
3000
אנשים חוששים מחטיפה ע"י זרים,
04:25
when the dataנתונים supportsתומך kidnappingחֲטִיפָה by relativesקרובי משפחה is much more commonמשותף.
107
250000
3000
כשהנתונים מראים שחטיפה ע"י קרובים
נפוצה הרבה יותר.
04:28
This is for childrenיְלָדִים.
108
253000
2000
זה בנוגע לילדים.
04:30
Thirdשְׁלִישִׁי, personifiedמגולם risksסיכונים
109
255000
3000
שלישית, סיכונים מזוהים
04:33
are perceivedנתפס to be greaterגדול יותר than anonymousבעילום שם risksסיכונים --
110
258000
3000
נתפשים כגדולים יותר מסיכונים אנונימיים --
04:36
so Binפַּח Ladenעָמוּס is scarierמפחיד יותר because he has a nameשֵׁם.
111
261000
3000
אז בן-לאדן מפחיד יותר
כי יש לו שם.
04:39
And the fourthרביעי
112
264000
2000
ורביעית,
04:41
is people underestimateלְהַמעִיט בְּעֵרכּוֹ risksסיכונים
113
266000
2000
אנשים מפחיתים בהערכת עוצמת הסיכונים
04:43
in situationsמצבים they do controlלִשְׁלוֹט
114
268000
2000
במצבים שבהם הם שולטים
04:45
and overestimateהערכת יתר them in situationsמצבים they don't controlלִשְׁלוֹט.
115
270000
4000
ומפריזים בהערכתם
במצבים בהם אינם שולטים.
04:49
So onceפַּעַם you take up skydivingצְנִיחָה חָפשִׁית or smokingלעשן,
116
274000
3000
אז כשמתחילים בצניחה חופשית ובעישון,
04:52
you downplayמשחק the risksסיכונים.
117
277000
2000
ממעיטים בערך הסיכונים.
04:54
If a riskלְהִסְתָכֵּן is thrustדַחַף uponעַל you -- terrorismטֵרוֹר was a good exampleדוגמא --
118
279000
3000
אם הסיכון נכפה עליכם --
טרור הוא דוגמה טובה --
04:57
you'llאתה overplayOverplay it because you don't feel like it's in your controlלִשְׁלוֹט.
119
282000
3000
אתם תפריזו בהערכתו,
כי אינכם חשים שזה בשליטתכם.
05:02
There are a bunchצְרוֹר of other of these biasesהטיות, these cognitiveקוגניטיבית biasesהטיות,
120
287000
3000
יש המון הטיות כאלה,
הטיות קוגניטיביות,
05:05
that affectלהשפיע our riskלְהִסְתָכֵּן decisionsהחלטות.
121
290000
3000
שמשפיעות על החלטותינו
בנוגע לסיכונים.
05:08
There's the availabilityזמינות heuristicהֵאוֹרִיסטִי,
122
293000
2000
ישנה יוריסטיקת הנגישות,
05:10
whichאיזה basicallyבעיקרון meansאומר
123
295000
2000
שאומרת, בעיקרון,
05:12
we estimateלְהַעֲרִיך the probabilityהִסתַבְּרוּת of something
124
297000
3000
שאנחנו מעריכים
את ההסתברות של משהו
05:15
by how easyקַל it is to bringלְהָבִיא instancesמקרים of it to mindאכפת.
125
300000
4000
לפי המידה בה קל לחשוב
על מקרים דומים.
05:19
So you can imagineלדמיין how that worksעובד.
126
304000
2000
אז אתם יכולים לדמיין
איך זה עובד.
05:21
If you hearלִשְׁמוֹעַ a lot about tigerנָמֵר attacksהתקפות, there mustצריך be a lot of tigersנמרים around.
127
306000
3000
אם שומעים הרבה על תקיפות נמרים,
יש ודאי הרבה נמרים באיזור.
05:24
You don't hearלִשְׁמוֹעַ about lionאַריֵה attacksהתקפות, there aren'tלא a lot of lionsאריות around.
128
309000
3000
לא שומעים על תקיפות אריות,
אז אין הרבה אריות באיזור.
05:27
This worksעובד untilעד you inventלִהַמצִיא newspapersעיתונים.
129
312000
3000
זה עובד עד שממציאים
את העיתונים.
05:30
Because what newspapersעיתונים do
130
315000
2000
כי מה שהעיתונים עושים
05:32
is they repeatחזור again and again
131
317000
2000
הוא לחזור שוב ושוב
05:34
rareנָדִיר risksסיכונים.
132
319000
2000
על סיכונים נדירים
05:36
I tell people, if it's in the newsחֲדָשׁוֹת, don't worryדאגה about it.
133
321000
2000
אני אומר לאנשים, אם זה בחדשות,
אין לכם מה לדאוג.
05:38
Because by definitionהַגדָרָה,
134
323000
2000
כי בהגדרה,
05:40
newsחֲדָשׁוֹת is something that almostכִּמעַט never happensקורה.
135
325000
3000
חדשות הן משהו
שכמעט אף פעם לא קורה.
05:43
(Laughterצחוק)
136
328000
2000
(צחוק)
05:45
When something is so commonמשותף, it's no longerארוך יותר newsחֲדָשׁוֹת --
137
330000
3000
כשמשהו נפוץ,
הוא כבר לא חדשות --
05:48
carאוטו crashesקריסות, domesticבֵּיתִי violenceאַלִימוּת --
138
333000
2000
התנגשויות של מכוניות,
אלימות במשפחה --
05:50
those are the risksסיכונים you worryדאגה about.
139
335000
3000
מהדברים האלה צריך לחשוש.
05:53
We're alsoגַם a speciesמִין of storytellersמספרי סיפורים.
140
338000
2000
אנו גם מין של מספרי סיפורים.
05:55
We respondלְהָגִיב to storiesסיפורים more than dataנתונים.
141
340000
3000
אנו מגיבים לסיפורים
יותר מאשר לנתונים.
05:58
And there's some basicבסיסי innumeracyאי-ספירה going on.
142
343000
2000
וקיימת כאן גם בעיה
של כישורי-יסוד מתמטיים.
06:00
I mean, the jokeבדיחה "One, Two, Threeשְׁלוֹשָׁה, Manyרב" is kindסוג of right.
143
345000
3000
הבדיחה "אחת, שתיים, שלוש, הרבה"
היא די נכונה.
06:03
We're really good at smallקָטָן numbersמספרים.
144
348000
3000
אנחנו ממש טובים במספרים קטנים.
06:06
One mangoמנגו, two mangoesמנגואים, threeשְׁלוֹשָׁה mangoesמנגואים,
145
351000
2000
מנגו אחד, שני מנגואים,
שלושה מנגואים,
06:08
10,000 mangoesמנגואים, 100,000 mangoesמנגואים --
146
353000
2000
10,000 מנגואים,
100,000 מנגואים --
06:10
it's still more mangoesמנגואים you can eatלאכול before they rotרָקָב.
147
355000
3000
זה עדיין יותר מנגואים
ממה שתוכלו לאכול לפני שיירקבו.
06:13
So one halfחֲצִי, one quarterרובע, one fifthחמישי -- we're good at that.
148
358000
3000
אז חצי אחד, רבע אחד,
חמישית -- אנחנו טובים בזה.
06:16
One in a millionמִילִיוֹן, one in a billionמיליארד --
149
361000
2000
אחד למיליון, אחד למיליארד,
06:18
they're bothשניהם almostכִּמעַט never.
150
363000
3000
שניהם זהים ל"כמעט אף פעם".
06:21
So we have troubleצרות with the risksסיכונים
151
366000
2000
אז יש לנו בעיה עם הסיכונים
06:23
that aren'tלא very commonמשותף.
152
368000
2000
שאינם מאוד נפוצים.
06:25
And what these cognitiveקוגניטיבית biasesהטיות do
153
370000
2000
ומה שההטיות הקוגניטיביות האלה עושות
06:27
is they actפעולה as filtersמסננים betweenבֵּין us and realityמְצִיאוּת.
154
372000
3000
הוא שהן חוצצות בינינו
לבין המציאות.
06:30
And the resultתוֹצָאָה
155
375000
2000
והתוצאה היא
06:32
is that feelingמַרגִישׁ and realityמְצִיאוּת get out of whackמַהֲלוּמָה,
156
377000
2000
שהתחושה והמציאות לא מתואמות,
06:34
they get differentשונה.
157
379000
3000
הן נעשות שונות.
06:37
Now you eitherאוֹ have a feelingמַרגִישׁ -- you feel more secureלבטח than you are.
158
382000
3000
אז או שיש לכם תחושה-- אתם חשים
יותר בטוחים מכפי שאתם באמת.
06:40
There's a falseשֶׁקֶר senseלָחוּשׁ of securityבִּטָחוֹן.
159
385000
2000
זוהי תחושת שווא של בטחון.
06:42
Or the other way,
160
387000
2000
או להיפך,
06:44
and that's a falseשֶׁקֶר senseלָחוּשׁ of insecurityחוסר ביטחון.
161
389000
2000
וזוהי תחושת שווא של חוסר בטחון.
06:46
I writeלִכתוֹב a lot about "securityבִּטָחוֹן theaterתיאטרון,"
162
391000
3000
כתבתי רבות על "תיאטרון הביטחון",
06:49
whichאיזה are productsמוצרים that make people feel secureלבטח,
163
394000
3000
מוצרים שגורמים לאנשים לחוש בטוחים,
06:52
but don't actuallyלמעשה do anything.
164
397000
2000
אבל למעשה לא עושים כלום.
06:54
There's no realאמיתי wordמִלָה for stuffדברים that makesעושה us secureלבטח,
165
399000
2000
אין מילה אמיתית עבור משהו
שגורם לנו להיות בטוחים,
06:56
but doesn't make us feel secureלבטח.
166
401000
2000
אבל לא גורם לנו לחוש בטוחים.
06:58
Maybe it's what the CIA'sCIA supposedאמור to do for us.
167
403000
3000
אולי זה מה שהסי-איי-איי
אמור לספק לנו.
07:03
So back to economicsכלכלה.
168
408000
2000
אז בחזרה לכלכלה.
07:05
If economicsכלכלה, if the marketשׁוּק, drivesכוננים securityבִּטָחוֹן,
169
410000
4000
אם כלכלה, אם השוק,
מניעים את הביטחון,
07:09
and if people make trade-offsסחר- offs
170
414000
2000
ואם אנשים מתפשרים
07:11
basedמבוסס on the feelingמַרגִישׁ of securityבִּטָחוֹן,
171
416000
3000
על סמך תחושת הבטחון,
07:14
then the smartלִכאוֹב thing for companiesחברות to do
172
419000
2000
אז הדבר החכם
שחברות צריכות לעשות
07:16
for the economicכַּלְכָּלִי incentivesתמריצים
173
421000
2000
בגלל התמריץ הכלכלי
07:18
are to make people feel secureלבטח.
174
423000
3000
הוא לגרום לאנשים לחוש בטוחים.
07:21
And there are two waysדרכים to do this.
175
426000
3000
ויש שתי דרכים לעשות זאת.
07:24
One, you can make people actuallyלמעשה secureלבטח
176
429000
2000
אחת, אפשר לגרום לאנשים
להיות באמת בטוחים
07:26
and hopeלְקַווֹת they noticeהודעה.
177
431000
2000
ולקוות שישגיחו בכך.
07:28
Or two, you can make people just feel secureלבטח
178
433000
3000
או שתיים, אפשר לגרום להם
רק לחוש בטוחים
07:31
and hopeלְקַווֹת they don't noticeהודעה.
179
436000
3000
ולקוות שהם לא ישימו לב.
07:35
So what makesעושה people noticeהודעה?
180
440000
3000
אז מה גורם לאנשים לשים לב?
07:38
Well a coupleזוּג of things:
181
443000
2000
ובכן, מספר דברים:
07:40
understandingהֲבָנָה of the securityבִּטָחוֹן,
182
445000
2000
הבנה בביטחון,
07:42
of the risksסיכונים, the threatsאיומים,
183
447000
2000
של הסיכונים, האיומים,
07:44
the countermeasuresאמצעי נגד, how they work.
184
449000
3000
של אמצעי הנגד,
איך הם פועלים.
07:47
But if you know stuffדברים,
185
452000
2000
אבל אם מבינים משהו,
07:49
you're more likelyסָבִיר to have your feelingsרגשות matchהתאמה realityמְצִיאוּת.
186
454000
3000
סביר יותר שהתחושות יתאימו למציאות.
07:52
Enoughמספיק realאמיתי worldעוֹלָם examplesדוגמאות helpsעוזר.
187
457000
3000
די במספיק דוגמאות מהעולם האמיתי.
07:55
Now we all know the crimeפֶּשַׁע rateציון in our neighborhoodשְׁכוּנָה,
188
460000
3000
כולנו יודעים מהי רמת הפשע
בשכונה שלנו,
07:58
because we liveלחיות there, and we get a feelingמַרגִישׁ about it
189
463000
3000
כי אנחנו גרים שם,
ויש לנו תחושה בקשר לזה
08:01
that basicallyבעיקרון matchesהתאמות realityמְצִיאוּת.
190
466000
3000
שעקרונית תואמת למציאות.
08:04
Securityבִּטָחוֹן theater'sתיאטרון exposedחָשׂוּף
191
469000
3000
תיאטרון הביטחון נחשף
08:07
when it's obviousברור that it's not workingעובד properlyכמו שצריך.
192
472000
3000
כשברור שזה לא עובד טוב.
08:10
Okay, so what makesעושה people not noticeהודעה?
193
475000
4000
אז מה גורם לאנשים
לא לשים לב?
08:14
Well, a poorעני understandingהֲבָנָה.
194
479000
2000
ובכן, הבנה גרועה.
08:16
If you don't understandמבין the risksסיכונים, you don't understandמבין the costsעלויות,
195
481000
3000
אם לא מבינים את הסיכונים,
לא מבינים את העלויות,
08:19
you're likelyסָבִיר to get the trade-offסחר- off wrongלא בסדר,
196
484000
2000
וסביר שעושים פשרות שגויות,
08:21
and your feelingמַרגִישׁ doesn't matchהתאמה realityמְצִיאוּת.
197
486000
3000
והתחושה לא תואמת את המציאות.
08:24
Not enoughמספיק examplesדוגמאות.
198
489000
2000
לא מספיק דוגמאות.
08:26
There's an inherentטָבוּעַ problemבְּעָיָה
199
491000
2000
יש בעייתיות מובנית
08:28
with lowנָמוּך probabilityהִסתַבְּרוּת eventsאירועים.
200
493000
2000
באירועים בעלי הסתברות נמוכה.
08:30
If, for exampleדוגמא,
201
495000
2000
אם, לדוגמה,
08:32
terrorismטֵרוֹר almostכִּמעַט never happensקורה,
202
497000
2000
הטרור לא מתרחש
כמעט אף פעם,
08:34
it's really hardקָשֶׁה to judgeלִשְׁפּוֹט
203
499000
2000
ממש קשה להעריך
08:36
the efficacyיעילות of counter-terroristטרוריסט measuresאמצעים.
204
501000
3000
את יעילותם של אמצעים נגד טרור.
08:40
This is why you keep sacrificingלהקריב virginsבתולות,
205
505000
3000
לכן ממשיכים להקריב בתולות,
08:43
and why your unicornחַדקֶרֶן defensesהגנות are workingעובד just great.
206
508000
3000
ולכן הגנות החד-קרן שלכם
פשוט עובדות מעולה.
08:46
There aren'tלא enoughמספיק examplesדוגמאות of failuresכשלים.
207
511000
3000
אין מספיק דוגמאות לכשלונות.
08:50
Alsoגַם, feelingsרגשות that are cloudingעִרפּוּל the issuesנושאים --
208
515000
3000
ובנוסף, תחושות שמערפלות את הבעיות --
08:53
the cognitiveקוגניטיבית biasesהטיות I talkedדיבר about earlierמוקדם יותר,
209
518000
2000
ההטיות המחשבתיות
שדיברתי עליהן קודם,
08:55
fearsפחדים, folkאֲנָשִׁים beliefsאמונות,
210
520000
3000
פחד, אמונות עממיות,
08:58
basicallyבעיקרון an inadequateלָקוּי modelדֶגֶם of realityמְצִיאוּת.
211
523000
3000
בעקרון, מודל לא מספק של המציאות.
09:02
So let me complicateלסבך things.
212
527000
3000
אז הרשו לי לסבך את הדברים.
09:05
I have feelingמַרגִישׁ and realityמְצִיאוּת.
213
530000
2000
יש לי תחושה ומציאות.
09:07
I want to addלְהוֹסִיף a thirdשְׁלִישִׁי elementאֵלֵמֶנט. I want to addלְהוֹסִיף modelדֶגֶם.
214
532000
3000
אני רוצה להוסיף גורם שלישי.
אני רוצה להוסיף מודל.
09:10
Feelingמַרגִישׁ and modelדֶגֶם in our headרֹאשׁ,
215
535000
2000
תחושה ומודל נמצאים בראש שלנו,
09:12
realityמְצִיאוּת is the outsideבחוץ worldעוֹלָם.
216
537000
2000
המציאות היא העולם החיצון.
09:14
It doesn't changeשינוי; it's realאמיתי.
217
539000
3000
היא לא משתנה. היא ממשית.
09:17
So feelingמַרגִישׁ is basedמבוסס on our intuitionאינטואיציה.
218
542000
2000
אז התחושה מבוססת
על האינטואיציה שלנו.
09:19
Modelדֶגֶם is basedמבוסס on reasonסיבה.
219
544000
2000
המודל מבוסס על מחשבה.
09:21
That's basicallyבעיקרון the differenceהֶבדֵל.
220
546000
3000
זהו בעקרון ההבדל.
09:24
In a primitiveפְּרִימִיטִיבִי and simpleפָּשׁוּט worldעוֹלָם,
221
549000
2000
בעולם פרימיטיבי ופשוט,
09:26
there's really no reasonסיבה for a modelדֶגֶם
222
551000
3000
אין סיבה אמיתית למודל.
09:29
because feelingמַרגִישׁ is closeלִסְגוֹר to realityמְצִיאוּת.
223
554000
3000
כי התחושה קרובה למציאות.
09:32
You don't need a modelדֶגֶם.
224
557000
2000
לא צריך מודל.
09:34
But in a modernמוֹדֶרנִי and complexמורכב worldעוֹלָם,
225
559000
2000
אבל בעולם מודרני ומורכב,
09:36
you need modelsמודלים
226
561000
2000
צריך מודל
09:38
to understandמבין a lot of the risksסיכונים we faceפָּנִים.
227
563000
3000
כדי להבין רבים מהסיכונים שניצבים בפנינו.
09:42
There's no feelingמַרגִישׁ about germsחיידקים.
228
567000
2000
אין תחושה בנוגע לחיידקים.
09:44
You need a modelדֶגֶם to understandמבין them.
229
569000
3000
צריך מודל כדי להבין אותם.
09:47
So this modelדֶגֶם
230
572000
2000
אז המודל הזה
09:49
is an intelligentאִינְטֶלִיגֶנְטִי representationיִצוּג of realityמְצִיאוּת.
231
574000
3000
הוא ייצוג תבוני של המציאות.
09:52
It's, of courseקוּרס, limitedמוגבל by scienceמַדָע,
232
577000
3000
הוא מוגבל כמובן ע"י המדע,
09:55
by technologyטֶכנוֹלוֹגִיָה.
233
580000
2000
ע"י הטכנולוגיה.
09:57
We couldn'tלא יכול have a germנֶבֶט theoryתֵאוֹרִיָה of diseaseמַחֲלָה
234
582000
3000
לא יכלה להיות לנו
תאוריית חיידקים על מחלות
10:00
before we inventedבדוי the microscopeמִיקרוֹסקוֹפּ to see them.
235
585000
3000
לפני שהמצאנו את המיקרוסקופ
שמאפשר לראות אותם.
10:04
It's limitedמוגבל by our cognitiveקוגניטיבית biasesהטיות.
236
589000
3000
הוא מוגבל ע"י
ההטיות המחשבתיות שלנו.
10:07
But it has the abilityיְכוֹלֶת
237
592000
2000
אבל יש לו היכולת
10:09
to overrideלעקוף our feelingsרגשות.
238
594000
2000
להתגבר על התחושות שלנו
10:11
Where do we get these modelsמודלים? We get them from othersאחרים.
239
596000
3000
מאין אנחנו מקבלים מודלים אלה?
אנחנו מקבלים אותם מאחרים.
10:14
We get them from religionדָת, from cultureתַרְבּוּת,
240
599000
3000
אנחנו מקבלים אותם מהדת, מהמסורת,
10:17
teachersמורים, eldersזקנים.
241
602000
2000
ממורים, מזקנים.
10:19
A coupleזוּג yearsשנים agoלִפנֵי,
242
604000
2000
לפני כמה שנים
10:21
I was in Southדָרוֹם Africaאַפְרִיקָה on safariספארי.
243
606000
2000
הייתי בספארי בדרום אפריקה.
10:23
The trackerגַשָׁשׁ I was with grewגדל up in Krugerקרוגר Nationalלאומי Parkפָּארק.
244
608000
3000
הגשש שהייתי איתו
גדל בפארק הלאומי קרוגר.
10:26
He had some very complexמורכב modelsמודלים of how to surviveלִשְׂרוֹד.
245
611000
3000
היו לו כמה מודלים מורכבים מאוד
כיצד לשרוד.
10:29
And it dependedתלוי on if you were attackedהותקף
246
614000
2000
וזה היה תלוי בשאלה אם הותקפת
10:31
by a lionאַריֵה or a leopardנָמֵר or a rhinoקַרנַף or an elephantפיל --
247
616000
2000
ע"י אריה, נמר, קרנף או פיל --
10:33
and when you had to runלָרוּץ away, and when you couldn'tלא יכול runלָרוּץ away, and when you had to climbלְטַפֵּס a treeעֵץ --
248
618000
3000
מתי היית צריך לברוח,
או מתי היית צריך לטפס על עץ --
10:36
when you could never climbלְטַפֵּס a treeעֵץ.
249
621000
2000
או שלא היית מצליח
לטפס על עץ.
10:38
I would have diedמת in a day,
250
623000
3000
הייתי מת תוך יום אחד,
10:41
but he was bornנוֹלָד there,
251
626000
2000
אבל הוא נולד שם,
10:43
and he understoodהבין how to surviveלִשְׂרוֹד.
252
628000
2000
והוא הבין איך לשרוד.
10:45
I was bornנוֹלָד in Newחָדָשׁ Yorkיורק Cityעִיר.
253
630000
2000
אני נולדתי בעיר ניו יורק.
10:47
I could have takenנלקח him to Newחָדָשׁ Yorkיורק, and he would have diedמת in a day.
254
632000
3000
הייתי יכול לקחת אותו לניו יורק,
והוא היה מת תוך יום.
10:50
(Laughterצחוק)
255
635000
2000
(צחוק)
10:52
Because we had differentשונה modelsמודלים
256
637000
2000
בגלל שיש לנו מודלים שונים
10:54
basedמבוסס on our differentשונה experiencesחוויות.
257
639000
3000
המבוססים על נסיון החיים
השונה שלנו.
10:58
Modelsמודלים can come from the mediaכְּלֵי תִקְשׁוֹרֶת,
258
643000
2000
מודלים יכולים לבוא מהתקשורת,
11:00
from our electedנבחר officialsפקידים.
259
645000
3000
מהנבחרים שלנו.
11:03
Think of modelsמודלים of terrorismטֵרוֹר,
260
648000
3000
חישבו על מודלים של טרור,
11:06
childיֶלֶד kidnappingחֲטִיפָה,
261
651000
3000
חטיפות ילדים,
11:09
airlineחֶברַת תְעוּפָה safetyבְּטִיחוּת, carאוטו safetyבְּטִיחוּת.
262
654000
2000
בטיחות טיסה, בטיחות רכב.
11:11
Modelsמודלים can come from industryתַעֲשִׂיָה.
263
656000
3000
מודלים יכולים לבוא מהתעשייה.
11:14
The two I'm followingהבא are surveillanceהַשׁגָחָה camerasמצלמות,
264
659000
2000
השניים שאני עוקב אחריהם
הם מצלמות מעקב,
11:16
IDתְעוּדַת זֶהוּת cardsקלפים,
265
661000
2000
תעודות זהות,
11:18
quiteדַי a lot of our computerמַחשֵׁב securityבִּטָחוֹן modelsמודלים come from there.
266
663000
3000
רבים ממודלי אבטחת המחשבים שלנו
באים משם.
11:21
A lot of modelsמודלים come from scienceמַדָע.
267
666000
3000
מודלים רבים באים מהמדע.
11:24
Healthבְּרִיאוּת modelsמודלים are a great exampleדוגמא.
268
669000
2000
מודלים רפואיים הם דוגמא מצויינת.
11:26
Think of cancerמחלת הסרטן, of birdציפור fluשַׁפַעַת, swineחֲזִיר fluשַׁפַעַת, SARSסארס.
269
671000
3000
חישבו על סרטן, שפעת העופות,
שפעת החזירים, סארס.
11:29
All of our feelingsרגשות of securityבִּטָחוֹן
270
674000
3000
כל התחושות שלנו לגבי ביטחון
11:32
about those diseasesמחלות
271
677000
2000
לגבי המחלות האלה
11:34
come from modelsמודלים
272
679000
2000
מגיעות ממודלים
11:36
givenנָתוּן to us, really, by scienceמַדָע filteredמְסוּנָן throughדרך the mediaכְּלֵי תִקְשׁוֹרֶת.
273
681000
3000
שניתנים לנו, באמת, ע"י מדענים
לאחר סינון של התקשורת.
11:40
So modelsמודלים can changeשינוי.
274
685000
3000
אז מודלים עשויים להשתנות.
11:43
Modelsמודלים are not staticסטָטִי.
275
688000
2000
מודלים אינם סטטיים.
11:45
As we becomeהפכו more comfortableנוֹחַ in our environmentsסביבות,
276
690000
3000
ככל שאנחנו חשים יותר בנוח
בסביבה שלנו,
11:48
our modelדֶגֶם can moveמהלך \ לזוז \ לעבור closerיותר קרוב to our feelingsרגשות.
277
693000
4000
המודלים שלנו יכולים להתקרב לתחושותינו.
11:53
So an exampleדוגמא mightאולי be,
278
698000
2000
דוגמה אחת עשויה להיות,
11:55
if you go back 100 yearsשנים agoלִפנֵי
279
700000
2000
אם חוזרים 100 שנה לאחור
11:57
when electricityחַשְׁמַל was first becomingהִתהַוּוּת commonמשותף,
280
702000
3000
כשהחשמל החל להיות נפוץ,
12:00
there were a lot of fearsפחדים about it.
281
705000
2000
הוא לווה בהרבה מאוד חששות.
12:02
I mean, there were people who were afraidחוֹשֵׁשׁ to pushלִדחוֹף doorbellsהדלתות,
282
707000
2000
היו אנשים שחששו ללחוץ
על פעמוני דלתות,
12:04
because there was electricityחַשְׁמַל in there, and that was dangerousמְסוּכָּן.
283
709000
3000
כי חששו מהחשמל שבהם,
וזה היה מסוכן.
12:07
For us, we're very facileחסכוני around electricityחַשְׁמַל.
284
712000
3000
אנחנו מרגישים בנוח עם חשמל.
12:10
We changeשינוי lightאוֹר bulbsנורות
285
715000
2000
אנחנו מחליפים נורות
12:12
withoutלְלֹא even thinkingחושב about it.
286
717000
2000
אפילו בלי לחשוב על זה.
12:14
Our modelדֶגֶם of securityבִּטָחוֹן around electricityחַשְׁמַל
287
719000
4000
המודל שלנו לגבי בטחון עם חשמל,
12:18
is something we were bornנוֹלָד into.
288
723000
3000
הוא משהו שנולדנו לתוכו.
12:21
It hasn'tלא changedהשתנה as we were growingגָדֵל up.
289
726000
3000
הוא לא השתנה כשהתבגרנו.
12:24
And we're good at it.
290
729000
3000
ואנחנו טובים בזה.
12:27
Or think of the risksסיכונים
291
732000
2000
או חישבו על הסיכונים
12:29
on the Internetאינטרנט acrossלְרוֹחָב generationsדורות --
292
734000
2000
שבאינטרנט בין הדורות --
12:31
how your parentsהורים approachגִישָׁה Internetאינטרנט securityבִּטָחוֹן,
293
736000
2000
איך ההורים שלכם מתייחסים
לביטחון באינטרנט,
12:33
versusנגד how you do,
294
738000
2000
לעומתכם,
12:35
versusנגד how our kidsילדים will.
295
740000
3000
ולעומת הילדים שלכם.
12:38
Modelsמודלים eventuallyבסופו של דבר fadeלִדעוֹך into the backgroundרקע כללי.
296
743000
3000
מודלים סופם להימוג ברקע.
12:42
Intuitiveאינטואיטיבי is just anotherאַחֵר wordמִלָה for familiarמוּכָּר.
297
747000
3000
"אינטואיטיבי" היא בסה"כ
מילה אחרת ל"מוכר".
12:45
So as your modelדֶגֶם is closeלִסְגוֹר to realityמְצִיאוּת,
298
750000
2000
אז ככל שהמודל שלכם קרוב למציאות,
12:47
and it convergesמתכנס with feelingsרגשות,
299
752000
2000
והוא מתמזג עם התחושות,
12:49
you oftenלעתים קרובות don't know it's there.
300
754000
3000
אתם לא יודעים שהוא שם.
12:52
So a niceנֶחְמָד exampleדוגמא of this
301
757000
2000
אז דוגמה נחמדה לזה
12:54
cameבא from last yearשָׁנָה and swineחֲזִיר fluשַׁפַעַת.
302
759000
3000
באה משנה שעברה ומשפעת החזירים.
12:57
When swineחֲזִיר fluשַׁפַעַת first appearedהופיע,
303
762000
2000
כששפעת החזירים הופיעה לראשונה,
12:59
the initialהתחלתי newsחֲדָשׁוֹת causedגרם ל a lot of overreactionתגובת יתר.
304
764000
4000
החדשות הראשונות
יצרו תגובת-יתר רבה.
13:03
Now it had a nameשֵׁם,
305
768000
2000
עכשיו יש לזה שם,
13:05
whichאיזה madeעָשׂוּי it scarierמפחיד יותר than the regularרגיל fluשַׁפַעַת,
306
770000
2000
שהפך את זה למפחיד יותר
משפעת רגילה,
13:07
even thoughאם כי it was more deadlyקטלני.
307
772000
2000
למרות שהיתה קטלנית יותר.
13:09
And people thought doctorsרופאים should be ableיכול to dealעִסקָה with it.
308
774000
4000
ואנשים חשבו שרופאים אמורים להיות
מסוגלים לטפל בזה.
13:13
So there was that feelingמַרגִישׁ of lackחוֹסֶר of controlלִשְׁלוֹט.
309
778000
2000
אז היתה התחושה הזו
של חוסר שליטה.
13:15
And those two things
310
780000
2000
ושני הדברים האלה
13:17
madeעָשׂוּי the riskלְהִסְתָכֵּן more than it was.
311
782000
2000
העצימו את הסיכון יותר מפי
שהיה באמת.
13:19
As the noveltyטְרִיוּת woreלבש off, the monthsחודשים wentהלך by,
312
784000
3000
כשהחידוש נמוג, החודשים עברו,
13:22
there was some amountכמות of toleranceסוֹבלָנוּת,
313
787000
2000
נוצרה תחושה מסויימת של עמידות,
13:24
people got used to it.
314
789000
2000
אנשים התרגלו.
13:26
There was no newחָדָשׁ dataנתונים, but there was lessפָּחוּת fearפַּחַד.
315
791000
3000
לא היו נתונים חדשים,
אבל היה פחות פחד.
13:29
By autumnסתָיו,
316
794000
2000
עד לסתיו,
13:31
people thought
317
796000
2000
אנשים חשבו
13:33
the doctorsרופאים should have solvedנפתרה this alreadyכְּבָר.
318
798000
2000
שהרופאים היו צריכים כבר
לפתור את זה.
13:35
And there's kindסוג of a bifurcationהִתפַּצְלוּת --
319
800000
2000
ויש כאן סוג של התפצלות --
13:37
people had to chooseבחר
320
802000
2000
אנשים נאלצו לבחור
13:39
betweenבֵּין fearפַּחַד and acceptanceקַבָּלָה --
321
804000
4000
בין פחד לקבלה --
13:43
actuallyלמעשה fearפַּחַד and indifferenceאֲדִישׁוּת --
322
808000
2000
למעשה בין פחד לעצמאות --
13:45
they kindסוג of choseבחר suspicionחֲשָׁד.
323
810000
3000
הם די בחרו בחשד.
13:48
And when the vaccineתַרכִּיב appearedהופיע last winterחוֹרֶף,
324
813000
3000
וכשהחיסון הופיע בחורף שעבר,
13:51
there were a lot of people -- a surprisingמַפתִיעַ numberמספר --
325
816000
3000
היו הרבה אנשים -- מספר מפתיע --
13:54
who refusedסירב to get it --
326
819000
3000
שסירבו לקבל אותו --
13:58
as a niceנֶחְמָד exampleדוגמא
327
823000
2000
דוגמה נחמדה
14:00
of how people'sשל אנשים feelingsרגשות of securityבִּטָחוֹן changeשינוי, how theirשֶׁלָהֶם modelדֶגֶם changesשינויים,
328
825000
3000
איך תחושות הבטחון של אנשים משתנות,
איך המודלים שלהם משתנים,
14:03
sortסוג of wildlyבפראות
329
828000
2000
בצורה די פרועה
14:05
with no newחָדָשׁ informationמֵידָע,
330
830000
2000
ללא מידע חדש,
14:07
with no newחָדָשׁ inputקֶלֶט.
331
832000
2000
ללא קלט חדש.
14:09
This kindסוג of thing happensקורה a lot.
332
834000
3000
דברים כאלה קורים פעמים רבות.
14:12
I'm going to give one more complicationתַסבִּיך.
333
837000
3000
אוסיף עוד מרכיב.
14:15
We have feelingמַרגִישׁ, modelדֶגֶם, realityמְצִיאוּת.
334
840000
3000
יש לנו תחושה, מודל, מציאות,
14:18
I have a very relativisticרלטיביסטי viewנוף of securityבִּטָחוֹן.
335
843000
2000
יש לי השקפה מאוד יחסית
על בטחון.
14:20
I think it dependsתלוי on the observerמַשׁקִיף.
336
845000
3000
אני חושב שהיא תלויה במשקיף.
14:23
And mostרוב securityבִּטָחוֹן decisionsהחלטות
337
848000
2000
ורוב החלטות הבטחון
14:25
have a varietyמגוון of people involvedמְעוּרָב.
338
850000
4000
מערבות מגוון אנשים.
14:29
And stakeholdersבעלי עניין
339
854000
2000
ובעלי עניין,
14:31
with specificספֵּצִיפִי trade-offsסחר- offs
340
856000
3000
עם פשרות ספציפיות
14:34
will try to influenceלְהַשְׁפִּיעַ the decisionהַחְלָטָה.
341
859000
2000
ינסו להשפיע על ההחלטה.
14:36
And I call that theirשֶׁלָהֶם agendaסֵדֶר הַיוֹם.
342
861000
2000
ואני קורא לזה
"סדר היום שלהם".
14:38
And you see agendaסֵדֶר הַיוֹם --
343
863000
2000
וסדר היום הזה --
14:40
this is marketingשיווק, this is politicsפּוֹלִיטִיקָה --
344
865000
3000
הוא שיווק, פוליטיקה --
14:43
tryingמנסה to convinceלְשַׁכְנֵעַ you to have one modelדֶגֶם versusנגד anotherאַחֵר,
345
868000
3000
נסיון לשכנע לאמץ מודל כזה
ולא אחר,
14:46
tryingמנסה to convinceלְשַׁכְנֵעַ you to ignoreלהתעלם a modelדֶגֶם
346
871000
2000
נסיון לשכנע להתעלם ממודל
14:48
and trustאמון your feelingsרגשות,
347
873000
3000
ולסמוך על התחושות,
14:51
marginalizingשוליים people with modelsמודלים you don't like.
348
876000
3000
לדחוק לשוליים אנשים
עם מודלים שהם לא אוהבים.
14:54
This is not uncommonנָדִיר.
349
879000
3000
זה לא נדיר.
14:57
An exampleדוגמא, a great exampleדוגמא, is the riskלְהִסְתָכֵּן of smokingלעשן.
350
882000
3000
דוגמה, דוגמה מצויינת,
היא הסיכון שבעישון.
15:01
In the historyהִיסטוֹרִיָה of the pastעבר 50 yearsשנים, the smokingלעשן riskלְהִסְתָכֵּן
351
886000
3000
בהיסטוריה של 50 השנים האחרונות,
הסיכון שבעישון
15:04
showsמופעים how a modelדֶגֶם changesשינויים,
352
889000
2000
מדגים איך המודל השתנה,
15:06
and it alsoגַם showsמופעים how an industryתַעֲשִׂיָה fightsקרבות againstמול
353
891000
3000
וגם מראה איך תעשייה נלחמת נגד
15:09
a modelדֶגֶם it doesn't like.
354
894000
2000
מודל שהיא לא אוהבת.
15:11
Compareלְהַשְׁווֹת that to the secondhandיד שניה smokeעָשָׁן debateעימות --
355
896000
3000
השוו את זה לדיון
על מעשנים פסיבים --
15:14
probablyכנראה about 20 yearsשנים behindמֵאָחוֹר.
356
899000
3000
בטח בפיגור של כ-20 שנה.
15:17
Think about seatמושב beltsחגורות.
357
902000
2000
חישבו על חגורות בטיחות.
15:19
When I was a kidיֶלֶד, no one woreלבש a seatמושב beltחֲגוֹרָה.
358
904000
2000
כשהייתי ילד, איש לא חגר
חגורות בטיחות.
15:21
Nowadaysכַּיוֹם, no kidיֶלֶד will let you driveנהיגה
359
906000
2000
היום, אף ילד לא ייתן לך לנהוג
15:23
if you're not wearingלובש a seatמושב beltחֲגוֹרָה.
360
908000
2000
אם לא תחגור חגורת בטיחות.
15:26
Compareלְהַשְׁווֹת that to the airbagכרית אוויר debateעימות --
361
911000
2000
השוו את זה לדיון
לגבי כריות האוויר --
15:28
probablyכנראה about 30 yearsשנים behindמֵאָחוֹר.
362
913000
3000
בטח בפיגור של כ-30 שנה.
15:31
All examplesדוגמאות of modelsמודלים changingמִשְׁתַנֶה.
363
916000
3000
כל הדוגמאות של שינוי מודלים.
15:36
What we learnלִלמוֹד is that changingמִשְׁתַנֶה modelsמודלים is hardקָשֶׁה.
364
921000
3000
מה שאנחנו למדים הוא
ששינוי מודלים הוא קשה.
15:39
Modelsמודלים are hardקָשֶׁה to dislodgeלְנַשֵׁל.
365
924000
2000
קשה לסלק מודלים.
15:41
If they equalשווה your feelingsרגשות,
366
926000
2000
אם הם שווים לתחושות,
15:43
you don't even know you have a modelדֶגֶם.
367
928000
3000
אפילו לא יודעים שיש מודל.
15:46
And there's anotherאַחֵר cognitiveקוגניטיבית biasהֲטָיָה
368
931000
2000
וישנה גם הטיה מחשבתית אחרת
15:48
I'll call confirmationאִשׁוּר biasהֲטָיָה,
369
933000
2000
אני קורא לה הטיית האישוש,
15:50
where we tendנוטה to acceptלְקַבֵּל dataנתונים
370
935000
3000
שבה אנחנו נוטים לקבל נתונים
15:53
that confirmsמאשרת our beliefsאמונות
371
938000
2000
שמאששים את האמונות שלנו
15:55
and rejectלִדחוֹת dataנתונים that contradictsסותרת our beliefsאמונות.
372
940000
3000
ודוחים מידע שסותר
את האמונות שלנו.
15:59
So evidenceעֵדוּת againstמול our modelדֶגֶם,
373
944000
2000
אז עדויות נגד המודל שלנו,
16:01
we're likelyסָבִיר to ignoreלהתעלם, even if it's compellingמשכנע.
374
946000
3000
צפוי שנתעלם מהן,
אפילו אם הן משכנעות.
16:04
It has to get very compellingמשכנע before we'llטוֹב payלְשַׁלֵם attentionתשומת הלב.
375
949000
3000
הן חייבות להיות מאוד משכנעות
לפני שנשים לב אליהן.
16:08
Newחָדָשׁ modelsמודלים that extendלְהַאֲרִיך long periodsתקופות of time are hardקָשֶׁה.
376
953000
2000
מודלים חדשים שמשתרעים
על פני תקופה ארוכה הם קשים.
16:10
Globalגלוֹבָּלִי warmingהִתחַמְמוּת is a great exampleדוגמא.
377
955000
2000
התחממות גלובלית היא דוגמא מצויינת.
16:12
We're terribleנורא
378
957000
2000
אנחנו גרועים
16:14
at modelsמודלים that spanלְהַקִיף 80 yearsשנים.
379
959000
2000
בנוגע למודלים שמשתרעים
על פני 80 שנה.
16:16
We can do to the nextהַבָּא harvestקְצִיר.
380
961000
2000
אנחנו יכולים לתכנן
עד לקציר הקרוב.
16:18
We can oftenלעתים קרובות do untilעד our kidsילדים growלגדול up.
381
963000
3000
אנחנו יכולים לעתים לתכנן
עד שילדינו יגדלו.
16:21
But 80 yearsשנים, we're just not good at.
382
966000
3000
אבל 80 שנה -
אנחנו פשוט לא טובים בזה.
16:24
So it's a very hardקָשֶׁה modelדֶגֶם to acceptלְקַבֵּל.
383
969000
3000
אז זה מודל שקשה מאוד לקבלו.
16:27
We can have bothשניהם modelsמודלים in our headרֹאשׁ simultaneouslyבּוֹ זְמַנִית,
384
972000
4000
אנחנו יכולים להחזיק בראשינו
את שני המודלים בו-זמנית,
16:31
right, that kindסוג of problemבְּעָיָה
385
976000
3000
הבעיה הזו,
16:34
where we're holdingהַחזָקָה bothשניהם beliefsאמונות togetherיַחַד,
386
979000
3000
שבה אנחנו מחזיקים
את שתי האמונות ביחד,
16:37
right, the cognitiveקוגניטיבית dissonanceדִיסוֹנַנס.
387
982000
2000
הדיסוננס הקוגניטיבי הזה.
16:39
Eventuallyבסופו של דבר,
388
984000
2000
לבסוף,
16:41
the newחָדָשׁ modelדֶגֶם will replaceהחלף the oldישן modelדֶגֶם.
389
986000
3000
המודל החדש יחליף את המודל הישן.
16:44
Strongחָזָק feelingsרגשות can createלִיצוֹר a modelדֶגֶם.
390
989000
3000
תחושות עזות יכולות ליצור מודל.
16:47
Septemberסֶפּטֶמבֶּר 11thה createdשנוצר a securityבִּטָחוֹן modelדֶגֶם
391
992000
3000
ה-11 בספטמבר יצר מודל בטחון
16:50
in a lot of people'sשל אנשים headsראשים.
392
995000
2000
בראשי אנשים רבים.
16:52
Alsoגַם, personalאישי experiencesחוויות with crimeפֶּשַׁע can do it,
393
997000
3000
בנוסף, גם ניסיון אישי של היתקלות בפשע
יכול לעשות את זה,
16:55
personalאישי healthבְּרִיאוּת scareלְהַפחִיד,
394
1000000
2000
פחד מפני בעיות בריאות אישיות,
16:57
a healthבְּרִיאוּת scareלְהַפחִיד in the newsחֲדָשׁוֹת.
395
1002000
2000
הפחדה בנוגע לבריאות בחדשות.
16:59
You'llללא שם: תוכל see these calledשקוראים לו flashbulbהבזק eventsאירועים
396
1004000
2000
הם נקראים "אירועי הבזק"
17:01
by psychiatristsפסיכיאטרים.
397
1006000
2000
ע"י פסיכיאטרים.
17:03
They can createלִיצוֹר a modelדֶגֶם instantaneouslyבאופן מיידי,
398
1008000
3000
הם יכולים ליצור מודל באופן מיידי,
17:06
because they're very emotiveרִגוּשִׁי.
399
1011000
3000
כי הם מאוד רגשיים.
17:09
So in the technologicalטֶכנוֹלוֹגִי worldעוֹלָם,
400
1014000
2000
אז בעולם הטכנולוגי,
17:11
we don't have experienceניסיון
401
1016000
2000
אין לנו ניסיון
17:13
to judgeלִשְׁפּוֹט modelsמודלים.
402
1018000
2000
כדי לשפוט מודלים.
17:15
And we relyלִסְמוֹך on othersאחרים. We relyלִסְמוֹך on proxiesפרוקסי.
403
1020000
2000
ואנחנו סומכים על אחרים.
אנחנו סומכים על נציגים.
17:17
I mean, this worksעובד as long as it's to correctנכון othersאחרים.
404
1022000
4000
כלומר, זה עובד
כל עוד זה נועד לתקן אחרים.
17:21
We relyלִסְמוֹך on governmentמֶמְשָׁלָה agenciesסוכנויות
405
1026000
2000
אנחנו סומכים על סוכנויות ממשלתיות
17:23
to tell us what pharmaceuticalsתרופות are safeבטוח.
406
1028000
5000
כדי שיגידו לנו אילו תרופות בטוחות.
17:28
I flewטס here yesterdayאתמול.
407
1033000
2000
טסתי לכאן אתמול.
17:30
I didn't checkלבדוק the airplaneמטוס.
408
1035000
2000
לא בדקתי את המטוס.
17:32
I reliedהסתמכה on some other groupקְבוּצָה
409
1037000
2000
סמכתי על קבוצה אחרת
17:34
to determineלקבוע whetherהאם my planeמָטוֹס was safeבטוח to flyלטוס, זבוב.
410
1039000
3000
שתקבע אם המטוס שלי
בטוח לטיסה.
17:37
We're here, noneאף אחד of us fearפַּחַד the roofגג is going to collapseהִתמוֹטְטוּת on us,
411
1042000
3000
אנחנו כאן, איש מאיתנו לא חושש
שהגג יתמוטט עלינו,
17:40
not because we checkedבָּדוּק,
412
1045000
3000
לא בגלל שבדקנו,
17:43
but because we're prettyיפה sure
413
1048000
2000
אלא בגלל שאנחנו די בטוחים
17:45
the buildingבִּניָן codesקודים here are good.
414
1050000
3000
שתקני הבנייה פה טובים.
17:48
It's a modelדֶגֶם we just acceptלְקַבֵּל
415
1053000
2000
זהו מודל שאנחנו פשוט מקבלים
17:50
prettyיפה much by faithאֱמוּנָה.
416
1055000
2000
פחות או יותר ע"י אמונה.
17:52
And that's okay.
417
1057000
3000
וזה בסדר.
17:57
Now, what we want
418
1062000
2000
ומה שאנחנו רוצים
17:59
is people to get familiarמוּכָּר enoughמספיק
419
1064000
2000
הוא שאנשים יכירו טוב יותר
18:01
with better modelsמודלים --
420
1066000
2000
מודלים טובים יותר --
18:03
have it reflectedמשתקף in theirשֶׁלָהֶם feelingsרגשות --
421
1068000
2000
שישתקפו בתחושותיהם --
18:05
to allowלהתיר them to make securityבִּטָחוֹן trade-offsסחר- offs.
422
1070000
4000
שיאפשרו להם לעשות פשרות בטחון.
18:09
Now when these go out of whackמַהֲלוּמָה,
423
1074000
2000
וכשזה יוצא משליטה,
18:11
you have two optionsאפשרויות.
424
1076000
2000
יש שתי אופציות.
18:13
One, you can fixלתקן people'sשל אנשים feelingsרגשות,
425
1078000
2000
אחת, אפשר לתקן
את התחושות של אנשים,
18:15
directlyבאופן ישיר appealעִרעוּר to feelingsרגשות.
426
1080000
2000
לפנות ישר אל התחושות.
18:17
It's manipulationמָנִיפּוּלָצִיָה, but it can work.
427
1082000
3000
זוהי מניפולציה,
אבל זה יכול לעבוד.
18:20
The secondשְׁנִיָה, more honestיָשָׁר way
428
1085000
2000
שתיים, דרך הוגנת יותר
18:22
is to actuallyלמעשה fixלתקן the modelדֶגֶם.
429
1087000
3000
היא לתקן ממש את המודל.
18:26
Changeשינוי happensקורה slowlyלאט.
430
1091000
2000
שינוי מתרחש לאט.
18:28
The smokingלעשן debateעימות tookלקח 40 yearsשנים,
431
1093000
3000
הדיון על העישון לקח 40 שנה,
18:31
and that was an easyקַל one.
432
1096000
3000
וזה עוד היה קל.
18:34
Some of this stuffדברים is hardקָשֶׁה.
433
1099000
2000
חלק מהדברים האלה קשים.
18:36
I mean really thoughאם כי,
434
1101000
2000
אבל ממש,
18:38
informationמֵידָע seemsנראה like our bestהטוב ביותר hopeלְקַווֹת.
435
1103000
2000
מידע נראה כתקווה
הטובה ביותר שלנו.
18:40
And I liedשיקר.
436
1105000
2000
ואני שיקרתי.
18:42
Rememberלִזכּוֹר I said feelingמַרגִישׁ, modelדֶגֶם, realityמְצִיאוּת;
437
1107000
2000
זיכרו שאמרתי תחושות, מודל, מציאות.
18:44
I said realityמְצִיאוּת doesn't changeשינוי. It actuallyלמעשה does.
438
1109000
3000
אמרתי שמציאות אינה משתנה.
היא כן.
18:47
We liveלחיות in a technologicalטֶכנוֹלוֹגִי worldעוֹלָם;
439
1112000
2000
אנחנו חיים בעולם טכנולוגי.
18:49
realityמְצִיאוּת changesשינויים all the time.
440
1114000
3000
המציאות משתנה כל הזמן.
18:52
So we mightאולי have -- for the first time in our speciesמִין --
441
1117000
3000
יכול להיות שיש לנו --
לראשונה בתולדות האנושות --
18:55
feelingמַרגִישׁ chasesרודפים modelדֶגֶם, modelדֶגֶם chasesרודפים realityמְצִיאוּת, reality'sשל המציאות movingמעבר דירה --
442
1120000
3000
תחושה שרודפת אחרי מודל, מודל שרודף
אחרי המציאות, המציאות מתקדמת --
18:58
they mightאולי never catchלתפוס up.
443
1123000
3000
אולי הם לעולם
לא ישיגו זה את זה.
19:02
We don't know.
444
1127000
2000
אנחנו לא יודעים.
19:04
But in the long-termטווח ארוך,
445
1129000
2000
אבל בטווח הארוך,
19:06
bothשניהם feelingמַרגִישׁ and realityמְצִיאוּת are importantחָשׁוּב.
446
1131000
3000
גם התחושות וגם המציאות חשובות.
19:09
And I want to closeלִסְגוֹר with two quickמָהִיר storiesסיפורים to illustrateלהמחיש this.
447
1134000
3000
ואני רוצה לסכם עם שני סיפורים קצרים
כדי להמחיש את זה.
19:12
1982 -- I don't know if people will rememberלִזכּוֹר this --
448
1137000
2000
ב-1982 -- לא יודע אם אנשים
יזכרו את זה --
19:14
there was a shortקצר epidemicמַגֵפָה
449
1139000
3000
היתה מגיפה קצרה
19:17
of Tylenolטיילנול poisoningsהרעלות in the Unitedמאוחד Statesמדינות.
450
1142000
2000
של הרעלת טיילנול בארה"ב.
19:19
It's a horrificמַחרִיד storyכַּתָבָה. Someoneמִישֶׁהוּ tookלקח a bottleבקבוק of Tylenolטיילנול,
451
1144000
3000
זהו סיפור נורא.
מישהו לקח בקבוק טיילנול,
19:22
put poisonרַעַל in it, closedסָגוּר it up, put it back on the shelfמַדָף.
452
1147000
3000
שם בתוכו רעל,
סגר והחזיר למדף.
19:25
Someoneמִישֶׁהוּ elseאַחֵר boughtקנה it and diedמת.
453
1150000
2000
מישהו אחר קנה אותו ומת.
19:27
This terrifiedמתה מפחד people.
454
1152000
2000
זה הפחיד מאוד אנשים.
19:29
There were a coupleזוּג of copycatעותק attacksהתקפות.
455
1154000
2000
היו מספר התקפות של חקיינים.
19:31
There wasn'tלא היה any realאמיתי riskלְהִסְתָכֵּן, but people were scaredמפוחד.
456
1156000
3000
לא כל היה סיכון אמיתי,
אבל אנשים חששו.
19:34
And this is how
457
1159000
2000
וכך
19:36
the tamper-proofטמפר הוכחה drugתְרוּפָה industryתַעֲשִׂיָה was inventedבדוי.
458
1161000
2000
הומצאה תעשיית התרופות
שלא ניתן "לטפל" בהן.
19:38
Those tamper-proofטמפר הוכחה capsכובעים, that cameבא from this.
459
1163000
2000
המכסים האלה שלא ניתן לפתוח,
שבאו בעקבות זה.
19:40
It's completeלְהַשְׁלִים securityבִּטָחוֹן theaterתיאטרון.
460
1165000
2000
זהו "תיאטרון בטחון" שלם.
19:42
As a homeworkשיעורי בית assignmentמְשִׁימָה, think of 10 waysדרכים to get around it.
461
1167000
2000
בתור שיעורי בית, חישבו
על 10 דרכים שונות לעקוף את זה.
19:44
I'll give you one, a syringeמַזרֵק.
462
1169000
3000
אתן לכם אחת, מזרק.
19:47
But it madeעָשׂוּי people feel better.
463
1172000
3000
אבל זה שיפר את תחושתם
של אנשים.
19:50
It madeעָשׂוּי theirשֶׁלָהֶם feelingמַרגִישׁ of securityבִּטָחוֹן
464
1175000
2000
זה גרם לתחושת הבטחון שלהם
19:52
more matchהתאמה the realityמְצִיאוּת.
465
1177000
2000
להתאים יותר למציאות.
19:54
Last storyכַּתָבָה, a fewמְעַטִים yearsשנים agoלִפנֵי, a friendחָבֵר of mineשלי gaveנתן birthהוּלֶדֶת.
466
1179000
3000
סיפור אחרון: לפני כמה שנים,
ידידה שלי ילדה.
19:57
I visitלְבַקֵר her in the hospitalבית חולים.
467
1182000
2000
ביקרתי אותה בבית החולים.
19:59
It turnsפונה out when a baby'sשל התינוק bornנוֹלָד now,
468
1184000
2000
מתברר שהיום, כשתינוק נולד,
20:01
they put an RFIDRFID braceletצמיד on the babyתִינוֹק,
469
1186000
2000
מצמידים ליד שלו צמיד
עם משדר רדיו,
20:03
put a correspondingתוֹאֵם one on the motherאִמָא,
470
1188000
2000
ומצמידים צמיד תואם לאמא שלו,
20:05
so if anyoneכֹּל אֶחָד other than the motherאִמָא takes the babyתִינוֹק out of the maternityאִמָהוּת wardמַחלָקָה,
471
1190000
2000
כך שאם מישהו פרט לאמא
מוציא את התינוק ממחלקת היולדות,
20:07
an alarmאזעקה goesהולך off.
472
1192000
2000
נשמעת אזעקה.
20:09
I said, "Well, that's kindסוג of neatנקי.
473
1194000
2000
אמרתי: "טוב, זה מגניב.
20:11
I wonderפֶּלֶא how rampantמִשׁתוֹלֵל babyתִינוֹק snatchingחֲטִיפָה is
474
1196000
2000
"מעניין עד כמה נפוצות הן
חטיפות של תינוקות
20:13
out of hospitalsבתי חולים."
475
1198000
2000
"מבתי חולים."
20:15
I go home, I look it up.
476
1200000
2000
חזרתי הביתה, בדקתי את זה.
20:17
It basicallyבעיקרון never happensקורה.
477
1202000
2000
זה למעשה מעולם לא קרה.
20:19
But if you think about it,
478
1204000
2000
אבל כשחושבים על זה,
20:21
if you are a hospitalבית חולים,
479
1206000
2000
אם אתם בית חולים,
20:23
and you need to take a babyתִינוֹק away from its motherאִמָא,
480
1208000
2000
ואתם צריך להרחיק תינוק
מאמא שלו,
20:25
out of the roomחֶדֶר to runלָרוּץ some testsבדיקות,
481
1210000
2000
אל מחוץ לחדר
כדי לערוך כמה בדיקות,
20:27
you better have some good securityבִּטָחוֹן theaterתיאטרון,
482
1212000
2000
עדיף שיהיה לכם
קצת תיאטרון בטחון טוב,
20:29
or she's going to ripז"ל your armזְרוֹעַ off.
483
1214000
2000
אחרת היא תתלוש לך את היד.
20:31
(Laughterצחוק)
484
1216000
2000
(צחוק)
20:33
So it's importantחָשׁוּב for us,
485
1218000
2000
אז זה חשוב לנו,
20:35
those of us who designלְעַצֵב securityבִּטָחוֹן,
486
1220000
2000
אלו מאיתנו שמתכננים אבטחה,
20:37
who look at securityבִּטָחוֹן policyמְדִינִיוּת,
487
1222000
3000
שבוחנים מדיניות אבטחה,
20:40
or even look at publicפּוּמְבֵּי policyמְדִינִיוּת
488
1225000
2000
או אפילו בוחנים מדיניות ציבורית
20:42
in waysדרכים that affectלהשפיע securityבִּטָחוֹן.
489
1227000
2000
בדרכים שמשפיעות על בטחון.
20:44
It's not just realityמְצִיאוּת; it's feelingמַרגִישׁ and realityמְצִיאוּת.
490
1229000
3000
לא מדובר רק במציאות,
אלא בתחושות ובמציאות.
20:47
What's importantחָשׁוּב
491
1232000
2000
מה שחשוב
20:49
is that they be about the sameאותו.
492
1234000
2000
הוא שהן תהיינה בערך אותו דבר.
20:51
It's importantחָשׁוּב that, if our feelingsרגשות matchהתאמה realityמְצִיאוּת,
493
1236000
2000
חשוב שאם התחושות שלנו
יתאמו למציאות,
20:53
we make better securityבִּטָחוֹן trade-offsסחר- offs.
494
1238000
2000
נעשה פשרות בטחון טובות יותר.
20:55
Thank you.
495
1240000
2000
תודה
20:57
(Applauseתְשׁוּאוֹת)
496
1242000
2000
(מחיאות כפיים)
Translated by Moshe Sayag
Reviewed by Sigal Tifferet

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com