ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

ब्रूस शिन्यर: सुरक्षा का भुलावा

Filmed:
958,315 views

सुरक्षा का एहसास और सुरक्षा की हकीकत हमेशा एक सी नहीं होती हैं, ये कहना हैं कंप्यूटर सुरक्षा के विशेषज्ञ ब्रुसे शिन्यर का | TEDxPSU में ये बता रहे हैं की क्यूँ हम करोड़ो खर्चा कर रहे हैं ऐसे समाचारों, कहानियों में जैसे की "सुरक्षा थिअटर" जो कि आज कल स्थानीय हवाई अड्डो में दिखाए जा रहे हैं जबकि हम नजर अंदाज कर रहे हैं ज्यादा संभावित खतरों को जैसे कि "हम इन सुरक्षा के तरीको को कैसे तोड़ सकते हैं |
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securityसुरक्षा is two differentविभिन्न things:
0
0
2000
तो सुरक्षा दो अलग बातें हैं :
00:17
it's a feelingअनुभूति, and it's a realityवास्तविकता.
1
2000
2000
ये एक तरफ एहसास है और दूसरी तरफ सच्चाई
00:19
And they're differentविभिन्न.
2
4000
2000
और वो अलग अलग हैं
00:21
You could feel secureसुरक्षित
3
6000
2000
आप सुरक्षित महसूस कर सकते हैं
00:23
even if you're not.
4
8000
2000
भले ही आप ना हो
00:25
And you can be secureसुरक्षित
5
10000
2000
और आप सुरक्षित हो सकते हैं
00:27
even if you don't feel it.
6
12000
2000
भले ही आप ऐसा महसूस ना करें
00:29
Really, we have two separateअलग conceptsअवधारणाओं
7
14000
2000
सच में हमारे पास दो अलग धारणाये हैं
00:31
mappedमैप ontoपर the sameवही wordशब्द.
8
16000
2000
जो कि एक ही शब्द से जुड़े हैं
00:33
And what I want to do in this talk
9
18000
2000
और मैं इस व्याख्यान में इन्हें
00:35
is to splitविभाजित करें them apartअलग --
10
20000
2000
अलग अलग करना चाहता हूँ
00:37
figuringलगाना out when they divergeहट जाना
11
22000
2000
ये पता लगाऊं कि वो कब अलग अलग होते हैं
00:39
and how they convergeएकाग्र.
12
24000
2000
और कैसे मिल जाते हैं
00:41
And languageभाषा is actuallyवास्तव में a problemमुसीबत here.
13
26000
2000
और भाषा यहाँ पे एक समस्या है|
00:43
There aren'tनहीं कर रहे हैं a lot of good wordsशब्द
14
28000
2000
बहुत सारे शब्द उपलब्ध नहीं हैं उन धारणाओ
00:45
for the conceptsअवधारणाओं we're going to talk about.
15
30000
3000
के लिए जिनके बारे में हम बातें करने वाले है|
00:48
So if you look at securityसुरक्षा
16
33000
2000
तो अगर आप सुरक्षा के बारे में सोचें
00:50
from economicआर्थिक termsमामले,
17
35000
2000
आर्थिक रूप में
00:52
it's a trade-offव्यापार.
18
37000
2000
यह चीज़ो को चुनने की दुविधा हैं
00:54
Everyहर time you get some securityसुरक्षा,
19
39000
2000
हर बार जब आपको सुरक्षा मिलेगी,
00:56
you're always tradingव्यापार off something.
20
41000
2000
उसके बदले में आप कुछ और दे रहे होंगे
00:58
Whetherकि this is a personalनिजी decisionफेसला --
21
43000
2000
चाहे ये आपका व्यक्तिगत निर्णय हो
01:00
whetherकि क्या you're going to installइंस्टॉल करें a burglarबर्गलर alarmअलार्म in your home --
22
45000
2000
चाहे आप अपने घर में चोरी से बचने वाला अलार्म लगवाने वाले हो,
01:02
or a nationalराष्ट्रीय decisionफेसला -- where you're going to invadeपर आक्रमण some foreignविदेशी countryदेश --
23
47000
3000
या फिर राष्ट्रीय फैसला जहाँ आप दुसरे देश पे आक्रमण करने वाले हो,
01:05
you're going to tradeव्यापार off something,
24
50000
2000
उसके बदले में आप कुछ न कुछ दे रहे होंगे |
01:07
eitherभी moneyपैसे or time, convenienceसुविधा, capabilitiesक्षमताओं,
25
52000
3000
चाहे पैसा हो, समय हो, सहूलियत हो या योग्यता हो
01:10
maybe fundamentalमौलिक libertiesस्वतंत्रता.
26
55000
3000
या शायद आधारभूत स्वतंत्रता
01:13
And the questionप्रश्न to askपूछना when you look at a securityसुरक्षा anything
27
58000
3000
और जो सवाल हमे पूछना चाहिए जब हम सुरक्षा के बारे में सोचते हैं,
01:16
is not whetherकि क्या this makesबनाता है us saferसुरक्षित,
28
61000
3000
ये नहीं कि ये हमे सुरक्षित बनाएगा,
01:19
but whetherकि क्या it's worthलायक the trade-offव्यापार.
29
64000
3000
पर ये कि क्या ये इस लायक हैं कि हम इसके बदले किसी दूसरी चीज़ को दे दे |
01:22
You've heardसुना in the pastअतीत severalकई yearsवर्षों,
30
67000
2000
आपने सुना होगा पिछले कई सालो में,
01:24
the worldविश्व is saferसुरक्षित because Saddamसद्दाम Husseinहुसैन is not in powerशक्ति.
31
69000
2000
दुनिया सुरक्षित हो गई है क्यूंकि सद्दाम हुस्सेन सत्ता में नहीं हैं
01:26
That mightपराक्रम be trueसच, but it's not terriblyबहुत relevantप्रासंगिक.
32
71000
3000
ये सच हो सकता है लेकिन पूरी तरह से तर्क संगत नहीं है|
01:29
The questionप्रश्न is, was it worthलायक it?
33
74000
3000
सवाल यह कि क्या यह इस योग्य था?
01:32
And you can make your ownअपना decisionफेसला,
34
77000
3000
और आप खुद के निर्णय ले सकते हैं,
01:35
and then you'llआप करेंगे decideतय whetherकि क्या the invasionआक्रमण was worthलायक it.
35
80000
2000
और उसके बाद फैसला कर सकते हैं कि क्या ये आक्रमण सही था
01:37
That's how you think about securityसुरक्षा --
36
82000
2000
आप सुरक्षा के बारे में ऐसे सोचते हैं
01:39
in termsमामले of the trade-offव्यापार.
37
84000
2000
व्यापारिक लेन देन के रूप में
01:41
Now there's oftenअक्सर no right or wrongगलत here.
38
86000
3000
अब यहाँ सामान्यत: कोई सही या गलत नहीं होता
01:44
Some of us have a burglarबर्गलर alarmअलार्म systemप्रणाली at home,
39
89000
2000
हमसे कुछ लोगों के यहाँ चोर अलार्म होता हैं
01:46
and some of us don't.
40
91000
2000
कुछ के यहाँ पर नहीं|
01:48
And it'llयह हूँ dependनिर्भर on where we liveजीना,
41
93000
2000
और ये निर्भर करता है हम कहाँ रहते हैं,
01:50
whetherकि क्या we liveजीना aloneअकेला or have a familyपरिवार,
42
95000
2000
क्या हम अकेले रहते हैं या फिर परिवार के साथ,
01:52
how much coolठंडा stuffसामग्री we have,
43
97000
2000
हमारे पास कितने अच्छे अच्छे सामान हैं,
01:54
how much we're willingतैयार to acceptस्वीकार करना
44
99000
2000
हम किस हद तक तैयार हैं
01:56
the riskजोखिम of theftचोरी.
45
101000
2000
चोरी का खतरा उठाने को
01:58
In politicsराजनीति alsoभी,
46
103000
2000
राजनीति में भी
02:00
there are differentविभिन्न opinionsराय.
47
105000
2000
अलग अलग विचार हैं,
02:02
A lot of timesटाइम्स, these trade-offsव्यापार गत
48
107000
2000
ज्यादातर समय विनिमय की ये दुविधा
02:04
are about more than just securityसुरक्षा,
49
109000
2000
सुरक्षा के अलावा दुसरे कारणों से होते हैं,
02:06
and I think that's really importantजरूरी.
50
111000
2000
और मैं ये सोचता हूँ कि ये बहुत जरुरी हैं|
02:08
Now people have a naturalप्राकृतिक intuitionसहज बोध
51
113000
2000
अब लोगों के पास पाकृतिक ज्ञान हैं
02:10
about these trade-offsव्यापार गत.
52
115000
2000
इस विनिमय का,
02:12
We make them everyप्रत्येक day --
53
117000
2000
हम ये हर दिन करते हैं जैसे कि,
02:14
last night in my hotelहोटल roomकक्ष,
54
119000
2000
कल रात जब मैंने अपने होटल रूम
02:16
when I decidedनिर्णय लिया to double-lockडबल-लॉक the doorद्वार,
55
121000
2000
के दरवाजे को दुबारा बंद किया,
02:18
or you in your carगाड़ी when you droveगल्ला here,
56
123000
2000
या आपने अपनी कार में किया जब आप यहाँ पर पहुंचे,
02:20
when we go eatखाना खा लो lunchदोपहर का भोजन
57
125000
2000
या जब हम खाना खाने जाते हैं
02:22
and decideतय the food'sभोजन की not poisonज़हर and we'llकुंआ eatखाना खा लो it.
58
127000
3000
और सोचते हैं की खाना अच्छा है तो हम खा लेंगे |
02:25
We make these trade-offsव्यापार गत again and again,
59
130000
2000
हम ये विनिमय बार बार करते हैं
02:27
multipleविभिन्न timesटाइम्स a day.
60
132000
2000
दिन में कई बार|
02:29
We oftenअक्सर won'tनहीं होगा even noticeनोटिस them.
61
134000
2000
हम कई बार इन पर ध्यान भी नहीं देते हैं|
02:31
They're just partअंश of beingकिया जा रहा है aliveज़िंदा; we all do it.
62
136000
2000
ये तो बस एक हिस्सा है जीवित होने का, हम सब करते हैं|
02:33
Everyहर speciesजाति does it.
63
138000
3000
हर प्रजाति करती हैं|
02:36
Imagineकल्पना a rabbitखरगोश in a fieldखेत, eatingभोजन grassघास,
64
141000
2000
कल्पना कीजिये एक खरगोश मैदान में घास खा रहा हैं,
02:38
and the rabbit'sखरगोश के going to see a foxलोमड़ी.
65
143000
3000
अब अगर खरगोश लोमड़ी को देखता है|
02:41
That rabbitखरगोश will make a securityसुरक्षा trade-offव्यापार:
66
146000
2000
तो वो तुरंत एक सुरक्षा विनिमय करेगा,
02:43
"Should I stayरहना, or should I fleeभाग?"
67
148000
2000
"मैं यहाँ रुकूं?" या "मै यहाँ से भाग जाऊ?"
02:45
And if you think about it,
68
150000
2000
और अगर आप इस बारें में सोचे
02:47
the rabbitsखरगोश that are good at makingनिर्माण that trade-offव्यापार
69
152000
3000
तो वो खरगोश जो अच्छे होते हैं इस तरह के विनिमय में वो
02:50
will tendदेते हैं to liveजीना and reproduceप्रतिलिपि प्रस्तुत करना,
70
155000
2000
ज्यादा समय तक जिन्दा रहते हैं और प्रजनन करते हैं|
02:52
and the rabbitsखरगोश that are badखराब at it
71
157000
2000
और वो खरगोश जो अच्छे नहीं होते हैं वो
02:54
will get eatenखाया or starveभूखा.
72
159000
2000
या तो शिकार बन जाते हैं या भूख से मर जाते हैं|
02:56
So you'dआप चाहते think
73
161000
2000
तो अब आप सोचेंगे,
02:58
that us, as a successfulसफल speciesजाति on the planetग्रह --
74
163000
3000
कि हम, सफल प्रजाति होने के नाते,
03:01
you, me, everybodyहर --
75
166000
2000
आप, मैं, हम सब
03:03
would be really good at makingनिर्माण these trade-offsव्यापार गत.
76
168000
3000
इस तरह के विनिमय में बहुत अच्छे हैं |
03:06
Yetअभी तक it seemsलगता है, again and again,
77
171000
2000
ऐसा होने पर भी बार बार प्रतीत होता है,
03:08
that we're hopelesslyबुरी badखराब at it.
78
173000
3000
कि हम लोग निराशापूर्ण रूप से अच्छे नहीं हैं|
03:11
And I think that's a fundamentallyमूलरूप में interestingदिलचस्प questionप्रश्न.
79
176000
3000
और मैं ये सोचता हूँ कि ये एक आधारभूत रोचक सवाल है|
03:14
I'll give you the shortकम answerउत्तर.
80
179000
2000
मैं आपको बहुत ही छोटा सा जवाब दूंगा|
03:16
The answerउत्तर is, we respondप्रतिक्रिया to the feelingअनुभूति of securityसुरक्षा
81
181000
2000
जवाब यह है कि हम लोग प्रतिक्रिया करते है सुरक्षा की भावना पर
03:18
and not the realityवास्तविकता.
82
183000
3000
ना कि सुरक्षा की सच्चाई पर |
03:21
Now mostअधिकांश of the time, that worksकाम करता है.
83
186000
3000
हाँ ज्यादातर समय ये काम करती हैं |
03:25
Mostसबसे of the time,
84
190000
2000
क्यूंकि ज्यादातर समय
03:27
feelingअनुभूति and realityवास्तविकता are the sameवही.
85
192000
3000
सुरक्षा की भावना और सुरक्षा की सच्चाई एक सी ही होती हैं |
03:30
Certainlyनिश्चित that's trueसच
86
195000
2000
निश्चित तौर पे ये सच हैं
03:32
for mostअधिकांश of humanमानव prehistoryप्रागितिहास.
87
197000
3000
ज्यादातर प्रागतिहासिक मानव के लिए |
03:35
We'veहमने developedविकसित this abilityयोग्यता
88
200000
3000
हमने ये योग्यता विकसित की हैं
03:38
because it makesबनाता है evolutionaryविकासवादी senseसमझ.
89
203000
2000
क्यूंकि ये हमारे विकसित होने से जुड़ी हुई है |
03:40
One way to think of it
90
205000
2000
एक तरीका ऐसे सोचने का हैं
03:42
is that we're highlyअत्यधिक optimizedअनुकूलित
91
207000
2000
कि हम लोग बहुत ही ज्यादा परिष्कृत हैं
03:44
for riskजोखिम decisionsनिर्णय
92
209000
2000
ऐसे खतरों से भरे निर्णय लेने में
03:46
that are endemicस्थानिकमारी वाले to livingजीवित in smallछोटा familyपरिवार groupsसमूहों
93
211000
3000
जो छोटे परिवारों में रहने वालो के लिए रोजमर्रा की बात होती थी
03:49
in the Eastपूर्व Africanअफ्रीकी highlandsHighlands in 100,000 B.C.
94
214000
3000
१०००० इ पूर्व, पूर्वी अफ्रीकन मैदोनो में --
03:52
2010 Newनया Yorkन्यूयार्क, not so much.
95
217000
3000
२०१० में न्यू योर्क इस तरह का नहीं हैं |
03:56
Now there are severalकई biasesपूर्वाग्रहों in riskजोखिम perceptionअनुभूति.
96
221000
3000
अब खतरे को समझना बहुत तरह से पक्षपात पूर्ण है |
03:59
A lot of good experimentsप्रयोगों in this.
97
224000
2000
बहुत सारे अच्छे प्रयोग हुए हैं|
04:01
And you can see certainकुछ biasesपूर्वाग्रहों that come up again and again.
98
226000
3000
और आप देख सकते हैं इस पक्षपात ( झुकाव ) को बार बार आते हुए |
04:04
So I'll give you fourचार.
99
229000
2000
तो मैं आपको चार प्रयोग बताऊंगा |
04:06
We tendदेते हैं to exaggerateअतिरंजना करना spectacularबहुत शानदार and rareदुर्लभ risksजोखिम
100
231000
3000
हमारा झुकाव होता हैं असाधारण और विरले खतरों को बढ़ा चढ़ा कर बताने की ओर
04:09
and downplaydownplay commonसामान्य risksजोखिम --
101
234000
2000
और सामान्य खतरों की अहमियत कम करने की ओर,
04:11
so flyingउड़ान versusबनाम drivingड्राइव.
102
236000
3000
जैसे हवाई जहाज की अपेक्षा कार का सफ़र |
04:14
The unknownअज्ञात is perceivedमाना जाता
103
239000
2000
अनजाने खतरों को हम परिचित खतरों से
04:16
to be riskierRiskier than the familiarपरिचित.
104
241000
3000
ज्यादा खतरनाक समझते हैं
04:20
One exampleउदाहरण would be,
105
245000
2000
एक उदाहरण हो सकता है
04:22
people fearडर kidnappingअपहरण by strangersअनजाना अनजानी
106
247000
3000
कि लोग अनजान लोगो के द्वारा अपहरण से डरते हैं,
04:25
when the dataजानकारी supportsसमर्थन kidnappingअपहरण by relativesरिश्तेदारों is much more commonसामान्य.
107
250000
3000
जबकि आंकड़े बतलाते हैं कि रिश्तेदारों के द्वारा अपहरण होना ज्यादा सामान्य है |
04:28
This is for childrenबच्चे.
108
253000
2000
यह आंकड़े बच्चो के लिए हैं|
04:30
Thirdतीसरे, personifiedव्यक्ति risksजोखिम
109
255000
3000
तीसरा, खतरे जिन्हें चेहरे दिए गए हो
04:33
are perceivedमाना जाता to be greaterअधिक से अधिक than anonymousगुमनाम risksजोखिम --
110
258000
3000
गुमनाम खतरे की अपेक्षा ज्यादा खतरनाक लगते हैं
04:36
so Binबिन Ladenलादेन is scarierडरावना because he has a nameनाम.
111
261000
3000
तो बिन लादेन डरावना है क्यूंकि उसका नाम है|
04:39
And the fourthचौथा
112
264000
2000
और चौथा,
04:41
is people underestimateकम आंकना risksजोखिम
113
266000
2000
लोग खतरों को कम कर के आंकते हैं
04:43
in situationsस्थितियों they do controlनियंत्रण
114
268000
2000
उन परिस्थितिओ में जिनको वो नियंत्रित कर सकते हैं
04:45
and overestimateOverestimate them in situationsस्थितियों they don't controlनियंत्रण.
115
270000
4000
और बढ़ा चढ़ा कर आंकते है उन परिस्थितिओ में जिनको वो नियंत्रित नहीं कर सकते हैं |
04:49
So onceएक बार you take up skydivingस्काइडाइविंग or smokingधूम्रपान,
116
274000
3000
तो जब आप स्काय डाइविंग या धुम्रपान के लिए जाते हैं
04:52
you downplaydownplay the risksजोखिम.
117
277000
2000
आप खतरों को कम कर के आंकते हैं |
04:54
If a riskजोखिम is thrustजोर uponके ऊपर you -- terrorismआतंक was a good exampleउदाहरण --
118
279000
3000
अगर आप पर कोई खतरा थोपा जाता हैं जैसे कि आतंकवाद एक अच्छा उदहारण हैं
04:57
you'llआप करेंगे overplayअधिक चलाना it because you don't feel like it's in your controlनियंत्रण.
119
282000
3000
तो आप बढ़ा चढ़ा कर प्रतिक्रिया देते हैं, क्युकि आपको ये आपके नियंत्रण में नहीं लगता हैं |
05:02
There are a bunchझुंड of other of these biasesपूर्वाग्रहों, these cognitiveसंज्ञानात्मक biasesपूर्वाग्रहों,
120
287000
3000
ऐसे ही बहुत सारे पक्षपात करते हैं विशेषतः दिमागी पक्षपात
05:05
that affectको प्रभावित our riskजोखिम decisionsनिर्णय.
121
290000
3000
जो हमारे खतरों से जुड़े निर्णयों पर प्रभाव डालते हैं |
05:08
There's the availabilityउपलब्धता heuristicअनुमानी,
122
293000
2000
हमारे पास अपने अनुभव की उपलब्धता हैं
05:10
whichकौन कौन से basicallyमूल रूप से meansमाध्यम
123
295000
2000
जिसका असल में मतलब हैं कि,
05:12
we estimateआकलन the probabilityसंभावना of something
124
297000
3000
हम किसी चीज़ के होने की प्रायिकता का अनुमान
05:15
by how easyआसान it is to bringलाओ instancesउदाहरणों of it to mindमन.
125
300000
4000
इस बात से लगाते हैं कि उससे जुड़ी घटनाओ को कितनी सरलता से हम सोच सकते हैं
05:19
So you can imagineकल्पना कीजिए how that worksकाम करता है.
126
304000
2000
तो आप ये कल्पना कर सकते हैं कि ये कैसे काम करती हैं,
05:21
If you hearसुनो a lot about tigerटाइगर attacksआक्रमण, there mustजरूर be a lot of tigersबाघों around.
127
306000
3000
जैसे कि अगर आपने बाघों के आक्रमण के बारे में बहुत सुना हैं तो बहुत सारे बाघ आस पास ही होंगे
05:24
You don't hearसुनो about lionशेर attacksआक्रमण, there aren'tनहीं कर रहे हैं a lot of lionsशेर around.
128
309000
3000
अगर आपने शेरो के आक्रमण के बारे में नहीं सुना है तो बहुत सारे शेर आस पास नही होंगे |
05:27
This worksकाम करता है untilजब तक you inventआविष्कार करना newspapersसमाचार पत्र.
129
312000
3000
यह काम करता हैं जब तक समाचार पत्र इजाद नहीं हुए थे |
05:30
Because what newspapersसमाचार पत्र do
130
315000
2000
क्यूंकि समाचार् पत्र जो करते हैं वो ये
05:32
is they repeatदोहराना again and again
131
317000
2000
कि वो बार बार दुहराते हैं
05:34
rareदुर्लभ risksजोखिम.
132
319000
2000
विरले खतरों को|
05:36
I tell people, if it's in the newsसमाचार, don't worryचिंता about it.
133
321000
2000
मैं लोगो से कहता हूँ कि अगर ये समाचार हैं तो इससे डरने की जरुरत नहीं
05:38
Because by definitionपरिभाषा,
134
323000
2000
क्यूंकि परिभाषा से
05:40
newsसमाचार is something that almostलगभग never happensहो जाता.
135
325000
3000
समाचार वो हैं जो ज्यादातर कभी भी घटित नहीं होता|
05:43
(Laughterहँसी)
136
328000
2000
( हंसी )
05:45
When something is so commonसामान्य, it's no longerलंबे समय तक newsसमाचार --
137
330000
3000
जब चीज़े इतनी सामान्य हो जाये तो वो समाचार नहीं रह जाती,
05:48
carगाड़ी crashesदुर्घटनाओं, domesticघरेलू violenceहिंसा --
138
333000
2000
कार का टकराना, घरेलु हिंसा
05:50
those are the risksजोखिम you worryचिंता about.
139
335000
3000
ये सारे खतरें हैं जिनकी आपको चिंता करनी चाहिए |
05:53
We're alsoभी a speciesजाति of storytellersसुनने.
140
338000
2000
हम भी कहानी बताने वालों की प्रजाति हैं,
05:55
We respondप्रतिक्रिया to storiesकहानियों more than dataजानकारी.
141
340000
3000
हम आंकड़ो की अपेक्षा कहनियों पर ज्यादा प्रतिक्रिया देते हैं
05:58
And there's some basicबुनियादी innumeracyinnumeracy going on.
142
343000
2000
और कुछ मूलभूत अज्ञानता अभी भी चल रही हैं |
06:00
I mean, the jokeमज़ाक "One, Two, Threeतीन, Manyकई" is kindमेहरबान of right.
143
345000
3000
मेरा मतलब हैं कि चुटकुला "एक, दो, तीन और कई" कुछ हद तक सही हैं
06:03
We're really good at smallछोटा numbersसंख्या.
144
348000
3000
हम छोटे संख्याओ पर बहुत अच्छे हैं,
06:06
One mangoआम, two mangoesआम, threeतीन mangoesआम,
145
351000
2000
एक आम, दो आम, तीन आम,
06:08
10,000 mangoesआम, 100,000 mangoesआम --
146
353000
2000
१०००० आम, १००००० आम,
06:10
it's still more mangoesआम you can eatखाना खा लो before they rotसड़ांध.
147
355000
3000
अभी भी बहुत से आम हैं जिन्हें ख़राब होने के पहले खाया जा सकता है
06:13
So one halfआधा, one quarterत्रिमास, one fifthपांचवां -- we're good at that.
148
358000
3000
तो १/२ , १/४, १/५ हम इनमे अच्छे हैं |
06:16
One in a millionदस लाख, one in a billionएक अरब --
149
361000
2000
लाखो में एक, करोड़ो में एक
06:18
they're bothदोनों almostलगभग never.
150
363000
3000
ये दोनों लगभग कभी नहीं होते |
06:21
So we have troubleमुसीबत with the risksजोखिम
151
366000
2000
तो हमे उन खतरों से परेशानी होती हैं
06:23
that aren'tनहीं कर रहे हैं very commonसामान्य.
152
368000
2000
जो इतने सामान्य नहीं हैं |
06:25
And what these cognitiveसंज्ञानात्मक biasesपूर्वाग्रहों do
153
370000
2000
और ये दिमागी पक्षपात हमारे और सच्चाई के
06:27
is they actअधिनियम as filtersफिल्टर betweenके बीच us and realityवास्तविकता.
154
372000
3000
बीच में छलनी की तरह कार्य करता हैं |
06:30
And the resultपरिणाम
155
375000
2000
और परिणाम ये कि
06:32
is that feelingअनुभूति and realityवास्तविकता get out of whackअजीब,
156
377000
2000
जब अचानक अहसास और सच्चाई बाहर आते हैं
06:34
they get differentविभिन्न.
157
379000
3000
तो वो अलग अलग होते हैं|
06:37
Now you eitherभी have a feelingअनुभूति -- you feel more secureसुरक्षित than you are.
158
382000
3000
तो अब पहले से ज्यादा सुरक्षित होने का अहसास हो सकता हैं
06:40
There's a falseअसत्य senseसमझ of securityसुरक्षा.
159
385000
2000
सुरक्षित होने का एक झूठा भाव
06:42
Or the other way,
160
387000
2000
या फिर दूसरी तरफ
06:44
and that's a falseअसत्य senseसमझ of insecurityअसुरक्षा.
161
389000
2000
असुरक्षित होने का एक झूठा भाव
06:46
I writeलिखना a lot about "securityसुरक्षा theaterथिएटर,"
162
391000
3000
मैंने "सुरक्षित थेअटर" के बारे में बहुत लिखा है
06:49
whichकौन कौन से are productsउत्पादों that make people feel secureसुरक्षित,
163
394000
3000
जो ऐसे उत्पाद हैं जो लोगों को महसूस कराते हैं कि वो सुरक्षित हैं,
06:52
but don't actuallyवास्तव में do anything.
164
397000
2000
जबकि वास्तविकता में वो कुछ नहीं करते |
06:54
There's no realअसली wordशब्द for stuffसामग्री that makesबनाता है us secureसुरक्षित,
165
399000
2000
ऐसी चीज़ के लिए कोई भी शब्द नहीं हैं जो हमे सुरक्षित तो करे
06:56
but doesn't make us feel secureसुरक्षित.
166
401000
2000
लेकिन सुरक्षित होने का अहसास ना कराये |
06:58
Maybe it's what the CIA'sसीआइए के supposedमाना to do for us.
167
403000
3000
शायद हमारे लिए सी. आई. ऐ. का यही काम हैं
07:03
So back to economicsअर्थशास्त्र.
168
408000
2000
तो वापस चलते हैं अर्थशास्त्र की तरफ
07:05
If economicsअर्थशास्त्र, if the marketबाजार, drivesड्राइव securityसुरक्षा,
169
410000
4000
यदि अर्थशास्त्र, यदि बाज़ार, चलाते हैं सुरक्षा को
07:09
and if people make trade-offsव्यापार गत
170
414000
2000
और यदि लोग विनिमय करते हैं
07:11
basedआधारित on the feelingअनुभूति of securityसुरक्षा,
171
416000
3000
अपने सुरक्षित होने के अहसास के आधार पर,
07:14
then the smartहोशियार thing for companiesकंपनियों to do
172
419000
2000
तब जो समझदारी भरा काम जो कंपनियां कर सकती हैं,
07:16
for the economicआर्थिक incentivesप्रोत्साहन
173
421000
2000
आर्थिक फायदों के लिए
07:18
are to make people feel secureसुरक्षित.
174
423000
3000
वो ये कि वो लोगों को सुरक्षित महसूस कराये |
07:21
And there are two waysतरीके to do this.
175
426000
3000
और ये करने के दो तरीके हैं
07:24
One, you can make people actuallyवास्तव में secureसुरक्षित
176
429000
2000
पहला कि आप लोगों को असलियत में सुरक्षित रखे
07:26
and hopeआशा they noticeनोटिस.
177
431000
2000
और उम्मीद रखे कि उन्हें पता चले |
07:28
Or two, you can make people just feel secureसुरक्षित
178
433000
3000
या दूसरा कि आप लोगों को बस सुरक्षित महसूस कराये
07:31
and hopeआशा they don't noticeनोटिस.
179
436000
3000
और ये उम्मीद रखे कि उन्हें पता नहीं चले |
07:35
So what makesबनाता है people noticeनोटिस?
180
440000
3000
तो ऐसा क्या हैं जिससे लोग को पता चलता हैं?
07:38
Well a coupleयुगल of things:
181
443000
2000
कई चीज़ों से :
07:40
understandingसमझ of the securityसुरक्षा,
182
445000
2000
सुरक्षा की समझ,
07:42
of the risksजोखिम, the threatsखतरों,
183
447000
2000
खतरों की समझ, आतंक की समझ,
07:44
the countermeasuresCountermeasures, how they work.
184
449000
3000
और उपायों की, वो कैसे काम करते हैं|
07:47
But if you know stuffसामग्री,
185
452000
2000
लेकिन अगर आप चीज़ों को समझते हैं
07:49
you're more likelyउपयुक्त to have your feelingsभावना के matchमैच realityवास्तविकता.
186
454000
3000
तब ज्यादा सम्भावना हैं कि आपके अहसास सच्चाई के जैसे ही होंगे |
07:52
Enoughपर्याप्त realअसली worldविश्व examplesउदाहरण helpsमदद करता है.
187
457000
3000
पर्याप्त वास्तविक उदहारण मदद करेंगे|
07:55
Now we all know the crimeअपराध rateमूल्यांकन करें in our neighborhoodअड़ोस - पड़ोस,
188
460000
3000
अभी हम सब अपने आस पड़ोस में जुर्म की दर जानते हैं,
07:58
because we liveजीना there, and we get a feelingअनुभूति about it
189
463000
3000
क्यूंकि हम वहां रहते हैं और हमे वहां का अहसास है
08:01
that basicallyमूल रूप से matchesमैच realityवास्तविकता.
190
466000
3000
जो सच्चाई के साथ बिलकुल सही बैठता है |
08:04
Securityसुरक्षा theater'sथियेटर के exposedउजागर
191
469000
3000
तो सुरक्षा के थेअटर का तब पर्दाफाश हो जाता हैं
08:07
when it's obviousज़ाहिर that it's not workingकाम कर रहे properlyअच्छी तरह.
192
472000
3000
जब ये साफ़ हो जाये कि ये ठीक से काम नहीं कर रहा |
08:10
Okay, so what makesबनाता है people not noticeनोटिस?
193
475000
4000
अच्छा तो ऐसा क्या हैं जिससे लोगों को पता नहीं चलता,
08:14
Well, a poorगरीब understandingसमझ.
194
479000
2000
तंत्र की कम समझ
08:16
If you don't understandसमझना the risksजोखिम, you don't understandसमझना the costsलागत,
195
481000
3000
यदि आप खतरों को नहीं समझेंगे तो आप कीमत नहीं समझेंगे
08:19
you're likelyउपयुक्त to get the trade-offव्यापार wrongगलत,
196
484000
2000
और संभवत: गलत विनिमय करेंगे |
08:21
and your feelingअनुभूति doesn't matchमैच realityवास्तविकता.
197
486000
3000
और आपका अहसास सच्चाई के जैसा नहीं होगा |
08:24
Not enoughपर्याप्त examplesउदाहरण.
198
489000
2000
ज्यादा पर्याप्त उदहारण नहीं हैं |
08:26
There's an inherentनिहित problemमुसीबत
199
491000
2000
ये कम प्रायिकता वाली घटनायो के साथ
08:28
with lowकम probabilityसंभावना eventsआयोजन.
200
493000
2000
एक अंदरूनी समस्या हैं |
08:30
If, for exampleउदाहरण,
201
495000
2000
उदहारण के लिए,
08:32
terrorismआतंक almostलगभग never happensहो जाता,
202
497000
2000
आतंकवाद लग भग नहीं के बराबर ही घटित होता है,
08:34
it's really hardकठिन to judgeन्यायाधीश
203
499000
2000
तो आतंकवाद विरोधी उपायों
08:36
the efficacyप्रभावकारिता of counter-terroristकाउंटर आतंकवादी measuresउपायों.
204
501000
3000
के प्रभाविकता का आंकलन करना बहुत ही कठिन है |
08:40
This is why you keep sacrificingत्याग virginsकुंवारी,
205
505000
3000
इसीलिए तो आप virgins का बलिदान देते आ रहे हैं
08:43
and why your unicornगेंडा defensesगढ़ are workingकाम कर रहे just great.
206
508000
3000
और इसीलिए तो आपका unicorn पे आधारित बचाव बहुत अच्छा काम कर रहा है |
08:46
There aren'tनहीं कर रहे हैं enoughपर्याप्त examplesउदाहरण of failuresविफलताओं.
207
511000
3000
यहाँ असफलता के बहुत पर्याप्त उदहारण नहीं हैं|
08:50
Alsoभी, feelingsभावना के that are cloudingधुंधलापन the issuesमुद्दे --
208
515000
3000
साथ ही साथ भावनाए जो धुंधला कर रही हैं, जैसे की ,
08:53
the cognitiveसंज्ञानात्मक biasesपूर्वाग्रहों I talkedबातचीत की about earlierपूर्व,
209
518000
2000
दिमागी पक्षपात, जिसके बारे में मैंने पहले बात की,
08:55
fearsआशंका, folkलोक beliefsविश्वासों,
210
520000
3000
डर, स्थानीय विश्वास,
08:58
basicallyमूल रूप से an inadequateअपर्याप्त modelआदर्श of realityवास्तविकता.
211
523000
3000
वो असल में सच्चाई का एक अपर्याप्त नमूना है |
09:02
So let me complicateजटिल things.
212
527000
3000
तो मुझे चीज़ों को जटिल बनाने दे |
09:05
I have feelingअनुभूति and realityवास्तविकता.
213
530000
2000
मेरे पास अहसास और सच्चाई हैं |
09:07
I want to addजोड़ना a thirdतीसरा elementतत्त्व. I want to addजोड़ना modelआदर्श.
214
532000
3000
अब मैं एक तीसरा अवयव जोड़ना चाहता हूँ | मैं "नमूना" जोड़ना चाहूँगा |
09:10
Feelingलग रहा and modelआदर्श in our headसिर,
215
535000
2000
अहसास और नमूना हमारे दिमाग में और
09:12
realityवास्तविकता is the outsideबाहर worldविश्व.
216
537000
2000
सच्चाई बाहर दुनिया में |
09:14
It doesn't changeपरिवर्तन; it's realअसली.
217
539000
3000
ये नहीं बदलती हैं, ये सच हैं |
09:17
So feelingअनुभूति is basedआधारित on our intuitionसहज बोध.
218
542000
2000
तो अहसास हमारे सहज ज्ञान पर आधारित हैं|
09:19
Modelमॉडल is basedआधारित on reasonकारण.
219
544000
2000
नमूना तर्क पर आधारित हैं |
09:21
That's basicallyमूल रूप से the differenceअंतर.
220
546000
3000
इन दोनों के बीच में यही मूल भिन्नता हैं |
09:24
In a primitiveआदिम and simpleसरल worldविश्व,
221
549000
2000
आदिम और सरल दुनिया में
09:26
there's really no reasonकारण for a modelआदर्श
222
551000
3000
नमूने के लिए वास्तविकता में कोई तर्क नहीं है |
09:29
because feelingअनुभूति is closeबंद करे to realityवास्तविकता.
223
554000
3000
क्यूंकि अहसास सच्चाई के बहुत करीब है |
09:32
You don't need a modelआदर्श.
224
557000
2000
तो आपको नमूने की जरुरत नहीं है |
09:34
But in a modernआधुनिक and complexजटिल worldविश्व,
225
559000
2000
लेकिन एक नए और जटिल दुनिया में
09:36
you need modelsमॉडल के
226
561000
2000
आपको नमूनों की जरुरत हैं -
09:38
to understandसमझना a lot of the risksजोखिम we faceचेहरा.
227
563000
3000
उन खतरों को समझने के लिए जिनका हम सामना करते हैं |
09:42
There's no feelingअनुभूति about germsरोगाणु.
228
567000
2000
जीवाणुओं के लिए हममे कोई अहसास नहीं होता |
09:44
You need a modelआदर्श to understandसमझना them.
229
569000
3000
आपको एक नमूने की जरुरत होगी उन्हें समझने के लिए |
09:47
So this modelआदर्श
230
572000
2000
तो ये नमूना
09:49
is an intelligentबुद्धिमान representationप्रतिनिधित्व of realityवास्तविकता.
231
574000
3000
सच्चाई का एक समझदारी भरा प्रस्तुतीकरण है |
09:52
It's, of courseकोर्स, limitedसीमित by scienceविज्ञान,
232
577000
3000
ये, बिलकुल बंधा हुआ है विज्ञान से,
09:55
by technologyप्रौद्योगिकी.
233
580000
2000
तकनीक से |
09:57
We couldn'tनहीं कर सका have a germरोगाणु theoryसिद्धांत of diseaseरोग
234
582000
3000
जीवाणुओं को देखने के लिए, माइक्रोस्कोप का इजाद होने से पहले
10:00
before we inventedआविष्कार the microscopeमाइक्रोस्कोप to see them.
235
585000
3000
हमारे पास बीमारियों के लिए जीवाणु का सिद्धांत नहीं हो सकता था
10:04
It's limitedसीमित by our cognitiveसंज्ञानात्मक biasesपूर्वाग्रहों.
236
589000
3000
ये बंधा हुआ है हमारे दिमागी पक्षपात से |
10:07
But it has the abilityयोग्यता
237
592000
2000
लेकिन इसके पास योग्यता है कि
10:09
to overrideओवरराइड our feelingsभावना के.
238
594000
2000
ये हमारे अहसासों को रद्द कर सकता है |
10:11
Where do we get these modelsमॉडल के? We get them from othersअन्य लोग.
239
596000
3000
तो ये नमूने हमको कहाँ से मिलेंगे? हमको ये दूसरो से मिलते हैं |
10:14
We get them from religionधर्म, from cultureसंस्कृति,
240
599000
3000
हमे धर्मं, संस्कृति, शिक्षक और बड़े बुजुर्गो
10:17
teachersशिक्षकों की, eldersबड़ों.
241
602000
2000
से ये नमूने मिलते हैं |
10:19
A coupleयुगल yearsवर्षों agoपूर्व,
242
604000
2000
कुछ साल पहले
10:21
I was in Southदक्षिण Africaअफ्रीका on safariसफारी.
243
606000
2000
मैं द. अफ्रीका में जंगल की सैर पर था,
10:23
The trackerट्रैकर I was with grewबढ़ी up in Krugerक्रूगर Nationalराष्ट्रीय Parkपार्क.
244
608000
3000
मैं जिस शिकारी के साथ था वो क्रूगर राष्ट्रीय पार्क में बड़ा हुआ था,
10:26
He had some very complexजटिल modelsमॉडल के of how to surviveबना रहना.
245
611000
3000
उसके पास जंगल में जीवन को बचाने के बहुत ही जटिल नमूने थे
10:29
And it dependedनिर्भर on if you were attackedहमला किया
246
614000
2000
और ये निर्भर करते हैं कि अगर आप पर हमला
10:31
by a lionशेर or a leopardतेंदुए or a rhinoराइनो or an elephantहाथी --
247
616000
2000
किसी शेर ने या तेंदुआ ने या गेंडे ने या एक हाथी ने किया हैं --
10:33
and when you had to runरन away, and when you couldn'tनहीं कर सका runरन away, and when you had to climbचढना a treeपेड़ --
248
618000
3000
और कब आपको भागना होगा और कब आपको किसी पेड़ पे चढ़ना होगा |
10:36
when you could never climbचढना a treeपेड़.
249
621000
2000
जब आप पेड़ पर कभी चढ़ ही नहीं सकते
10:38
I would have diedमर गए in a day,
250
623000
3000
तो मैं वहां एक दिन में मर गया होता,
10:41
but he was bornउत्पन्न होने वाली there,
251
626000
2000
लेकिन वो वहां पैदा हुआ था
10:43
and he understoodसमझ लिया how to surviveबना रहना.
252
628000
2000
और वो समझता था कि कैसे जीवित रहा जाए
10:45
I was bornउत्पन्न होने वाली in Newनया Yorkन्यूयार्क Cityशहर.
253
630000
2000
मै न्यू योर्क शहर में पैदा हुआ था,
10:47
I could have takenलिया him to Newनया Yorkन्यूयार्क, and he would have diedमर गए in a day.
254
632000
3000
अगर मै उसे अपने साथ यहाँ ले आया होता और वो यहाँ एक दिन में मर गया होता |
10:50
(Laughterहँसी)
255
635000
2000
(हंसी)
10:52
Because we had differentविभिन्न modelsमॉडल के
256
637000
2000
क्यूंकि हमारे नमूने अलग अलग हैं,
10:54
basedआधारित on our differentविभिन्न experiencesअनुभवों.
257
639000
3000
जो हमारे अलग अलग अनुभवों पर आधारित है |
10:58
Modelsमॉडल can come from the mediaमीडिया,
258
643000
2000
नमूने संचार के माध्यम से आ सकते हैं
11:00
from our electedनिर्वाचित officialsअधिकारियों.
259
645000
3000
हमारे चुने हुए अधिकारीयों से |
11:03
Think of modelsमॉडल के of terrorismआतंक,
260
648000
3000
सोचें जरा आतंकवाद के नमूने को,
11:06
childबच्चा kidnappingअपहरण,
261
651000
3000
बच्चो के अपहरण के नमूने को,
11:09
airlineएयरलाइन safetyसुरक्षा, carगाड़ी safetyसुरक्षा.
262
654000
2000
हवाई जहाज सुरक्षा, कार सुरक्षा,
11:11
Modelsमॉडल can come from industryउद्योग.
263
656000
3000
नमूने आ सकते हैं उद्योग से |
11:14
The two I'm followingनिम्नलिखित are surveillanceनिगरानी camerasकैमरों,
264
659000
2000
जो दो मै सोच रहा हूँ वो हैं निगरानी कैमरा
11:16
IDId cardsपत्ते,
265
661000
2000
और आई. डी. कार्ड्स ,
11:18
quiteकाफी a lot of our computerकंप्यूटर securityसुरक्षा modelsमॉडल के come from there.
266
663000
3000
बहुत सारे कंप्यूटर सुरक्षा के नमूने यही से आये हुए हैं |
11:21
A lot of modelsमॉडल के come from scienceविज्ञान.
267
666000
3000
कई नमूने विज्ञान से आये हुए हैं |
11:24
Healthस्वास्थ्य modelsमॉडल के are a great exampleउदाहरण.
268
669000
2000
स्वास्थ्य के नमूने अच्छे उदाहरण हैं |
11:26
Think of cancerकैंसर, of birdचिड़िया fluफ़्लू, swineसूअर fluफ़्लू, SARSसार्स.
269
671000
3000
कैंसर, बर्ड फ्लू, स्वीन फ्लू, स.अ.र.स. के बारे में सोचिए |
11:29
All of our feelingsभावना के of securityसुरक्षा
270
674000
3000
इन बीमारियों के बारे में हमारे
11:32
about those diseasesरोगों
271
677000
2000
सुरक्षा के सारे अहसास
11:34
come from modelsमॉडल के
272
679000
2000
उन नमूनों से आते हैं,
11:36
givenदिया हुआ to us, really, by scienceविज्ञान filteredफ़िल्टर throughके माध्यम से the mediaमीडिया.
273
681000
3000
जो हमे दिए जाते हैं, असल में संचार माध्यम के द्वारा छान हुए विज्ञान से |
11:40
So modelsमॉडल के can changeपरिवर्तन.
274
685000
3000
तो नमूने बदल सकते हैं |
11:43
Modelsमॉडल are not staticस्थिर.
275
688000
2000
नमूने स्थायी नहीं है
11:45
As we becomeबनना more comfortableआरामदायक in our environmentsवातावरण,
276
690000
3000
जैसे जैसे हम अपने वातावरण में ज्यादा आरामदायक महसूस करते हैं,
11:48
our modelआदर्श can moveचाल closerकरीब to our feelingsभावना के.
277
693000
4000
हमारा नमूना हमारे अहसासों के और करीब होता जाता है |
11:53
So an exampleउदाहरण mightपराक्रम be,
278
698000
2000
तो एक उदहारण हो सकता है,
11:55
if you go back 100 yearsवर्षों agoपूर्व
279
700000
2000
अगर आप १०० साल पीछे जाएँ
11:57
when electricityबिजली was first becomingबनने commonसामान्य,
280
702000
3000
जब पहली बार बिजली सामान्य हो रही थी,
12:00
there were a lot of fearsआशंका about it.
281
705000
2000
तब इसके बारे में कई डर थे |
12:02
I mean, there were people who were afraidडरा हुआ to pushधक्का दें doorbellsdoorbells,
282
707000
2000
मेरा मतलब, कई लोग डरते थे दरवाजे की घंटी बजाने से
12:04
because there was electricityबिजली in there, and that was dangerousखतरनाक.
283
709000
3000
क्यूंकि उसमे बिजली थी और उनके लिए वो खतरनाक थी
12:07
For us, we're very facileसतही around electricityबिजली.
284
712000
3000
हमारे लिए बिजली से जुड़ी चीजे बहुत आसान हैं
12:10
We changeपरिवर्तन lightरोशनी bulbsबल्ब
285
715000
2000
हम बिजली के बल्ब बदलते हैं
12:12
withoutके बग़ैर even thinkingविचारधारा about it.
286
717000
2000
बिजली के बारे में बिना सोचे हुए |
12:14
Our modelआदर्श of securityसुरक्षा around electricityबिजली
287
719000
4000
बिजली के लिए हमारा सुरक्षा नमूना
12:18
is something we were bornउत्पन्न होने वाली into.
288
723000
3000
कुछ ऐसा है जिसमे हम पैदा हुए हैं |
12:21
It hasn'tनहीं है changedबदल गया as we were growingबढ़ रही है up.
289
726000
3000
हमारे बड़े होने के साथ यह बदला नहीं है
12:24
And we're good at it.
290
729000
3000
और हम इसमें अच्छे हैं|
12:27
Or think of the risksजोखिम
291
732000
2000
या सोचिये इन्टरनेट के
12:29
on the Internetइंटरनेट acrossभर में generationsपीढ़ियों --
292
734000
2000
विभिन्न पीढियों के लिए खतरे के बारे में --
12:31
how your parentsमाता-पिता approachपहुंच Internetइंटरनेट securityसुरक्षा,
293
736000
2000
आपके परेंट्स इन्टरनेट सुरक्षा के बारे में कैसे सोचते हैं,
12:33
versusबनाम how you do,
294
738000
2000
और आप कैसे सोचते हैं
12:35
versusबनाम how our kidsबच्चे will.
295
740000
3000
और आपके बच्चे कैसे सोचेंगे |
12:38
Modelsमॉडल eventuallyअंत में fadeमुरझाना into the backgroundपृष्ठभूमि.
296
743000
3000
पृष्टभूमि में नमूने आख़िरकार गायब हो जायंगे
12:42
Intuitiveसहज ज्ञान युक्त is just anotherएक और wordशब्द for familiarपरिचित.
297
747000
3000
सहज ज्ञान का दूसरा नाम परिचित होना है|
12:45
So as your modelआदर्श is closeबंद करे to realityवास्तविकता,
298
750000
2000
तो अगर नमूना सच्चाई के करीब है
12:47
and it convergesconverges with feelingsभावना के,
299
752000
2000
और ये हमारे अहसासों से मिल जायेंगे,
12:49
you oftenअक्सर don't know it's there.
300
754000
3000
और जयादातर समय आपको पता भी नहीं चलेगा |
12:52
So a niceअच्छा exampleउदाहरण of this
301
757000
2000
तो एक अच्छा उदहारण इसका आता है
12:54
cameआ गया from last yearसाल and swineसूअर fluफ़्लू.
302
759000
3000
पिछले साल स्वीन फ्लू से |
12:57
When swineसूअर fluफ़्लू first appearedदिखाई,
303
762000
2000
जब स्वेन फ्लू पहली बार आया
12:59
the initialप्रारंभिक newsसमाचार causedवजह a lot of overreactionअधिक प्रतिक्रिया.
304
764000
4000
तब पहले पहले समाचार ने जरुरत से ज्यादा प्रतिक्रिया पैदा की |
13:03
Now it had a nameनाम,
305
768000
2000
अब इसका नाम है
13:05
whichकौन कौन से madeबनाया गया it scarierडरावना than the regularनियमित fluफ़्लू,
306
770000
2000
जिसने इसको और डरावना बना दिया
13:07
even thoughहालांकि it was more deadlyघातक.
307
772000
2000
सामान्य फ्लू से भले ही ये ज्यादा घातक था |
13:09
And people thought doctorsडॉक्टरों should be ableयोग्य to dealसौदा with it.
308
774000
4000
और लोगों ने सोचा डाक्टर्स इस लायक है कि वो इसका उपाय ढूंढ़ लेंगे|
13:13
So there was that feelingअनुभूति of lackकमी of controlनियंत्रण.
309
778000
2000
तो यहाँ पे एक अहसास था की स्थिति नियंत्रण से बाहर है |
13:15
And those two things
310
780000
2000
और इन दोनों चीज़ों
13:17
madeबनाया गया the riskजोखिम more than it was.
311
782000
2000
ने खतरों को वास्तविकता से बड़ा बना दिया |
13:19
As the noveltyनवीनता woreपहनी थी off, the monthsमहीने wentचला गया by,
312
784000
3000
जैसे जैसे अनूठापन गया, महीने बीतें,
13:22
there was some amountरकम of toleranceसहनशीलता,
313
787000
2000
सहन करने की क्षमता बढ़ी,
13:24
people got used to it.
314
789000
2000
और लोगों को इसकी आदत हो गयी
13:26
There was no newनया dataजानकारी, but there was lessकम से fearडर.
315
791000
3000
अब कोई नए आंकड़े नहीं थे, लेकिन फिर भी डर कम था |
13:29
By autumnशरद ऋतु,
316
794000
2000
शरद ऋतू के आते
13:31
people thought
317
796000
2000
तक लोंगो ने सोचा कि
13:33
the doctorsडॉक्टरों should have solvedहल किया this alreadyपहले से.
318
798000
2000
डाक्टर्स ने इसे सुलझा लिया होगा |
13:35
And there's kindमेहरबान of a bifurcationविभाजन --
319
800000
2000
और यहाँ एक प्रकार का द्वि विभाजन है,
13:37
people had to chooseचुनें
320
802000
2000
लोगों को चुनना था
13:39
betweenके बीच fearडर and acceptanceस्वीकृति --
321
804000
4000
डर और सच को स्वीकार करने में
13:43
actuallyवास्तव में fearडर and indifferenceउदासीनता --
322
808000
2000
असल में डर और उदासीनता के बीच में,
13:45
they kindमेहरबान of choseचुना suspicionसंदेह.
323
810000
3000
उन्होंने एक प्रकार से संदेह चुना |
13:48
And when the vaccineटीका appearedदिखाई last winterसर्दी,
324
813000
3000
और जब पिछले ठण्ड में टीका आया,
13:51
there were a lot of people -- a surprisingचौंका देने वाला numberसंख्या --
325
816000
3000
बहुत से लोग ऐसे थे - बहुत ज्यादा -
13:54
who refusedमना to get it --
326
819000
3000
जिन्होंने टीका लेने से मना कर दिया --
13:58
as a niceअच्छा exampleउदाहरण
327
823000
2000
एक अच्छा उदहारण
14:00
of how people'sलोगों की feelingsभावना के of securityसुरक्षा changeपरिवर्तन, how theirजो अपने modelआदर्श changesपरिवर्तन,
328
825000
3000
लोगों के अहसास कैसे बदलते हैं, नमूने कैसे बदलते हैं,
14:03
sortतरह of wildlyबेतहाशा
329
828000
2000
अजीबोगरीब रूप से,
14:05
with no newनया informationजानकारी,
330
830000
2000
कोई नयी सूचना ना होने के बाद भी,
14:07
with no newनया inputइनपुट.
331
832000
2000
कोई नयी सूचना नहीं,
14:09
This kindमेहरबान of thing happensहो जाता a lot.
332
834000
3000
ये अक्सर होता है |
14:12
I'm going to give one more complicationजटिलता.
333
837000
3000
मैं एक नयी जटिलता देने वाला हूँ,
14:15
We have feelingअनुभूति, modelआदर्श, realityवास्तविकता.
334
840000
3000
हमारे पास अहसास है, नमूने हैं, सच्चाई हैं |
14:18
I have a very relativisticrelativistic viewराय of securityसुरक्षा.
335
843000
2000
मेरे पास सुरक्षा का परस्पर दृश्य है |
14:20
I think it dependsनिर्भर करता है on the observerदेखने वाला.
336
845000
3000
मैं सोचता हूँ ये देखने वाले पर निर्भर करता है |
14:23
And mostअधिकांश securityसुरक्षा decisionsनिर्णय
337
848000
2000
और जयादा सुरक्षा निर्णयों में
14:25
have a varietyविविधता of people involvedलिप्त.
338
850000
4000
बहुत से लोग शामिल रहते हैं |
14:29
And stakeholdersहितधारकों
339
854000
2000
और भागीदार
14:31
with specificविशिष्ट trade-offsव्यापार गत
340
856000
3000
जिनकी अपनी विनिमय शर्ते हैं
14:34
will try to influenceप्रभाव the decisionफेसला.
341
859000
2000
निर्णय को प्रभावित करने की कोशिश करते है |
14:36
And I call that theirजो अपने agendaकार्यसूची.
342
861000
2000
और मैं इसके उनका अजेंडा कहता हूँ |
14:38
And you see agendaकार्यसूची --
343
863000
2000
और आप देख सकते हैं कि उनका अजेंडा ,
14:40
this is marketingविपणन, this is politicsराजनीति --
344
865000
3000
ये दुकानदारी, ये राजनीति
14:43
tryingकोशिश कर रहे हैं to convinceसमझाने you to have one modelआदर्श versusबनाम anotherएक और,
345
868000
3000
कोशिश करती रहती है कि आप एक नमूने के ऊपर दुसरे को चुने |
14:46
tryingकोशिश कर रहे हैं to convinceसमझाने you to ignoreनज़रअंदाज़ करना a modelआदर्श
346
871000
2000
कोशिश करते है कि आप एक नमूने को नजर अंदाज करें
14:48
and trustभरोसा your feelingsभावना के,
347
873000
3000
और अपनी भावनाओं का भरोसा करें,
14:51
marginalizingmarginalizing people with modelsमॉडल के you don't like.
348
876000
3000
उन लोगों प्रभावहीन करना जो उस नमूने का समर्थन करते हैं जिनको आप नहीं पसंद करते |
14:54
This is not uncommonअसामान्य.
349
879000
3000
ये बहुत अनोखा नहीं है |
14:57
An exampleउदाहरण, a great exampleउदाहरण, is the riskजोखिम of smokingधूम्रपान.
350
882000
3000
एक उदाहरण, एक बहुत बढ़िया उदाहरण है, धुम्रपान का खतरा |
15:01
In the historyइतिहास of the pastअतीत 50 yearsवर्षों, the smokingधूम्रपान riskजोखिम
351
886000
3000
पिछले ५० सालों के इतिहास में, धुम्रपान का खतरा
15:04
showsदिखाता है how a modelआदर्श changesपरिवर्तन,
352
889000
2000
बतलाता है एक नमूना कैसे बदलता है ,
15:06
and it alsoभी showsदिखाता है how an industryउद्योग fightsझगड़े againstविरुद्ध
353
891000
3000
और ये भी कि एक उद्योग कैसे लड़ता है
15:09
a modelआदर्श it doesn't like.
354
894000
2000
एक नमूने से जिसको वो पसंद नहीं करता |
15:11
Compareतुलना that to the secondhandपुराना smokeधुआं debateवाद विवाद --
355
896000
3000
उसी पुरानी धूम्रपान की बहस की तुलना में --
15:14
probablyशायद about 20 yearsवर्षों behindपीछे.
356
899000
3000
शायद लगभग २० साल पहले |
15:17
Think about seatसीट beltsबेल्ट.
357
902000
2000
सीट बेल्ट के बारे में सोचें |
15:19
When I was a kidबच्चा, no one woreपहनी थी a seatसीट beltबेल्ट.
358
904000
2000
जब मैं बच्चा था तब कोई भी सीट बेल्ट नहीं पहनता था |
15:21
Nowadaysआजकल, no kidबच्चा will let you driveचलाना
359
906000
2000
आज कल कोई बच्चा आपको गाडी चलाने नहीं देगा
15:23
if you're not wearingपहनने के a seatसीट beltबेल्ट.
360
908000
2000
अगर आपने सीट बेल्ट ना लगायी हो तो |
15:26
Compareतुलना that to the airbagAirbag debateवाद विवाद --
361
911000
2000
एयर बैग की बहस की तुलना में --
15:28
probablyशायद about 30 yearsवर्षों behindपीछे.
362
913000
3000
शायद लग भग ३० साल पहले |
15:31
All examplesउदाहरण of modelsमॉडल के changingबदलना.
363
916000
3000
सारे उदाहरण नमूनों के बदल रहे है |
15:36
What we learnसीखना is that changingबदलना modelsमॉडल के is hardकठिन.
364
921000
3000
हमने ये सीखा कि नमूनों को बदलना कठिन है |
15:39
Modelsमॉडल are hardकठिन to dislodgeबेदखल.
365
924000
2000
नमूनों को शक्ति से हटाना कठिन है |
15:41
If they equalबराबरी का your feelingsभावना के,
366
926000
2000
अगर वो आपकी भावनाओं के करीब है तो
15:43
you don't even know you have a modelआदर्श.
367
928000
3000
आपको पता भी नहीं चलेगा की आपके पास एक नमूना है|
15:46
And there's anotherएक और cognitiveसंज्ञानात्मक biasपक्षपात
368
931000
2000
और यहाँ पे एक और दिमागी पक्षपात है,
15:48
I'll call confirmationपुष्टीकरण biasपक्षपात,
369
933000
2000
जिसे मैं कहूँगा " सुनिश्चित पक्षपात "
15:50
where we tendदेते हैं to acceptस्वीकार करना dataजानकारी
370
935000
3000
जहाँ हम उन आंकड़ो को स्वीकार करते हैं
15:53
that confirmsपुष्टि our beliefsविश्वासों
371
938000
2000
जो हमारे विशवास से मिलते हैं
15:55
and rejectअस्वीकार dataजानकारी that contradictsContradicts our beliefsविश्वासों.
372
940000
3000
और उन आंकड़ों को अस्वीकार कर देते हैं
15:59
So evidenceसबूत againstविरुद्ध our modelआदर्श,
373
944000
2000
जो हमारे विश्वासों के खिलाफ होते हैं |
16:01
we're likelyउपयुक्त to ignoreनज़रअंदाज़ करना, even if it's compellingसम्मोहक.
374
946000
3000
संभवत: हम इन्हें नज़र अंदाज़ कर देंगे भले ही वो बहुत सही हो
16:04
It has to get very compellingसम्मोहक before we'llकुंआ payवेतन attentionध्यान.
375
949000
3000
इसको बहुत ही जयादा अकाट्य होना पड़ेगा इसके पहले की हम ध्यान देना शुरू करें |
16:08
Newनया modelsमॉडल के that extendविस्तार long periodsअवधि of time are hardकठिन.
376
953000
2000
नए नमूने जो इतने लम्बे समय तक चलते हैं वो कठिन होते हैं |
16:10
Globalवैश्विक warmingवार्मिंग is a great exampleउदाहरण.
377
955000
2000
ग्लोबल वार्मिंग एक अच्छा उदाहरण है |
16:12
We're terribleभयानक
378
957000
2000
हम लोग बहुत ही भयानक है
16:14
at modelsमॉडल के that spanअवधि 80 yearsवर्षों.
379
959000
2000
ऐसे नमूने में जो ८० साल का है |
16:16
We can do to the nextआगामी harvestफ़सल.
380
961000
2000
हम लोग अगली फसल तक ये कर सकते है |
16:18
We can oftenअक्सर do untilजब तक our kidsबच्चे growबढ़ने up.
381
963000
3000
हम तब तक ये कर सकते है जब तक हमारे बच्चे बड़े नहीं होते |
16:21
But 80 yearsवर्षों, we're just not good at.
382
966000
3000
लेकिन फिर भी ८० सालों के बाद भी हम लोग इसमें अच्छे नहीं है |
16:24
So it's a very hardकठिन modelआदर्श to acceptस्वीकार करना.
383
969000
3000
तो स्वीकार करने के लिए ये एक बहुत ही कठिन नमूना है |
16:27
We can have bothदोनों modelsमॉडल के in our headसिर simultaneouslyएक साथ,
384
972000
4000
हम दोनों नमूनों को अपने दिमाग में एक साथ रख सकते हैं,
16:31
right, that kindमेहरबान of problemमुसीबत
385
976000
3000
या उस समस्या को
16:34
where we're holdingपकड़े bothदोनों beliefsविश्वासों togetherसाथ में,
386
979000
3000
जहाँ हम अपने विश्वास या दिमागी असंगति को
16:37
right, the cognitiveसंज्ञानात्मक dissonanceमतभेद.
387
982000
2000
एक साथ रख रहे हैं,
16:39
Eventuallyअंततः,
388
984000
2000
आखिरकार,
16:41
the newनया modelआदर्श will replaceबदलने के the oldपुराना modelआदर्श.
389
986000
3000
नया नमूना पुराने की जगह ले लेगा |
16:44
Strongमजबूत feelingsभावना के can createसर्जन करना a modelआदर्श.
390
989000
3000
मजबूत अहसास एक नमूना बना सकते है |
16:47
Septemberसितम्बर 11thवें createdबनाया था a securityसुरक्षा modelआदर्श
391
992000
3000
सितम्बर ११ ने एक सुरक्षा नमूना बनाया
16:50
in a lot of people'sलोगों की headsसिर.
392
995000
2000
बहुत सारे लोगों के दिमाग में |
16:52
Alsoभी, personalनिजी experiencesअनुभवों with crimeअपराध can do it,
393
997000
3000
जुर्म के साथ खुद के अनुभव भी ये काम कर सकते हैं |
16:55
personalनिजी healthस्वास्थ्य scareडराना,
394
1000000
2000
खुद के स्वास्थ्य का डर ,
16:57
a healthस्वास्थ्य scareडराना in the newsसमाचार.
395
1002000
2000
समाचारों में स्वास्थ्य का डर |
16:59
You'llआपको see these calledबुलाया flashbulbflashbulb eventsआयोजन
396
1004000
2000
आप देखेंगे की ये "फ्लेश बल्ब " घटनाये कहलाती हैं
17:01
by psychiatristsमनोचिकित्सकों.
397
1006000
2000
मनोचिक्त्सिक की भाषा में |
17:03
They can createसर्जन करना a modelआदर्श instantaneouslyतत्क्षण,
398
1008000
3000
वे तुरंत नमूने बना सकते है
17:06
because they're very emotiveभावपूर्ण.
399
1011000
3000
क्यूंकि वे बहुत ही भावोत्तेजक होते है
17:09
So in the technologicalप्रौद्योगिकीय worldविश्व,
400
1014000
2000
तो इन तकनिकी दुनिया में
17:11
we don't have experienceअनुभव
401
1016000
2000
हमारे पास अनुभव नहीं होते
17:13
to judgeन्यायाधीश modelsमॉडल के.
402
1018000
2000
ताकि हम नमूनों का आंकलन कर सके |
17:15
And we relyभरोसा करना on othersअन्य लोग. We relyभरोसा करना on proxiesपरदे.
403
1020000
2000
और हम दूसरों पे निर्भर रहते हैं | हम प्रतिनिधि पे भरोसा करते हैं |
17:17
I mean, this worksकाम करता है as long as it's to correctसही बात othersअन्य लोग.
404
1022000
4000
मेरा मतलब ये तब तक काम करता है जब तक ये दूसरो को ठीक करे |
17:21
We relyभरोसा करना on governmentसरकार agenciesएजेंसियों
405
1026000
2000
हम शासकीय संस्थाओ पे भरोसा करते हैं
17:23
to tell us what pharmaceuticalsफार्मास्यूटिकल्स are safeसुरक्षित.
406
1028000
5000
ये बताने के लिए कि pharmaceuticals सुरक्षित है |
17:28
I flewउड़ान भरी here yesterdayबिता कल.
407
1033000
2000
मैं कल ही यहाँ हवाई जहाज से आया,
17:30
I didn't checkचेक the airplaneविमान.
408
1035000
2000
मैंने हवाई अड्डे पे जांच नहीं की,
17:32
I reliedभरोसा on some other groupसमूह
409
1037000
2000
मैंने दुसरे समूह पे भरोसा किया,
17:34
to determineनिर्धारित whetherकि क्या my planeविमान was safeसुरक्षित to flyउड़ना.
410
1039000
3000
ये पता लगाने के लिए की क्या मेरा जहाज उड़ने के लिए सुरक्षित है |
17:37
We're here, noneकोई नहीं of us fearडर the roofछत is going to collapseगिरावट on us,
411
1042000
3000
हम लोग यहाँ है, हम में से किसी को भी डर नहीं है कि ये छत हमपे गिर सकती है |
17:40
not because we checkedजाँच,
412
1045000
3000
इसलिए नहीं की हमने जांच की है
17:43
but because we're prettyसुंदर sure
413
1048000
2000
लेकिन हम लोग बिलकुल ये जानते है
17:45
the buildingइमारत codesकोड here are good.
414
1050000
3000
की इमारतों के मानक यहाँ अच्छे है
17:48
It's a modelआदर्श we just acceptस्वीकार करना
415
1053000
2000
ये एक नमूना है जो हम स्वीकार करते हैं
17:50
prettyसुंदर much by faithआस्था.
416
1055000
2000
बहुत कुछ बस अपने विश्वास से |
17:52
And that's okay.
417
1057000
3000
और ये सही है |
17:57
Now, what we want
418
1062000
2000
अब हम जो चाहते है
17:59
is people to get familiarपरिचित enoughपर्याप्त
419
1064000
2000
वो ये की लोग परिचित हो जाए
18:01
with better modelsमॉडल के --
420
1066000
2000
अच्छे नमूनों से
18:03
have it reflectedपरिलक्षित in theirजो अपने feelingsभावना के --
421
1068000
2000
और ऐसे की वो प्रतिबिम्बित हो उनके अहसासों में
18:05
to allowअनुमति देते हैं them to make securityसुरक्षा trade-offsव्यापार गत.
422
1070000
4000
ताकि वो सुरक्षा के विनिमय कर सके |
18:09
Now when these go out of whackअजीब,
423
1074000
2000
और जब ऐसा होता है
18:11
you have two optionsविकल्प.
424
1076000
2000
तब आपके पास दो विकल्प होते हैं
18:13
One, you can fixठीक कर people'sलोगों की feelingsभावना के,
425
1078000
2000
पहला, आप लोगों के अहसासों को ठीक करें ,
18:15
directlyसीधे appealअपील to feelingsभावना के.
426
1080000
2000
सीधे उनके अहसासों पर काम करें |
18:17
It's manipulationजोड़-तोड़, but it can work.
427
1082000
3000
ये हेराफेरी है लेकिन ये काम करती है
18:20
The secondदूसरा, more honestईमानदार way
428
1085000
2000
दूसरी, ज्यादा इमानदार तरीका,
18:22
is to actuallyवास्तव में fixठीक कर the modelआदर्श.
429
1087000
3000
ये की आप अपना नमूना ठीक करें |
18:26
Changeबदल happensहो जाता slowlyधीरे से.
430
1091000
2000
बदलाव धीरे धीरे होता है |
18:28
The smokingधूम्रपान debateवाद विवाद tookलिया 40 yearsवर्षों,
431
1093000
3000
धुम्रपान की बहस ने ४० साल लिए
18:31
and that was an easyआसान one.
432
1096000
3000
और जबकि वो आसान थी |
18:34
Some of this stuffसामग्री is hardकठिन.
433
1099000
2000
इसमें से कुछ चीज़ें कठिन हैं,
18:36
I mean really thoughहालांकि,
434
1101000
2000
मेरा मतलब सच में कठिन,
18:38
informationजानकारी seemsलगता है like our bestश्रेष्ठ hopeआशा.
435
1103000
2000
ऐसा लगता है कि सूचना हमारी सबसे बढ़िया उम्मीद है |
18:40
And I liedझूठ बोला.
436
1105000
2000
और मैंने झूठ बोला |
18:42
Rememberयाद I said feelingअनुभूति, modelआदर्श, realityवास्तविकता;
437
1107000
2000
याद है जब मैंने कहा भावनाएं, नमूने, सच्चाई |
18:44
I said realityवास्तविकता doesn't changeपरिवर्तन. It actuallyवास्तव में does.
438
1109000
3000
और मैंने कहा था सच्चाई नहीं बदलती है| असल में ये बदलती है |
18:47
We liveजीना in a technologicalप्रौद्योगिकीय worldविश्व;
439
1112000
2000
हम तकनिकी दुनिया में रहते हैं ;
18:49
realityवास्तविकता changesपरिवर्तन all the time.
440
1114000
3000
सच्चाई हर समय बदलती रहती है |
18:52
So we mightपराक्रम have -- for the first time in our speciesजाति --
441
1117000
3000
तो हम शायद -- पहली बार इस प्रजाति में --
18:55
feelingअनुभूति chasesChases modelआदर्श, modelआदर्श chasesChases realityवास्तविकता, reality'sहकीकत की movingचलती --
442
1120000
3000
भावनाए पीछा करती हैं नमूने का, नमूने पीछा करते हैं सच्चाई का, और सच्चाई भाग रही है --
18:58
they mightपराक्रम never catchपकड़ up.
443
1123000
3000
तो वो कभी ना मिल पायें |
19:02
We don't know.
444
1127000
2000
हम नहीं जानते |
19:04
But in the long-termदीर्घकालिक,
445
1129000
2000
लेकिन लम्बे समय में
19:06
bothदोनों feelingअनुभूति and realityवास्तविकता are importantजरूरी.
446
1131000
3000
दोनों अहसास और सच्चाई महत्वपूर्ण है |
19:09
And I want to closeबंद करे with two quickशीघ्र storiesकहानियों to illustrateउदाहरण देकर स्पष्ट करना this.
447
1134000
3000
और मैं दो छोटी कहानियों के साथ इसे समाप्त करना चाहूँगा |
19:12
1982 -- I don't know if people will rememberयाद है this --
448
1137000
2000
१९८२ - मैं नहीं जनता लोगों को ये याद भी है या नहीं --
19:14
there was a shortकम epidemicमहामारी
449
1139000
3000
एक tylenol विष की छोटी महामारी
19:17
of TylenolTylenol poisoningsPoisonings in the Unitedसंयुक्त Statesराज्यों.
450
1142000
2000
अमेरिका में फैली थी
19:19
It's a horrificभीषण storyकहानी. Someoneकिसी tookलिया a bottleबोतल of TylenolTylenol,
451
1144000
3000
ये एक भयानक कहानी है| किसी ने एक बोतल ली tylenol
19:22
put poisonज़हर in it, closedबन्द है it up, put it back on the shelfशेल्फ.
452
1147000
3000
की उसमे विष भर दिया, उसे बंद किया, और उसे दराज में वापस रख दिया |
19:25
Someoneकिसी elseअन्य boughtखरीद लिया it and diedमर गए.
453
1150000
2000
किसी और ने उसे खरीदा और मर गया |
19:27
This terrifiedडर people.
454
1152000
2000
इसने लोगों को डरा दिया |
19:29
There were a coupleयुगल of copycatनकल attacksआक्रमण.
455
1154000
2000
उसके बाद कई नक़ल हमले हुए |
19:31
There wasn'tनहीं था any realअसली riskजोखिम, but people were scaredडरा हुआ.
456
1156000
3000
उसमे कोई भी असली खतरा नहीं था लेकिन लोग डरे हुए थे
19:34
And this is how
457
1159000
2000
और इस तरह
19:36
the tamper-proofहेरा-फेरी प्रूफ drugदवा industryउद्योग was inventedआविष्कार.
458
1161000
2000
छेड़ छाड़ सुरक्षित drug उद्योग इजाद हुई |
19:38
Those tamper-proofहेरा-फेरी प्रूफ capsटोपियां, that cameआ गया from this.
459
1163000
2000
छेड़ छाड़ सुरक्षित ढक्कन इसी से आये |
19:40
It's completeपूर्ण securityसुरक्षा theaterथिएटर.
460
1165000
2000
ये एक सम्पूर्ण सुरक्षा थेअटर है |
19:42
As a homeworkघर का पाठ assignmentअसाइनमेंट, think of 10 waysतरीके to get around it.
461
1167000
2000
गृहकार्य के रूप में इसको हराने के १० तरीके सोचिये |
19:44
I'll give you one, a syringeसिरिंज.
462
1169000
3000
मैंने आपको एक बताता हूँ, एक सुई
19:47
But it madeबनाया गया people feel better.
463
1172000
3000
लेकिन इसने लोगों को सुरक्षित महसूस कराया |
19:50
It madeबनाया गया theirजो अपने feelingअनुभूति of securityसुरक्षा
464
1175000
2000
इसने उनके सुरक्षित होने के अहसास को
19:52
more matchमैच the realityवास्तविकता.
465
1177000
2000
और करीब लाया सच्चाई के |
19:54
Last storyकहानी, a fewकुछ yearsवर्षों agoपूर्व, a friendदोस्त of mineमेरी gaveदिया birthजन्म.
466
1179000
3000
आखिरी कहानी, कुछ साल पहले, मेरी एक दोस्त ने बच्चे को जन्म दिया |
19:57
I visitयात्रा her in the hospitalअस्पताल.
467
1182000
2000
मैं उससे मिलने हॉस्पिटल गया,
19:59
It turnsबदल जाता है out when a baby'sबच्चे के bornउत्पन्न होने वाली now,
468
1184000
2000
मुझे पता चला कि जब बच्ची का जन्म हो गया है तो,
20:01
they put an RFIDआरएफआईडी braceletकंगन on the babyबच्चा,
469
1186000
2000
उन्होंने एक आर. अफ. आई. दी. कंगन पहना दिया बच्ची को,
20:03
put a correspondingइसी one on the motherमां,
470
1188000
2000
और एक वैसा ही बच्ची की माँ को
20:05
so if anyoneकिसी को other than the motherमां takes the babyबच्चा out of the maternityमातृत्व wardपरवरिश,
471
1190000
2000
ताकि उसको माँ को छोड़कर और कोई बच्ची को बाहर ले जाये तो
20:07
an alarmअलार्म goesजाता है off.
472
1192000
2000
एक अलार्म बज जायेगा |
20:09
I said, "Well, that's kindमेहरबान of neatस्वच्छ.
473
1194000
2000
मैंने कहा अच्छा, ये बढ़िया है |
20:11
I wonderआश्चर्य how rampantबड़े पैमाने पर babyबच्चा snatchingछीनने is
474
1196000
2000
मैं सोचा बच्ची को चुराना नियंत्रण से कितना बाहर है
20:13
out of hospitalsअस्पतालों."
475
1198000
2000
हास्पिटल के बाहर ?
20:15
I go home, I look it up.
476
1200000
2000
मैं घर गया और देखा इसके बारे में |
20:17
It basicallyमूल रूप से never happensहो जाता.
477
1202000
2000
ये असल में कभी हुआ ही नहीं |
20:19
But if you think about it,
478
1204000
2000
लेकिन अगर आप इसके बारे में सोचें ,
20:21
if you are a hospitalअस्पताल,
479
1206000
2000
आप हास्पिटल में हैं
20:23
and you need to take a babyबच्चा away from its motherमां,
480
1208000
2000
और आपको बच्ची को माँ से दूर ले जाना हैं
20:25
out of the roomकक्ष to runरन some testsपरीक्षण,
481
1210000
2000
दुसरे कमरे में ताकि आप कोई परिक्षण कर सके तो
20:27
you better have some good securityसुरक्षा theaterथिएटर,
482
1212000
2000
या तो आपके पास कोई अच्छा बेहतर सुरक्षा थेअटर होना चाहिए
20:29
or she's going to ripचीर your armबांह off.
483
1214000
2000
नहीं तो उसे आपका हाथ काटना पड़ेगा |
20:31
(Laughterहँसी)
484
1216000
2000
(हंसी )
20:33
So it's importantजरूरी for us,
485
1218000
2000
तो ये हमारे लिए जरुरी हैं,
20:35
those of us who designडिज़ाइन securityसुरक्षा,
486
1220000
2000
उन लोगों के लिए जो सुरक्षा की रचना करते हैं,
20:37
who look at securityसुरक्षा policyनीति,
487
1222000
3000
जो सुरक्षा के नियमो को देखते हैं ,
20:40
or even look at publicजनता policyनीति
488
1225000
2000
या बल्कि जो जनता के नियमो को देखते हैं
20:42
in waysतरीके that affectको प्रभावित securityसुरक्षा.
489
1227000
2000
उन तरीको से जिससे ये सुरक्षा पर प्रभाव डालते हैं |
20:44
It's not just realityवास्तविकता; it's feelingअनुभूति and realityवास्तविकता.
490
1229000
3000
ये केवल सच्चाई नहीं हैं ये अहसास और सच्चाई हैं |
20:47
What's importantजरूरी
491
1232000
2000
जो जरुरी हैं वो ये
20:49
is that they be about the sameवही.
492
1234000
2000
वे एक से रहे |
20:51
It's importantजरूरी that, if our feelingsभावना के matchमैच realityवास्तविकता,
493
1236000
2000
ये जरुरी है अगर हमारे अहसास सच्चाई से मिले
20:53
we make better securityसुरक्षा trade-offsव्यापार गत.
494
1238000
2000
तो हम अच्छे सुरक्षा विनिमय कर सकते हैं |
20:55
Thank you.
495
1240000
2000
धन्यवाद
20:57
(Applauseप्रशंसा)
496
1242000
2000
(अभिवादन)
Translated by Gaurav Techlife
Reviewed by Omprakash Bisen

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com