ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com
TEDxPSU

Bruce Schneier: The security mirage

Μπρους Σνάιερ: Η ψευδαίσθηση της ασφάλειας

Filmed:
958,315 views

Το αίσθημα της ασφάλειας και η πραγματικότητα της ασφάλειας δεν ταυτίζονται πάντα, λέει ο ειδικός στην ασφάλεια υπολογιστών Μπρους Σνάιερ. Στο TEDxPSU, εξηγεί γιατί ξοδεύουμε δισεκατομμύρια για να αντιμετωπίσουμε τους κινδύνους που γίνονται ειδήσεις, όπως το "θέατρο ασφαλείας" που παίζεται στο τοπικό αεροδρόμιο, ενώ παραμελούμε πιο πιθανούς κινδύνους -- και πώς μπορούμε να αλλάξουμε αυτό το μοτίβο.
- Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world. Full bio

Double-click the English transcript below to play the video.

00:15
So securityασφάλεια is two differentδιαφορετικός things:
0
0
2000
Η ασφάλεια λοιπόν είναι δύο διαφορετικά πράγματα:
00:17
it's a feelingσυναισθημα, and it's a realityπραγματικότητα.
1
2000
2000
είναι μια αίσθηση και μια πραγματικότητα.
00:19
And they're differentδιαφορετικός.
2
4000
2000
Και αυτές είναι διαφορετικές.
00:21
You could feel secureασφαλής
3
6000
2000
Θα μπορούσατε να νιώθετε ασφαλείς
00:23
even if you're not.
4
8000
2000
ακόμα κι αν δεν είστε.
00:25
And you can be secureασφαλής
5
10000
2000
Και μπορεί να είστε ασφαλείς
00:27
even if you don't feel it.
6
12000
2000
ακόμα κι αν δεν το νιώθετε.
00:29
Really, we have two separateξεχωριστός conceptsέννοιες
7
14000
2000
Στην πραγματικότητα, έχουμε δύο διαφορετικές έννοιες
00:31
mappedαντιστοίχιση ontoεπάνω σε the sameίδιο wordλέξη.
8
16000
2000
που αντιστοιχούν στην ίδια λέξη.
00:33
And what I want to do in this talk
9
18000
2000
Και αυτό που θέλω να κάνω σε αυτή την ομιλία
00:35
is to splitσπλιτ them apartχώρια --
10
20000
2000
είναι να τις ξεχωρίσω --
00:37
figuringκατανόηση out when they divergeαποκλίνω
11
22000
2000
ξεκαθαρίζοντας πότε αποκλίνουν η μία από την άλλη
00:39
and how they convergeσυγκλίνουν.
12
24000
2000
και πότε συγκλίνουν.
00:41
And languageΓλώσσα is actuallyπράγματι a problemπρόβλημα here.
13
26000
2000
Και η γλώσσα είναι όντως ένα πρόβλημα εδώ.
00:43
There aren'tδεν είναι a lot of good wordsλόγια
14
28000
2000
Δεν υπάρχουν πολλές σωστές λέξεις
00:45
for the conceptsέννοιες we're going to talk about.
15
30000
3000
για τις έννοιες για τις οποίες θα μιλήσουμε.
00:48
So if you look at securityασφάλεια
16
33000
2000
Έτσι, αν κοιτάξουμε την ασφάλεια
00:50
from economicοικονομικός termsόροι,
17
35000
2000
με οικονομικούς όρους,
00:52
it's a trade-offσυμβιβασμός.
18
37000
2000
είναι μια ανταλλαγή.
00:54
EveryΚάθε time you get some securityασφάλεια,
19
39000
2000
Όποτε λαμβάνετε κάποιου είδους ασφάλεια,
00:56
you're always tradingεμπορία off something.
20
41000
2000
πάντα παραχωρείτε κάτι σε αντάλλαγμα.
00:58
WhetherΑν this is a personalπροσωπικός decisionαπόφαση --
21
43000
2000
Είτε αυτό είναι μια προσωπική απόφαση --
01:00
whetherκατά πόσο you're going to installεγκαθιστώ a burglarδιαρρήκτης alarmτρομάζω in your home --
22
45000
2000
αν θα εγκαταστήσετε ένα συναγερμό στο σπίτι σας --
01:02
or a nationalεθνικός decisionαπόφαση -- where you're going to invadeεισβαλλει some foreignξένο countryΧώρα --
23
47000
3000
είτε μια εθνική απόφαση -- αν θα εισβάλλετε σε κάποια ξένη χώρα --
01:05
you're going to tradeεμπορικές συναλλαγές off something,
24
50000
2000
πρόκειται να παραχωρήσετε κάτι,
01:07
eitherείτε moneyχρήματα or time, convenienceευκολία, capabilitiesικανότητες,
25
52000
3000
είτε χρήματα, είτε χρόνο, άνεση, δυνατότητες,
01:10
maybe fundamentalθεμελιώδης libertiesελευθεριών.
26
55000
3000
ή ίσως βασικές ελευθερίες.
01:13
And the questionερώτηση to askπαρακαλώ when you look at a securityασφάλεια anything
27
58000
3000
Και η ερώτηση που πρέπει να θέσουμε όταν κοιτάζουμε οτιδήποτε έχει σχέση με την ασφάλεια
01:16
is not whetherκατά πόσο this makesκάνει us saferασφαλέστερα,
28
61000
3000
δεν είναι αν αυτό θα μας κάνει ασφαλέστερους,
01:19
but whetherκατά πόσο it's worthαξία the trade-offσυμβιβασμός.
29
64000
3000
αλλά αν αξίζει την ανταλλαγή.
01:22
You've heardακούσει in the pastτο παρελθόν severalαρκετά yearsχρόνια,
30
67000
2000
Θα έχετε ακούσει, εδώ και κάποια χρόνια,
01:24
the worldκόσμος is saferασφαλέστερα because SaddamΟ Σαντάμ HusseinΧουσεΐν is not in powerεξουσία.
31
69000
2000
ότι ο κόσμος είναι ασφαλέστερος επειδή ο Σαντάμ Χουσεΐν δεν είναι στην εξουσία.
01:26
That mightθα μπορούσε be trueαληθής, but it's not terriblyτρομερά relevantσχετικό.
32
71000
3000
Αυτό μπορεί να είναι αλήθεια, αλλά αυτό δεν είναι και τόσο ουσιώδες.
01:29
The questionερώτηση is, was it worthαξία it?
33
74000
3000
Το ερώτημα είναι, άξιζε τον κόπο;
01:32
And you can make your ownτα δικά decisionαπόφαση,
34
77000
3000
Και μπορείτε να αποφασίσετε μόνοι σας,
01:35
and then you'llθα το κάνετε decideαποφασίζω whetherκατά πόσο the invasionεισβολή was worthαξία it.
35
80000
2000
και τότε να αποφασίσετε αν η εισβολή άξιζε τον κόπο.
01:37
That's how you think about securityασφάλεια --
36
82000
2000
Έτσι σκεφτόμαστε σχετικά με την ασφάλεια --
01:39
in termsόροι of the trade-offσυμβιβασμός.
37
84000
2000
σε σχέση με το αντάλλαγμα.
01:41
Now there's oftenσυχνά no right or wrongλανθασμένος here.
38
86000
3000
Συχνά δεν υπάρχει σωστό ή λάθος εδώ.
01:44
Some of us have a burglarδιαρρήκτης alarmτρομάζω systemΣύστημα at home,
39
89000
2000
Κάποιοι από εμάς έχουμε συναγερμό στο σπίτι,
01:46
and some of us don't.
40
91000
2000
και κάποιοι όχι.
01:48
And it'llθα το κάνει dependεξαρτώμαι on where we liveζω,
41
93000
2000
Και θα εξαρτηθεί από το πού μένουμε,
01:50
whetherκατά πόσο we liveζω aloneμόνος or have a familyοικογένεια,
42
95000
2000
αν μένουμε μόνοι ή έχουμε οικογένεια,
01:52
how much coolδροσερός stuffυλικό we have,
43
97000
2000
πόσα ωραία πράγματα έχουμε,
01:54
how much we're willingπρόθυμος to acceptαποδέχομαι
44
99000
2000
πόσο είμαστε πρόθυμοι να δεχτούμε
01:56
the riskκίνδυνος of theftκλοπή.
45
101000
2000
το ρίσκο της κλοπής.
01:58
In politicsπολιτική alsoεπίσης,
46
103000
2000
Στην πολιτική, επίσης,
02:00
there are differentδιαφορετικός opinionsγνώμες.
47
105000
2000
υπάρχουν διάφορες απόψεις.
02:02
A lot of timesφορές, these trade-offsσυμβιβασμούς
48
107000
2000
Πολλές φορές, αυτές οι ανταλλαγές
02:04
are about more than just securityασφάλεια,
49
109000
2000
έχουν να κάνουν και με άλλα πράγματα εκτός από την ασφάλεια,
02:06
and I think that's really importantσπουδαίος.
50
111000
2000
και νομίζω ότι αυτό είναι πολύ σημαντικό.
02:08
Now people have a naturalφυσικός intuitionδιαίσθηση
51
113000
2000
Οι άνθρωποι έχουν μια φυσική διαίσθηση
02:10
about these trade-offsσυμβιβασμούς.
52
115000
2000
σχετικά με αυτές τις ανταλλαγές.
02:12
We make them everyκάθε day --
53
117000
2000
Τις κάνουμε καθημερινά --
02:14
last night in my hotelξενοδοχειο roomδωμάτιο,
54
119000
2000
χθες το βράδυ στο δωμάτιο του ξενοδοχείου μου,
02:16
when I decidedαποφασισμένος to double-lockδιπλής-lock the doorθύρα,
55
121000
2000
όταν αποφάσισα να διπλοκλειδώσω την πόρτα,
02:18
or you in your carαυτοκίνητο when you droveοδήγησε here,
56
123000
2000
ή εσείς στο αυτοκίνητο οδηγώντας προς τα εδώ,
02:20
when we go eatτρώω lunchμεσημεριανό
57
125000
2000
όταν πηγαίνουμε να φάμε μεσημεριανό
02:22
and decideαποφασίζω the food'sτου φαγητού not poisonδηλητήριο and we'llΚαλά eatτρώω it.
58
127000
3000
και αποφασίζουμε ότι το φαγητό δεν είναι δηλητηριώδες και το τρώμε.
02:25
We make these trade-offsσυμβιβασμούς again and again,
59
130000
2000
Κάνουμε αυτές τις ανταλλαγές ξανά και ξανά
02:27
multipleπολλαπλούς timesφορές a day.
60
132000
2000
πολλές φορές κάθε μέρα.
02:29
We oftenσυχνά won'tσυνηθισμένος even noticeειδοποίηση them.
61
134000
2000
Συχνά δεν τις παρατηρούμε καν.
02:31
They're just partμέρος of beingνα εισαι aliveζωντανός; we all do it.
62
136000
2000
Είναι απλά μέρος της ζωής μας, όλοι το κάνουμε.
02:33
EveryΚάθε speciesείδος does it.
63
138000
3000
Κάθε είδος το κάνει.
02:36
ImagineΦανταστείτε a rabbitκουνέλι in a fieldπεδίο, eatingτρώει grassγρασίδι,
64
141000
2000
Φανταστείτε ένα λαγό σε ένα λιβάδι να τρώει γρασίδι,
02:38
and the rabbit'sτου κουνελιού going to see a foxαλεπού.
65
143000
3000
και ο λαγός βλέπει μια αλεπού.
02:41
That rabbitκουνέλι will make a securityασφάλεια trade-offσυμβιβασμός:
66
146000
2000
Αυτός ο λαγός θα κάνει μια ανταλλαγή για την ασφάλεια:
02:43
"Should I stayδιαμονή, or should I fleeφυγή?"
67
148000
2000
"Να μείνω, ή να φύγω;"
02:45
And if you think about it,
68
150000
2000
Και αν το σκεφτείτε,
02:47
the rabbitsκουνέλια that are good at makingκατασκευή that trade-offσυμβιβασμός
69
152000
3000
οι λαγοί που είναι καλοί σε αυτή την ανταλλαγή
02:50
will tendτείνω to liveζω and reproduceαναπαράγω,
70
155000
2000
πρόκειται να ζήσουν και να αναπαραχθούν,
02:52
and the rabbitsκουνέλια that are badκακό at it
71
157000
2000
και οι λαγοί που δεν είναι καλοί
02:54
will get eatenτρώγονται or starveλιμοκτονήσουν.
72
159000
2000
θα φαγωθούν ή θα πεθάνουν από την πείνα.
02:56
So you'dεσείς think
73
161000
2000
Οπότε θα σκεφτόταν κανείς
02:58
that us, as a successfulεπιτυχής speciesείδος on the planetπλανήτης --
74
163000
3000
ότι εμείς, ως ένα επιτυχημένο είδος σε αυτό τον πλανήτη --
03:01
you, me, everybodyόλοι --
75
166000
2000
εσείς, εγώ, όλοι μας --
03:03
would be really good at makingκατασκευή these trade-offsσυμβιβασμούς.
76
168000
3000
θα ήμασταν πολύ καλοί στο να κάνουμε αυτές τις ανταλλαγές.
03:06
YetΑκόμη it seemsφαίνεται, again and again,
77
171000
2000
Κι όμως, όπως φαίνεται ξανά και ξανά
03:08
that we're hopelesslyαπελπιστικά badκακό at it.
78
173000
3000
είμαστε απελπιστικά κακοί σε αυτό.
03:11
And I think that's a fundamentallyθεμελιωδώς interestingενδιαφέρων questionερώτηση.
79
176000
3000
Και πιστεύω ότι αυτό είναι ένα εξαιρετικά ενδιαφέρον ερώτημα.
03:14
I'll give you the shortμικρός answerαπάντηση.
80
179000
2000
Θα σας δώσω τη σύντομη απάντηση.
03:16
The answerαπάντηση is, we respondαπαντώ to the feelingσυναισθημα of securityασφάλεια
81
181000
2000
Η απάντηση είναι, ανταποκρινόμαστε στην αίσθηση ασφάλειας
03:18
and not the realityπραγματικότητα.
82
183000
3000
και όχι στην πραγματικότητά της.
03:21
Now mostπλέον of the time, that worksεργοστάσιο.
83
186000
3000
Τις περισσότερες φορές αυτό δουλεύει.
03:25
MostΠερισσότερα of the time,
84
190000
2000
Τις περισσότερες φορές,
03:27
feelingσυναισθημα and realityπραγματικότητα are the sameίδιο.
85
192000
3000
η αίσθηση και η πραγματικότητα είναι το ίδιο πράγμα.
03:30
CertainlyΣίγουρα that's trueαληθής
86
195000
2000
Αυτό φυσικά ισχύει
03:32
for mostπλέον of humanο άνθρωπος prehistoryπροϊστορία.
87
197000
3000
για το μεγαλύτερο μέρος της ανθρώπινης προϊστορίας.
03:35
We'veΈχουμε developedαναπτηγμένος this abilityικανότητα
88
200000
3000
Αναπτύξαμε αυτή την ικανότητα
03:38
because it makesκάνει evolutionaryεξελικτική senseέννοια.
89
203000
2000
επειδή έχει νόημα εξελικτικά.
03:40
One way to think of it
90
205000
2000
Ένας τρόπος να το δούμε
03:42
is that we're highlyυψηλά optimizedβελτιστοποιηθεί
91
207000
2000
είναι ότι είμαστε εξαιρετικά βελτιωμένοι όταν πρόκειται
03:44
for riskκίνδυνος decisionsαποφάσεων
92
209000
2000
για αποφάσεις που αφορούν κινδύνους
03:46
that are endemicενδημικά to livingζωή in smallμικρό familyοικογένεια groupsομάδες
93
211000
3000
που ήταν συνηθισμένοι για τις μικρές ομάδες οικογενειών που ζούσαν
03:49
in the EastΑνατολή AfricanΑφρικανική highlandsορεινές περιοχές in 100,000 B.C.
94
214000
3000
στα υψίπεδα της ανατολικής Αφρικής το 100.000 π.Χ. --
03:52
2010 NewΝέα YorkΥόρκη, not so much.
95
217000
3000
αλλά στη Νέα Υόρκη του 2010, όχι και τόσο.
03:56
Now there are severalαρκετά biasesμεροληψίες in riskκίνδυνος perceptionαντίληψη.
96
221000
3000
Τώρα, υπάρχουν διάφορες προκαταλήψεις στην αντίληψη του κινδύνου.
03:59
A lot of good experimentsπειράματα in this.
97
224000
2000
Πολλά καλά πειράματα πάνω σε αυτό το θέμα.
04:01
And you can see certainβέβαιος biasesμεροληψίες that come up again and again.
98
226000
3000
Και μπορεί κανείς να δει κάποιες προκαταλήψεις που προκύπτουν ξανά και ξανά.
04:04
So I'll give you fourτέσσερα.
99
229000
2000
Έτσι θα σας δώσω τέσσερις.
04:06
We tendτείνω to exaggerateυπερβάλλω spectacularθεαματικός and rareσπάνιος risksκινδύνους
100
231000
3000
Τείνουμε να υπερεκτιμούμε τους θεαματικούς και σπάνιους κινδύνους
04:09
and downplayυποβαθμίσω commonκοινός risksκινδύνους --
101
234000
2000
και να υποτιμούμε τους κοινούς κινδύνους --
04:11
so flyingπέταγμα versusεναντίον drivingοδήγηση.
102
236000
3000
όπως πτήση εναντίον οδήγησης.
04:14
The unknownάγνωστο is perceivedαντιληπτή
103
239000
2000
Το άγνωστο εκλαμβάνεται
04:16
to be riskierπιο επικίνδυνη than the familiarοικείος.
104
241000
3000
ως πιο επικίνδυνο από το οικείο.
04:20
One exampleπαράδειγμα would be,
105
245000
2000
Ένα παράδειγμα θα μπορούσε να είναι ότι,
04:22
people fearφόβος kidnappingαπαγωγή by strangersαγνώστους
106
247000
3000
οι άνθρωποι φοβούνται την απαγωγή από αγνώστους,
04:25
when the dataδεδομένα supportsυποστηρίζει kidnappingαπαγωγή by relativesσυγγενείς is much more commonκοινός.
107
250000
3000
ενώ τα στοιχεία υποστηρίζουν ότι οι απαγωγές από συγγενείς είναι πολύ πιο συνήθεις.
04:28
This is for childrenπαιδιά.
108
253000
2000
Αυτό αναφορικά με τις απαγωγές παιδιών.
04:30
ThirdΤρίτο, personifiedπροσωποποιημένη risksκινδύνους
109
255000
3000
Τρίτον, οι προσωποποιημένοι κίνδυνοι
04:33
are perceivedαντιληπτή to be greaterμεγαλύτερη than anonymousΑνώνυμος risksκινδύνους --
110
258000
3000
εκλαμβάνονται ως μεγαλύτεροι από τους ανώνυμους κινδύνους --
04:36
so BinBin LadenΦορτωμένο is scarierχειρότερες because he has a nameόνομα.
111
261000
3000
έτσι ο Μπιν Λάντεν είναι πιο τρομακτικός επειδή έχει όνομα.
04:39
And the fourthτέταρτος
112
264000
2000
Και τέταρτον
04:41
is people underestimateυποτιμώ risksκινδύνους
113
266000
2000
οι άνθρωποι υποτιμούν τους κινδύνους
04:43
in situationsκαταστάσεις they do controlέλεγχος
114
268000
2000
σε καταστάσεις που ελέγχουν
04:45
and overestimateυπερεκτίμηση them in situationsκαταστάσεις they don't controlέλεγχος.
115
270000
4000
και τους υπερεκτιμούν σε καταστάσεις που δεν ελέγχουν.
04:49
So onceμια φορά you take up skydivingελεύθερη πτώση με αλεξίπτωτο or smokingκάπνισμα,
116
274000
3000
Έτσι αν αρχίσετε την ελεύθερη πτώση ή το κάπνισμα,
04:52
you downplayυποβαθμίσω the risksκινδύνους.
117
277000
2000
θα υποτιμήσετε τους κινδύνους.
04:54
If a riskκίνδυνος is thrustώθηση uponεπάνω σε you -- terrorismτρομοκρατία was a good exampleπαράδειγμα --
118
279000
3000
Αν κάποιος σας φορτώσει έναν κίνδυνο -- η τρομοκρατία ήταν ένα καλό παράδειγμα --
04:57
you'llθα το κάνετε overplayoverplay it because you don't feel like it's in your controlέλεγχος.
119
282000
3000
θα τον υπερεκτιμήσετε, γιατί νιώθετε ότι δεν είναι υπό τον έλεγχό σας.
05:02
There are a bunchδέσμη of other of these biasesμεροληψίες, these cognitiveγνωστική biasesμεροληψίες,
120
287000
3000
Και υπάρχει πλήθος τέτοιων προκαταλήψεων, τέτοιων γνωστικών προκαταλήψεων,
05:05
that affectεπηρεάζουν our riskκίνδυνος decisionsαποφάσεων.
121
290000
3000
που επηρεάζουν τις αποφάσεις μας σχετικά με τον κίνδυνο.
05:08
There's the availabilityδιαθεσιμότητα heuristicευρετική,
122
293000
2000
Υπάρχει η ευρετική της διαθεσιμότητας,
05:10
whichοι οποίες basicallyβασικα meansπου σημαίνει
123
295000
2000
το οποίο βασικά σημαίνει ότι
05:12
we estimateεκτίμηση the probabilityπιθανότητα of something
124
297000
3000
υπολογίζουμε την πιθανότητα να συμβεί κάτι
05:15
by how easyεύκολος it is to bringνα φερεις instancesπεριπτώσεις of it to mindμυαλό.
125
300000
4000
από το πόσο εύκολα μπορούμε να φέρουμε στο μυαλό μας περιπτώσεις όπου συνέβη.
05:19
So you can imagineφαντάζομαι how that worksεργοστάσιο.
126
304000
2000
Οπότε μπορείτε να φανταστείτε πώς δουλεύει αυτό.
05:21
If you hearακούω a lot about tigerτίγρης attacksεπιθέσεις, there mustπρέπει be a lot of tigersτίγρεις around.
127
306000
3000
Αν ακούτε πολλά για επιθέσεις από τίγρεις, πρέπει να υπάρχουν πολλές τίγρεις τριγύρω.
05:24
You don't hearακούω about lionλιοντάρι attacksεπιθέσεις, there aren'tδεν είναι a lot of lionsλιοντάρια around.
128
309000
3000
Δεν ακούτε για επιθέσεις από λιοντάρια, άρα δεν υπάρχουν πολλά λιοντάρια τριγύρω.
05:27
This worksεργοστάσιο untilμέχρις ότου you inventεφευρίσκω newspapersεφημερίδες.
129
312000
3000
Αυτό λειτουργεί μέχρι να εφευρεθούν οι εφημερίδες.
05:30
Because what newspapersεφημερίδες do
130
315000
2000
Επειδή αυτό που κάνουν οι εφημερίδες
05:32
is they repeatεπαναλαμβάνω again and again
131
317000
2000
είναι να επαναλαμβάνουν ξανά και ξανά
05:34
rareσπάνιος risksκινδύνους.
132
319000
2000
τους σπάνιους κινδύνους.
05:36
I tell people, if it's in the newsΝέα, don't worryανησυχία about it.
133
321000
2000
Λέω στον κόσμο, αν το είπαν στις ειδήσεις, μην ανησυχείτε για αυτό.
05:38
Because by definitionορισμός,
134
323000
2000
Γιατί εξ ορισμού,
05:40
newsΝέα is something that almostσχεδόν never happensσυμβαίνει.
135
325000
3000
η είδηση είναι κάτι που δε συμβαίνει σχεδόν ποτέ.
05:43
(LaughterΤο γέλιο)
136
328000
2000
(Γέλια)
05:45
When something is so commonκοινός, it's no longerμακρύτερα newsΝέα --
137
330000
3000
Όταν κάτι είναι πολύ συνηθισμένο, παύει να αποτελεί είδηση --
05:48
carαυτοκίνητο crashesσυντρίβει, domesticοικιακός violenceβία --
138
333000
2000
τροχαία, ενδοοικογενειακή βία --
05:50
those are the risksκινδύνους you worryανησυχία about.
139
335000
3000
αυτοί είναι οι κίνδυνοι για τους οποίους ανησυχείτε.
05:53
We're alsoεπίσης a speciesείδος of storytellersπαραμυθάδες.
140
338000
2000
Επιπλέον είμαστε ένα είδος παραμυθάδων.
05:55
We respondαπαντώ to storiesιστορίες more than dataδεδομένα.
141
340000
3000
Ανταποκρινόμαστε στις ιστορίες περισσότερο από ότι στα δεδομένα.
05:58
And there's some basicβασικός innumeracyinnumeracy going on.
142
343000
2000
Και αυτό που συμβαίνει είναι κάποιος βασικός μαθηματικός αναλφαβητισμός.
06:00
I mean, the jokeαστείο "One, Two, ThreeΤρεις, ManyΠολλά" is kindείδος of right.
143
345000
3000
Δηλαδή η φράση "ένα, δύο, τρία, πολλά" είναι αρκετά σωστή.
06:03
We're really good at smallμικρό numbersαριθμούς.
144
348000
3000
Είμαστε πολύ καλοί στα μικρά νούμερα.
06:06
One mangoμάνγκο, two mangoesμάνγκο, threeτρία mangoesμάνγκο,
145
351000
2000
Ένα μάνγκο, δύο μάνγκο, τρία μάνγκο,
06:08
10,000 mangoesμάνγκο, 100,000 mangoesμάνγκο --
146
353000
2000
10.000 μάνγκο, 100.000 μάνγκο --
06:10
it's still more mangoesμάνγκο you can eatτρώω before they rotσήψη.
147
355000
3000
παραμένουν περισσότερα μάνγκο που μπορείτε να φάτε πριν αυτά σαπίσουν.
06:13
So one halfΉμισυ, one quarterτέταρτο, one fifthπέμπτος -- we're good at that.
148
358000
3000
Επίσης μισό, ένα τέταρτο, ένα πέμπτο -- είμαστε καλοί σε αυτό.
06:16
One in a millionεκατομμύριο, one in a billionδισεκατομμύριο --
149
361000
2000
Ένα στο εκατομμύριο, ένα στο δισεκατομμύριο --
06:18
they're bothκαι τα δυο almostσχεδόν never.
150
363000
3000
και τα δύο σημαίνουν σχεδόν ποτέ.
06:21
So we have troubleταλαιπωρία with the risksκινδύνους
151
366000
2000
Έτσι έχουμε πρόβλημα με τους κινδύνους
06:23
that aren'tδεν είναι very commonκοινός.
152
368000
2000
που δεν είναι πολύ συνηθισμένοι.
06:25
And what these cognitiveγνωστική biasesμεροληψίες do
153
370000
2000
Και αυτό που κάνουν αυτές οι γνωστικές προκαταλήψεις
06:27
is they actενεργω as filtersφίλτρα betweenμεταξύ us and realityπραγματικότητα.
154
372000
3000
είναι ότι λειτουργούν ως φίλτρα ανάμεσα σε εμάς και την πραγματικότητα.
06:30
And the resultαποτέλεσμα
155
375000
2000
Και το αποτέλεσμα
06:32
is that feelingσυναισθημα and realityπραγματικότητα get out of whackηχηρό κτύπημα,
156
377000
2000
είναι ότι η αίσθηση και η πραγματικότητα δεν βρίσκονται σε ισορροπία,
06:34
they get differentδιαφορετικός.
157
379000
3000
γίνονται διαφορετικά πράγματα.
06:37
Now you eitherείτε have a feelingσυναισθημα -- you feel more secureασφαλής than you are.
158
382000
3000
Έτσι, είτε έχετε μια αίσθηση -- νιώθετε ασφαλέστεροι απ' ότι είστε.
06:40
There's a falseψευδής senseέννοια of securityασφάλεια.
159
385000
2000
Υπάρχει μια ψευδής αίσθηση ασφαλείας.
06:42
Or the other way,
160
387000
2000
Ή το αντίθετο,
06:44
and that's a falseψευδής senseέννοια of insecurityανασφάλεια.
161
389000
2000
το οποίο είναι μια ψευδής αίσθηση ανασφάλειας.
06:46
I writeγράφω a lot about "securityασφάλεια theaterθέατρο,"
162
391000
3000
Γράφω συχνά σχετικά με το "θέατρο ασφαλείας",
06:49
whichοι οποίες are productsπροϊόντα that make people feel secureασφαλής,
163
394000
3000
που είναι τα προϊόντα που κάνουν τους ανθρώπους να νιώθουν ασφαλείς,
06:52
but don't actuallyπράγματι do anything.
164
397000
2000
αλλά στην πραγματικότητα δεν κάνουν τίποτα.
06:54
There's no realπραγματικός wordλέξη for stuffυλικό that makesκάνει us secureασφαλής,
165
399000
2000
Δεν υπάρχει πραγματική λέξη για τα πράγματα που μας κάνουν ασφαλείς,
06:56
but doesn't make us feel secureασφαλής.
166
401000
2000
αλλά δε μας κάνουν να νιώθουμε ασφαλείς.
06:58
Maybe it's what the CIA'sΤης CIA supposedυποτιθεμένος to do for us.
167
403000
3000
Ίσως είναι αυτό που η CIA υποτίθεται ότι κάνει για εμάς.
07:03
So back to economicsΟικονομικά.
168
408000
2000
Οπότε, πίσω στην οικονομία.
07:05
If economicsΟικονομικά, if the marketαγορά, drivesδίσκους securityασφάλεια,
169
410000
4000
Αν η οικονομία, αν η αγορά, καθοδηγεί την ασφάλεια,
07:09
and if people make trade-offsσυμβιβασμούς
170
414000
2000
και αν οι άνθρωποι κάνουν ανταλλαγές
07:11
basedμε βάση on the feelingσυναισθημα of securityασφάλεια,
171
416000
3000
βασισμένοι στο αίσθημα της ασφάλειας,
07:14
then the smartέξυπνος thing for companiesεταιρείες to do
172
419000
2000
τότε αυτό που θα ήταν έξυπνο να κάνουν οι εταιρίες
07:16
for the economicοικονομικός incentivesκίνητρα
173
421000
2000
με οικονομικό κίνητρο
07:18
are to make people feel secureασφαλής.
174
423000
3000
είναι να κάνουν τους ανθρώπους να νιώθουν ασφαλείς.
07:21
And there are two waysτρόπους to do this.
175
426000
3000
Και υπάρχουν δύο τρόποι να το κάνουν αυτό.
07:24
One, you can make people actuallyπράγματι secureασφαλής
176
429000
2000
Πρώτον, μπορούν να κάνουν τους ανθρώπους πράγματι ασφαλείς
07:26
and hopeελπίδα they noticeειδοποίηση.
177
431000
2000
και να ελπίσουν ότι εκείνοι θα το παρατηρήσουν.
07:28
Or two, you can make people just feel secureασφαλής
178
433000
3000
Ή, δεύτερον, μπορούν απλώς να κάνουν τους ανθρώπους να νιώθουν ασφαλείς
07:31
and hopeελπίδα they don't noticeειδοποίηση.
179
436000
3000
και να ελπίσουν ότι εκείνοι δεν θα το παρατηρήσουν.
07:35
So what makesκάνει people noticeειδοποίηση?
180
440000
3000
Τι κάνει, λοιπόν, τους ανθρώπους να το παρατηρήσουν;
07:38
Well a coupleζευγάρι of things:
181
443000
2000
Λοιπόν, αρκετά πράγματα:
07:40
understandingκατανόηση of the securityασφάλεια,
182
445000
2000
η κατανόηση της ασφάλειας,
07:42
of the risksκινδύνους, the threatsαπειλές,
183
447000
2000
των κινδύνων, των απειλών,
07:44
the countermeasuresαντίμετρα, how they work.
184
449000
3000
των μέτρων πρόληψης, το πώς αυτά δουλεύουν.
07:47
But if you know stuffυλικό,
185
452000
2000
Αλλά αν ξέρεις πράγματα,
07:49
you're more likelyπιθανός to have your feelingsσυναισθήματα matchαγώνας realityπραγματικότητα.
186
454000
3000
είναι πιο πιθανόν η αίσθησή σου να ταυτίζεται με την πραγματικότητα.
07:52
EnoughΑρκετά realπραγματικός worldκόσμος examplesπαραδείγματα helpsβοηθάει.
187
457000
3000
Βοηθούν αρκετά πραγματικά παραδείγματα.
07:55
Now we all know the crimeέγκλημα rateτιμή in our neighborhoodγειτονιά,
188
460000
3000
Τώρα, όλοι γνωρίζουμε το δείκτη εγκληματικότητας στη γειτονιά μας,
07:58
because we liveζω there, and we get a feelingσυναισθημα about it
189
463000
3000
επειδή ζούμε εκεί και έχουμε μια αίσθηση σχετικά με αυτόν
08:01
that basicallyβασικα matchesαγώνες realityπραγματικότητα.
190
466000
3000
που κατά βάση αντιστοιχεί στην πραγματικότητα.
08:04
SecurityΑσφάλεια theater'sτου θεάτρου exposedεκτεθειμένος
191
469000
3000
Το θέατρο της ασφάλειας αποκαλύπτεται
08:07
when it's obviousφανερός that it's not workingεργαζόμενος properlyδεόντως.
192
472000
3000
όταν είναι προφανές ότι δεν λειτουργεί κανονικά.
08:10
Okay, so what makesκάνει people not noticeειδοποίηση?
193
475000
4000
Εντάξει, οπότε τι κάνει τους ανθρώπους να μην δίνουν σημασία;
08:14
Well, a poorΦτωχός understandingκατανόηση.
194
479000
2000
Βασικά, η έλλειψη κατανόησης.
08:16
If you don't understandκαταλαβαίνουν the risksκινδύνους, you don't understandκαταλαβαίνουν the costsδικαστικά έξοδα,
195
481000
3000
Όταν δεν καταλαβαίνεις τους κινδύνους, δεν καταλαβαίνεις το κόστος,
08:19
you're likelyπιθανός to get the trade-offσυμβιβασμός wrongλανθασμένος,
196
484000
2000
είναι πιθανό να κάνεις λάθος στην ανταλλαγή,
08:21
and your feelingσυναισθημα doesn't matchαγώνας realityπραγματικότητα.
197
486000
3000
και το αίσθημά σου να μην αντιστοιχεί στην πραγματικότητα.
08:24
Not enoughαρκετά examplesπαραδείγματα.
198
489000
2000
Δεν υπάρχουν αρκετά παραδείγματα.
08:26
There's an inherentσυμφυής problemπρόβλημα
199
491000
2000
Υπάρχει ένα εγγενές πρόβλημα
08:28
with lowχαμηλός probabilityπιθανότητα eventsγεγονότα.
200
493000
2000
με τα γεγονότα που έχουν χαμηλή πιθανότητα να συμβούν.
08:30
If, for exampleπαράδειγμα,
201
495000
2000
Αν, για παράδειγμα,
08:32
terrorismτρομοκρατία almostσχεδόν never happensσυμβαίνει,
202
497000
2000
η τρομοκρατία δε συμβαίνει σχεδόν ποτέ,
08:34
it's really hardσκληρά to judgeδικαστής
203
499000
2000
είναι πολύ δύσκολο να κρίνουμε
08:36
the efficacyαποτελεσματικότητα of counter-terroristκαταπολέμηση της τρομοκρατίας measuresμέτρα.
204
501000
3000
την αποτελεσματικότητα των αντιτρομοκρατικών μέτρων.
08:40
This is why you keep sacrificingθυσιάζοντας virginsπαρθένες,
205
505000
3000
Αυτός είναι ο λόγος που συνεχίζουμε να θυσιάζουμε παρθένες,
08:43
and why your unicornμονόκερος defensesάμυνες are workingεργαζόμενος just great.
206
508000
3000
και γιατί οι άμυνές μας από μονόκερους λειτουργούν καταπληκτικά.
08:46
There aren'tδεν είναι enoughαρκετά examplesπαραδείγματα of failuresαποτυχίες.
207
511000
3000
Δεν υπάρχουν αρκετά παραδείγματα αποτυχίας.
08:50
AlsoΕπίσης, feelingsσυναισθήματα that are cloudingθόλωση the issuesθέματα --
208
515000
3000
Επίσης, τα συναισθήματα θολώνουν την κρίση μας σ' αυτά τα ζητήματα --
08:53
the cognitiveγνωστική biasesμεροληψίες I talkedμίλησε about earlierνωρίτερα,
209
518000
2000
οι γνωστικές προκαταλήψεις για τις οποίες μίλησα νωρίτερα,
08:55
fearsφόβους, folkΛαϊκή beliefsτις πεποιθήσεις,
210
520000
3000
οι φόβοι, οι λαϊκές πεποιθήσεις,
08:58
basicallyβασικα an inadequateανεπαρκής modelμοντέλο of realityπραγματικότητα.
211
523000
3000
βασικά ένα ανεπαρκές μοντέλο της πραγματικότητας.
09:02
So let me complicateπεριπλέξει things.
212
527000
3000
Οπότε αφήστε με να περιπλέξω τα πράγματα.
09:05
I have feelingσυναισθημα and realityπραγματικότητα.
213
530000
2000
Έχω μια αίσθηση και μια πραγματικότητα.
09:07
I want to addπροσθέτω a thirdτρίτος elementστοιχείο. I want to addπροσθέτω modelμοντέλο.
214
532000
3000
Θέλω να προσθέσω ένα τρίτο στοιχείο. Θέλω να προσθέσω το μοντέλο.
09:10
FeelingΑίσθημα and modelμοντέλο in our headκεφάλι,
215
535000
2000
Η αίσθηση και το μοντέλο είναι στο κεφάλι μας,
09:12
realityπραγματικότητα is the outsideεξω απο worldκόσμος.
216
537000
2000
η πραγματικότητα είναι ο έξω κόσμος.
09:14
It doesn't changeαλλαγή; it's realπραγματικός.
217
539000
3000
Δεν αλλάζει, είναι πραγματικός.
09:17
So feelingσυναισθημα is basedμε βάση on our intuitionδιαίσθηση.
218
542000
2000
Άρα η αίσθηση βασίζεται στη διαίσθησή μας.
09:19
ModelΜοντέλο is basedμε βάση on reasonλόγος.
219
544000
2000
Το μοντέλο βασίζεται στη λογική.
09:21
That's basicallyβασικα the differenceδιαφορά.
220
546000
3000
Αυτή είναι βασικά η διαφορά.
09:24
In a primitiveπρωτόγονος and simpleαπλός worldκόσμος,
221
549000
2000
Σε ένα πρωτόγονο και απλό κόσμο,
09:26
there's really no reasonλόγος for a modelμοντέλο
222
551000
3000
δεν υπάρχει στα αλήθεια λόγος ύπαρξης μοντέλου.
09:29
because feelingσυναισθημα is closeΚοντά to realityπραγματικότητα.
223
554000
3000
Γιατί η αίσθηση είναι κοντά στην πραγματικότητα.
09:32
You don't need a modelμοντέλο.
224
557000
2000
Δεν χρειαζόμαστε κάποιο μοντέλο.
09:34
But in a modernμοντέρνο and complexσυγκρότημα worldκόσμος,
225
559000
2000
Αλλά σε ένα σύγχρονο και πολύπλοκο κόσμο,
09:36
you need modelsμοντέλα
226
561000
2000
χρειαζόμαστε μοντέλα
09:38
to understandκαταλαβαίνουν a lot of the risksκινδύνους we faceπρόσωπο.
227
563000
3000
για να καταλάβουμε πολλούς από τους κινδύνους που αντιμετωπίζουμε.
09:42
There's no feelingσυναισθημα about germsτα μικρόβια.
228
567000
2000
Δεν υπάρχει κάποια αίσθηση για τα μικρόβια.
09:44
You need a modelμοντέλο to understandκαταλαβαίνουν them.
229
569000
3000
Χρειαζόμαστε ένα μοντέλο για να τα καταλάβουμε.
09:47
So this modelμοντέλο
230
572000
2000
Έτσι αυτό το μοντέλο
09:49
is an intelligentέξυπνος representationαναπαράσταση of realityπραγματικότητα.
231
574000
3000
είναι μια ευφυής αναπαράσταση της πραγματικότητας.
09:52
It's, of courseσειρά μαθημάτων, limitedπεριωρισμένος by scienceεπιστήμη,
232
577000
3000
Φυσικά, οριοθετείται από την επιστήμη,
09:55
by technologyτεχνολογία.
233
580000
2000
από την τεχνολογία.
09:57
We couldn'tδεν μπορούσε have a germφύτρο theoryθεωρία of diseaseασθένεια
234
582000
3000
Δεν θα μπορούσαμε να έχουμε μια μικροβιακή θεωρία των ασθενειών
10:00
before we inventedεφευρέθηκε the microscopeμικροσκόπιο to see them.
235
585000
3000
πριν ανακαλύψουμε το μικροσκόπιο για να τα δούμε.
10:04
It's limitedπεριωρισμένος by our cognitiveγνωστική biasesμεροληψίες.
236
589000
3000
Περιορίζεται από τις γνωστικές μας προκαταλήψεις.
10:07
But it has the abilityικανότητα
237
592000
2000
Αλλά έχει την ικανότητα
10:09
to overrideπαράκαμψη our feelingsσυναισθήματα.
238
594000
2000
να παρακάμπτει τα συναισθήματά μας.
10:11
Where do we get these modelsμοντέλα? We get them from othersοι υπολοιποι.
239
596000
3000
Από πού παίρνουμε αυτά τα μοντέλα; Τα παίρνουμε από άλλους.
10:14
We get them from religionθρησκεία, from cultureΠολιτισμός,
240
599000
3000
Τα παίρνουμε από τη θρησκεία, τον πολιτισμό,
10:17
teachersκαθηγητές, eldersοι πρεσβύτεροι.
241
602000
2000
τους δασκάλους, τους μεγαλύτερους.
10:19
A coupleζευγάρι yearsχρόνια agoπριν,
242
604000
2000
Πριν από κάποια χρόνια,
10:21
I was in SouthΝότια AfricaΑφρική on safariσαφάρι.
243
606000
2000
ήμουν σε ένα σαφάρι στη Νότιο Αφρική.
10:23
The trackerΙχνηλάτης I was with grewαυξήθηκε up in KrugerΚρούγκερ NationalΕθνική ParkΠάρκο.
244
608000
3000
Ο οδηγός μου είχε μεγαλώσει στο Εθνικό Πάρκο Κρούγκερ.
10:26
He had some very complexσυγκρότημα modelsμοντέλα of how to surviveεπιζώ.
245
611000
3000
Είχε κάποια πολύ πολύπλοκα μοντέλα για το πώς να επιβιώσει.
10:29
And it dependedεξαρτιόταν on if you were attackedεπίθεση
246
614000
2000
Και εξαρτώνταν από το αν θα δεχόσουν επίθεση
10:31
by a lionλιοντάρι or a leopardλεοπάρδαλη or a rhinoΡινόκερος or an elephantελέφαντας --
247
616000
2000
από λιοντάρι ή λεοπάρδαλη ή ρινόκερο ή ελέφαντα --
10:33
and when you had to runτρέξιμο away, and when you couldn'tδεν μπορούσε runτρέξιμο away, and when you had to climbαναρρίχηση a treeδέντρο --
248
618000
3000
και πότε έπρεπε να τρέξεις μακρυά, και πότε έπρεπε να σκαρφαλώσεις σε ένα δέντρο --
10:36
when you could never climbαναρρίχηση a treeδέντρο.
249
621000
2000
όταν δε θα μπορούσες ποτέ να σκαρφαλώσεις σε δέντρο.
10:38
I would have diedπέθανε in a day,
250
623000
3000
Εγώ θα είχα πεθάνει σε μια μέρα,
10:41
but he was bornγεννημένος there,
251
626000
2000
αλλά αυτός είχε γεννηθεί εκεί,
10:43
and he understoodκατανοητή how to surviveεπιζώ.
252
628000
2000
και καταλάβαινε πώς να επιβιώσει.
10:45
I was bornγεννημένος in NewΝέα YorkΥόρκη CityΠόλη.
253
630000
2000
Εγώ γεννήθηκα στη Νέα Υόρκη.
10:47
I could have takenληφθεί him to NewΝέα YorkΥόρκη, and he would have diedπέθανε in a day.
254
632000
3000
Θα μπορούσα να τον πάρω στη Νέα Υόρκη, και τότε θα πέθαινε εκείνος σε μια μέρα.
10:50
(LaughterΤο γέλιο)
255
635000
2000
(Γέλια)
10:52
Because we had differentδιαφορετικός modelsμοντέλα
256
637000
2000
Επειδή είχαμε διαφορετικά μοντέλα
10:54
basedμε βάση on our differentδιαφορετικός experiencesεμπειρίες.
257
639000
3000
βασισμένα στις διαφορετικές μας εμπειρίες.
10:58
ModelsΜοντέλα can come from the mediaμεσο ΜΑΖΙΚΗΣ ΕΝΗΜΕΡΩΣΗΣ,
258
643000
2000
Τα μοντέλα μπορούν να προέρχονται από τα μέσα ενημέρωσης,
11:00
from our electedεκλεγμένα officialsυπαλλήλων.
259
645000
3000
από τους εκλεγμένους αξιωματούχους.
11:03
Think of modelsμοντέλα of terrorismτρομοκρατία,
260
648000
3000
Σκεφτείτε μοντέλα για την τρομοκρατία,
11:06
childπαιδί kidnappingαπαγωγή,
261
651000
3000
τις απαγωγές παιδιών,
11:09
airlineαερογραμμή safetyασφάλεια, carαυτοκίνητο safetyασφάλεια.
262
654000
2000
την ασφάλεια στα αεροπλάνα, την ασφάλεια στα αυτοκίνητα.
11:11
ModelsΜοντέλα can come from industryβιομηχανία.
263
656000
3000
Τα μοντέλα μπορούν να προέρχονται από τη βιομηχανία.
11:14
The two I'm followingΕΠΟΜΕΝΟ are surveillanceεπιτήρηση camerasκάμερες,
264
659000
2000
Τα δύο που παρακολουθώ είναι οι κάμερες παρακολούθησης,
11:16
IDΑΝΑΓΝΩΡΙΣΤΙΚΌ cardsκαρτέλλες,
265
661000
2000
οι ταυτότητες,
11:18
quiteαρκετά a lot of our computerυπολογιστή securityασφάλεια modelsμοντέλα come from there.
266
663000
3000
αρκετά από τα μοντέλα μας για την ασφάλεια των υπολογιστών προέρχονται από εκεί.
11:21
A lot of modelsμοντέλα come from scienceεπιστήμη.
267
666000
3000
Πολλά μοντέλα προέρχονται από την επιστήμη.
11:24
HealthΥγεία modelsμοντέλα are a great exampleπαράδειγμα.
268
669000
2000
Τα μοντέλα για την υγεία είναι ένα καταπληκτικό παράδειγμα.
11:26
Think of cancerΚαρκίνος, of birdπουλί fluγρίπη, swineτων χοίρων fluγρίπη, SARSSARS.
269
671000
3000
Σκεφτείτε τον καρκίνο, τη γρίπη των πτηνών, τη γρίπη των χοίρων, το SARS.
11:29
All of our feelingsσυναισθήματα of securityασφάλεια
270
674000
3000
Όλα τα αισθήματα ασφαλείας που έχουμε
11:32
about those diseasesασθένειες
271
677000
2000
σχετικά με αυτές τις ασθένειες
11:34
come from modelsμοντέλα
272
679000
2000
προέρχονται από μοντέλα
11:36
givenδεδομένος to us, really, by scienceεπιστήμη filteredφιλτραρισμένη throughδιά μέσου the mediaμεσο ΜΑΖΙΚΗΣ ΕΝΗΜΕΡΩΣΗΣ.
273
681000
3000
που μας δίνονται ουσιαστικά από την επιστήμη, φιλτραρισμένα από τα μέσα ενημέρωσης.
11:40
So modelsμοντέλα can changeαλλαγή.
274
685000
3000
Τα μοντέλα, λοιπόν, μπορούν να αλλάξουν.
11:43
ModelsΜοντέλα are not staticστατική.
275
688000
2000
Τα μοντέλα δεν είναι στατικά.
11:45
As we becomeγίνομαι more comfortableάνετος in our environmentsπεριβάλλοντος,
276
690000
3000
Όσο γινόμαστε πιο άνετοι μέσα στο περιβάλλον,
11:48
our modelμοντέλο can moveκίνηση closerπιο κοντά to our feelingsσυναισθήματα.
277
693000
4000
τα μοντέλα μας μπορούν να μετακινηθούν πιο κοντά στην αίσθησή μας.
11:53
So an exampleπαράδειγμα mightθα μπορούσε be,
278
698000
2000
Ένα παράδειγμα, λοιπόν, θα μπορούσε να είναι,
11:55
if you go back 100 yearsχρόνια agoπριν
279
700000
2000
αν πάτε 100 χρόνια πίσω
11:57
when electricityηλεκτρική ενέργεια was first becomingθελκτικός commonκοινός,
280
702000
3000
όταν ο ηλεκτρισμός άρχισε να γίνεται ευρέως διαδεδομένος,
12:00
there were a lot of fearsφόβους about it.
281
705000
2000
υπήρχαν πολλοί φόβοι σχετικά με αυτόν.
12:02
I mean, there were people who were afraidφοβισμένος to pushΣπρώξτε doorbellsκουδούνια,
282
707000
2000
Εννοώ ότι υπήρχαν πολλοί άνθρωποι που φοβούνταν να χτυπήσουν το κουδούνι,
12:04
because there was electricityηλεκτρική ενέργεια in there, and that was dangerousεπικίνδυνος.
283
709000
3000
επειδή αυτά είχαν ηλεκτρισμό, και αυτό ήταν επικίνδυνο.
12:07
For us, we're very facileεύκολη around electricityηλεκτρική ενέργεια.
284
712000
3000
Εμείς, είμαστε πολύ άνετοι κοντά στον ηλεκτρισμό.
12:10
We changeαλλαγή lightφως bulbsβολβοί
285
715000
2000
Αλλάζουμε λάμπες
12:12
withoutχωρίς even thinkingσκέψη about it.
286
717000
2000
χωρίς καν να το σκεφτόμαστε.
12:14
Our modelμοντέλο of securityασφάλεια around electricityηλεκτρική ενέργεια
287
719000
4000
Το μοντέλο μας για την ασφάλεια σχετικά με τον ηλεκτρισμό
12:18
is something we were bornγεννημένος into.
288
723000
3000
είναι κάτι μέσα στο οποίο γεννηθήκαμε.
12:21
It hasn'tδεν έχει changedάλλαξε as we were growingκαλλιέργεια up.
289
726000
3000
Δεν έχει αλλάξει όσο μεγαλώναμε.
12:24
And we're good at it.
290
729000
3000
Και είμαστε καλοί σε αυτό.
12:27
Or think of the risksκινδύνους
291
732000
2000
Ή σκεφτείτε τους κινδύνους
12:29
on the InternetΣτο διαδίκτυο acrossαπέναντι generationsγενεών --
292
734000
2000
του διαδικτύου ανά τις γενιές --
12:31
how your parentsγονείς approachπλησιάζω InternetΣτο διαδίκτυο securityασφάλεια,
293
736000
2000
πώς οι γονείς σας προσέγγιζαν την ασφάλεια στο διαδίκτυο,
12:33
versusεναντίον how you do,
294
738000
2000
σε σχέση με το πώς την προσεγγίζετε εσείς,
12:35
versusεναντίον how our kidsπαιδιά will.
295
740000
3000
σε σχέση με το πώς θα την προσεγγίζουν τα παιδιά μας.
12:38
ModelsΜοντέλα eventuallyτελικά fadeξεθωριάζει into the backgroundΙστορικό.
296
743000
3000
Τα μοντέλα, στο τέλος, υποχωρούν στο φόντο.
12:42
IntuitiveΔιαισθητική is just anotherαλλο wordλέξη for familiarοικείος.
297
747000
3000
Η διαίσθηση είναι άλλη μια λέξη για την οικειότητα.
12:45
So as your modelμοντέλο is closeΚοντά to realityπραγματικότητα,
298
750000
2000
Όσο λοιπόν το μοντέλο σας είναι κοντά στην πραγματικότητα,
12:47
and it convergesσυγκλίνει with feelingsσυναισθήματα,
299
752000
2000
και συγκλίνει με την αίσθησή σας,
12:49
you oftenσυχνά don't know it's there.
300
754000
3000
συχνά δεν ξέρετε ότι βρίσκεται εκεί.
12:52
So a niceόμορφη exampleπαράδειγμα of this
301
757000
2000
Ένα ωραίο παράδειγμα αυτού
12:54
cameήρθε from last yearέτος and swineτων χοίρων fluγρίπη.
302
759000
3000
προκύπτει από τον περασμένο χρόνο και τη γρίπη των χοίρων.
12:57
When swineτων χοίρων fluγρίπη first appearedεμφανίστηκε,
303
762000
2000
Όταν προτοεμφανίστηκε η γρίπη των χοίρων,
12:59
the initialαρχικός newsΝέα causedπροκαλούνται a lot of overreactionυπερβολική αντίδραση.
304
764000
4000
οι αρχικές ειδήσεις προκάλεσαν πολλές υπερβολικές αντιδράσεις.
13:03
Now it had a nameόνομα,
305
768000
2000
Τώρα είχε όνομα,
13:05
whichοι οποίες madeέκανε it scarierχειρότερες than the regularτακτικός fluγρίπη,
306
770000
2000
και αυτό την έκανε πιο τρομακτική από την κανονική γρίπη,
13:07
even thoughαν και it was more deadlyθανάσιμα.
307
772000
2000
παρόλο που αυτή ήταν πιο θανατηφόρα.
13:09
And people thought doctorsτους γιατρούς should be ableικανός to dealσυμφωνία with it.
308
774000
4000
Και ο κόσμος πίστευε ότι οι γιατροί θα έπρεπε να μπορούν να την αντιμετωπίσουν.
13:13
So there was that feelingσυναισθημα of lackέλλειψη of controlέλεγχος.
309
778000
2000
Υπήρχε λοιπόν ένα αίσθημα έλλειψης ελέγχου.
13:15
And those two things
310
780000
2000
Και αυτά τα δύο
13:17
madeέκανε the riskκίνδυνος more than it was.
311
782000
2000
έκαναν τον κίνδυνο μεγαλύτερο από ότι ήταν.
13:19
As the noveltyκαινοτομία woreφορούσε off, the monthsμήνες wentπήγε by,
312
784000
3000
Καθώς ξεθύμαινε η πρωτοτυπία της, οι μήνες πέρασαν,
13:22
there was some amountποσό of toleranceανοχή,
313
787000
2000
υπήρξε κάποιο ποσοστό ανοχής,
13:24
people got used to it.
314
789000
2000
οι άνθρωποι την συνήθισαν.
13:26
There was no newνέος dataδεδομένα, but there was lessπιο λιγο fearφόβος.
315
791000
3000
Δεν υπήρχαν καινούρια δεδομένα, αλλά υπήρχε λιγότερος φόβος.
13:29
By autumnτο φθινόπωρο,
316
794000
2000
Μέχρι το φθινόπωρο,
13:31
people thought
317
796000
2000
ο κόσμος πίστευε
13:33
the doctorsτους γιατρούς should have solvedλυθεί this alreadyήδη.
318
798000
2000
ότι οι γιατροί θα έπρεπε να την είχαν ήδη αντιμετωπίσει.
13:35
And there's kindείδος of a bifurcationδιακλάδωση --
319
800000
2000
Και υπάρχει κάποιου είδους σταυροδρόμι --
13:37
people had to chooseεπιλέγω
320
802000
2000
ο κόσμος έπρεπε να επιλέξει
13:39
betweenμεταξύ fearφόβος and acceptanceαποδοχή --
321
804000
4000
μεταξύ του φόβου και της αποδοχής --
13:43
actuallyπράγματι fearφόβος and indifferenceαδιαφορία --
322
808000
2000
στην ουσία μεταξύ του φόβου και της απάθειας --
13:45
they kindείδος of choseεπέλεξε suspicionυποψία.
323
810000
3000
και κατά κάποιο τρόπο επέλεξε την καχυποψία.
13:48
And when the vaccineεμβόλιο appearedεμφανίστηκε last winterχειμώνας,
324
813000
3000
Και όταν εμφανίστηκε το εμβόλιο πέρυσι το χειμώνα,
13:51
there were a lot of people -- a surprisingεκπληκτικός numberαριθμός --
325
816000
3000
υπήρχε πολύς κόσμος --ένας εκπληκτικός αριθμός --
13:54
who refusedαρνήθηκε to get it --
326
819000
3000
που αρνήθηκε να το κάνει --
13:58
as a niceόμορφη exampleπαράδειγμα
327
823000
2000
που αποτελεί ωραίο παράδειγμα
14:00
of how people'sτων ανθρώπων feelingsσυναισθήματα of securityασφάλεια changeαλλαγή, how theirδικα τους modelμοντέλο changesαλλαγές,
328
825000
3000
του πώς η αίσθηση του κόσμου για την ασφάλεια αλλάζει, πώς αλλάζουν τα μοντέλα του,
14:03
sortείδος of wildlyάγρια
329
828000
2000
κατά κάποιο τρόπο ξέφρενα
14:05
with no newνέος informationπληροφορίες,
330
830000
2000
χωρίς καθόλου νέες πληροφορίες,
14:07
with no newνέος inputεισαγωγή.
331
832000
2000
χωρίς καθόλου νέα δεδομένα.
14:09
This kindείδος of thing happensσυμβαίνει a lot.
332
834000
3000
Αυτού του είδους πράγματα συμβαίνουν συχνά.
14:12
I'm going to give one more complicationεπιπλοκή.
333
837000
3000
Θα δώσω άλλη μία παράμετρο.
14:15
We have feelingσυναισθημα, modelμοντέλο, realityπραγματικότητα.
334
840000
3000
Έχουμε την αίσθηση, το μοντέλο, την πραγματικότητα.
14:18
I have a very relativisticσχετικιστική viewθέα of securityασφάλεια.
335
843000
2000
Έχω μια πολύ σχετικιστική θεώρηση της ασφάλειας.
14:20
I think it dependsΕξαρτάται on the observerπαρατηρητής.
336
845000
3000
Πιστεύω ότι εξαρτάται από τον παρατηρητή.
14:23
And mostπλέον securityασφάλεια decisionsαποφάσεων
337
848000
2000
Και οι περισσότερες αποφάσεις σχετικά με την ασφάλεια
14:25
have a varietyποικιλία of people involvedεμπλεγμένος.
338
850000
4000
περιλαμβάνουν ένα πλήθος ανθρώπων.
14:29
And stakeholdersενδιαφερόμενα μέρη
339
854000
2000
Και όσοι έχουν συμφέρον
14:31
with specificειδικός trade-offsσυμβιβασμούς
340
856000
3000
από συγκεκριμένες ανταλλαγές
14:34
will try to influenceεπιρροή the decisionαπόφαση.
341
859000
2000
θα προσπαθήσουν να επηρεάσουν την απόφαση.
14:36
And I call that theirδικα τους agendaημερήσια διάταξη.
342
861000
2000
Και το ονομάζω αυτό "η θεματολογία τους".
14:38
And you see agendaημερήσια διάταξη --
343
863000
2000
Και βλέπετε η θεματολογία --
14:40
this is marketingεμπορία, this is politicsπολιτική --
344
865000
3000
αυτό είναι μάρκετινγκ, είναι πολιτική --
14:43
tryingπροσπαθεί to convinceπείθω you to have one modelμοντέλο versusεναντίον anotherαλλο,
345
868000
3000
προσπαθεί να σας πείσει να αποκτήσετε ένα μοντέλο αντί για ένα άλλο,
14:46
tryingπροσπαθεί to convinceπείθω you to ignoreαγνοώ a modelμοντέλο
346
871000
2000
προσπαθεί να σας πείσει να αγνοήσετε ένα μοντέλο
14:48
and trustεμπιστοσύνη your feelingsσυναισθήματα,
347
873000
3000
και να εμπιστευθείτε τα συναισθήματά σας,
14:51
marginalizingπεριθωριοποίηση people with modelsμοντέλα you don't like.
348
876000
3000
να περιθωριοποιήσετε ανθρώπους με μοντέλα που δεν σας αρέσουν.
14:54
This is not uncommonόχι συχνές.
349
879000
3000
Αυτό δεν είναι σπάνιο.
14:57
An exampleπαράδειγμα, a great exampleπαράδειγμα, is the riskκίνδυνος of smokingκάπνισμα.
350
882000
3000
Ένα παράδειγμα, ένα καλό παράδειγμα, είναι το ρίσκο του καπνίσματος.
15:01
In the historyιστορία of the pastτο παρελθόν 50 yearsχρόνια, the smokingκάπνισμα riskκίνδυνος
351
886000
3000
Στην ιστορία των τελευταίων 50 ετών, το ρίσκο του καπνίσματος
15:04
showsδείχνει how a modelμοντέλο changesαλλαγές,
352
889000
2000
δείχνει πώς αλλάζει ένα μοντέλο,
15:06
and it alsoεπίσης showsδείχνει how an industryβιομηχανία fightsπαλεύει againstκατά
353
891000
3000
και επίσης δείχνει πώς πολεμάει μια βιομηχανία
15:09
a modelμοντέλο it doesn't like.
354
894000
2000
ένα μοντέλο που δεν της αρέσει.
15:11
CompareΣυγκρίνετε that to the secondhandΜεταχειρισμένα smokeκαπνός debateδημόσια συζήτηση --
355
896000
3000
Συγκρίνετέ το με το ζήτημα των παθητικών καπνιστών --
15:14
probablyπιθανώς about 20 yearsχρόνια behindπίσω.
356
899000
3000
περίπου 20 χρόνια πριν.
15:17
Think about seatέδρα beltsζώνες.
357
902000
2000
Σκεφτείτε τις ζώνες ασφαλείας.
15:19
When I was a kidπαιδί, no one woreφορούσε a seatέδρα beltζώνη.
358
904000
2000
Όταν ήμουν μικρός, κανένας δεν φορούσε ζώνες ασφαλείας.
15:21
NowadaysΣτις μέρες μας, no kidπαιδί will let you driveοδηγώ
359
906000
2000
Τώρα, κανένα παιδί δεν σε αφήνει να οδηγήσεις
15:23
if you're not wearingκουραστικός a seatέδρα beltζώνη.
360
908000
2000
αν δεν φοράς ζώνη ασφαλείας.
15:26
CompareΣυγκρίνετε that to the airbagαερόσακος debateδημόσια συζήτηση --
361
911000
2000
Συγκρίνετέ το με το ζήτημα του αερόσακου --
15:28
probablyπιθανώς about 30 yearsχρόνια behindπίσω.
362
913000
3000
περίπου 30 χρόνια πριν.
15:31
All examplesπαραδείγματα of modelsμοντέλα changingαλλάζοντας.
363
916000
3000
Όλα τα παραδείγματα των μοντέλων αλλάζουν.
15:36
What we learnμαθαίνω is that changingαλλάζοντας modelsμοντέλα is hardσκληρά.
364
921000
3000
Αυτό που μαθαίνουμε είναι πως το να αλλάξεις μοντέλο είναι δύσκολο.
15:39
ModelsΜοντέλα are hardσκληρά to dislodgeαποσπάσει.
365
924000
2000
Τα μοντέλα είναι δύσκολο να εκτοπιστούν.
15:41
If they equalίσος your feelingsσυναισθήματα,
366
926000
2000
Αν ταυτίζονται με τα συναισθήματά σας,
15:43
you don't even know you have a modelμοντέλο.
367
928000
3000
δεν αντιλαμβάνεστε καν ότι έχετε ένα μοντέλο.
15:46
And there's anotherαλλο cognitiveγνωστική biasπροκατάληψη
368
931000
2000
Και υπάρχει ακόμη μια γνωστική προκατάληψη
15:48
I'll call confirmationεπιβεβαίωση biasπροκατάληψη,
369
933000
2000
που θα την ονομάζω σφάλμα επιβεβαίωσης
15:50
where we tendτείνω to acceptαποδέχομαι dataδεδομένα
370
935000
3000
όταν τείνουμε να αποδεχόμαστε δεδομένα
15:53
that confirmsεπιβεβαιώνει our beliefsτις πεποιθήσεις
371
938000
2000
που επιβεβαιώνουν τις πεποιθήσεις μας
15:55
and rejectαπόρριψη dataδεδομένα that contradictsέρχεται σε αντίθεση με our beliefsτις πεποιθήσεις.
372
940000
3000
και απορρίπτουμε δεδομένα που αντιτίθενται σ' αυτές.
15:59
So evidenceαπόδειξη againstκατά our modelμοντέλο,
373
944000
2000
Έτσι στοιχεία ενάντια στο μοντέλο μας,
16:01
we're likelyπιθανός to ignoreαγνοώ, even if it's compellingεπιτακτικοί.
374
946000
3000
μάλλον θα τα απορρίψουμε, ακόμα και αν είναι πειστικά.
16:04
It has to get very compellingεπιτακτικοί before we'llΚαλά payπληρωμή attentionπροσοχή.
375
949000
3000
Πρέπει να γίνουν πολύ πειστικά πριν τους δώσουμε σημασία.
16:08
NewΝέα modelsμοντέλα that extendεπεκτείνω long periodsέμμηνα of time are hardσκληρά.
376
953000
2000
Νέα μοντέλα που εκτείνονται σε μεγάλες χρονικές περιόδους είναι δύσκολα.
16:10
GlobalΠαγκόσμια warmingθέρμανση is a great exampleπαράδειγμα.
377
955000
2000
Το φαινόμενο του θερμοκηπίου είναι ένα καλό παράδειγμα.
16:12
We're terribleτρομερός
378
957000
2000
Είμαστε απαίσιοι
16:14
at modelsμοντέλα that spanσπιθαμή 80 yearsχρόνια.
379
959000
2000
με τα μοντέλα που καλύπτουν 80 χρόνια.
16:16
We can do to the nextεπόμενος harvestσυγκομιδή.
380
961000
2000
Τα καταφέρνουμε μεχρι την επόμενη σοδειά.
16:18
We can oftenσυχνά do untilμέχρις ότου our kidsπαιδιά growκαλλιεργώ up.
381
963000
3000
Τα καταφέρνουμε συχνά μέχρι να μεγαλώσουν τα παιδιά μας.
16:21
But 80 yearsχρόνια, we're just not good at.
382
966000
3000
Αλλά 80 χρόνια, εκεί δεν τα καταφέρνουμε.
16:24
So it's a very hardσκληρά modelμοντέλο to acceptαποδέχομαι.
383
969000
3000
Έτσι είναι ένα μοντέλο που δύσκολα αποδεχόμαστε.
16:27
We can have bothκαι τα δυο modelsμοντέλα in our headκεφάλι simultaneouslyΤΑΥΤΟΧΡΟΝΑ,
384
972000
4000
Μπορούμε να έχουμε στο μυαλό μας δύο μοντέλα ταυτόχρονα,
16:31
right, that kindείδος of problemπρόβλημα
385
976000
3000
ή το είδος του προβλήματος
16:34
where we're holdingκράτημα bothκαι τα δυο beliefsτις πεποιθήσεις togetherμαζί,
386
979000
3000
όπου υποστηρίζουμε δύο πεποιθήσεις μαζί,
16:37
right, the cognitiveγνωστική dissonanceπαραφωνία.
387
982000
2000
ή την γνωστική δυσαρμονία
16:39
EventuallyΤελικά,
388
984000
2000
Τελικά,
16:41
the newνέος modelμοντέλο will replaceαντικαθιστώ the oldπαλαιός modelμοντέλο.
389
986000
3000
το νέο μοντέλο θα αντικαταστήσει το παλιό.
16:44
StrongΙσχυρή feelingsσυναισθήματα can createδημιουργώ a modelμοντέλο.
390
989000
3000
Τα ισχυρά συναισθήματα μπορούν να δημιουργήσουν ένα μοντέλο.
16:47
SeptemberΣεπτέμβριος 11thth createdδημιουργήθηκε a securityασφάλεια modelμοντέλο
391
992000
3000
Η 11η Σεπτεμβρίου δημιούργησε ένα μοντέλο ασφάλειας
16:50
in a lot of people'sτων ανθρώπων headsκεφάλια.
392
995000
2000
στα μυαλά πολλών ανθρώπων.
16:52
AlsoΕπίσης, personalπροσωπικός experiencesεμπειρίες with crimeέγκλημα can do it,
393
997000
3000
Επίσης, οι προσωπικές εμπειρίες με το έγκλημα μπορούν να το δημιουργήσουν,
16:55
personalπροσωπικός healthυγεία scareφόβος,
394
1000000
2000
ο ατομικός φόβος για την υγεία,
16:57
a healthυγεία scareφόβος in the newsΝέα.
395
1002000
2000
ένας υγειονομικός φόβος στις ειδήσεις.
16:59
You'llΘα σας see these calledπου ονομάζεται flashbulbφλας eventsγεγονότα
396
1004000
2000
Βλέπετε αυτά ονομάζονται μνήμες αναλαμπών
17:01
by psychiatristsοι ψυχίατροι.
397
1006000
2000
από τους ψυχιάτρους.
17:03
They can createδημιουργώ a modelμοντέλο instantaneouslyστιγμιαία,
398
1008000
3000
Μπορούν να δημιουργήσουν ένα μοντέλο ακαριαία,
17:06
because they're very emotiveσυγκινησιακή.
399
1011000
3000
επειδή είναι πολυ συγκινησιακά.
17:09
So in the technologicalτεχνολογικός worldκόσμος,
400
1014000
2000
Έτσι στον τεχνολογικό κόσμο,
17:11
we don't have experienceεμπειρία
401
1016000
2000
δεν έχουμε την εμπειρία
17:13
to judgeδικαστής modelsμοντέλα.
402
1018000
2000
να κρίνουμε μοντέλα.
17:15
And we relyβασίζομαι on othersοι υπολοιποι. We relyβασίζομαι on proxiesπληρεξούσια.
403
1020000
2000
Και βασιζόμαστε στους άλλους. Βασιζόμαστε σε μεσάζοντες.
17:17
I mean, this worksεργοστάσιο as long as it's to correctσωστός othersοι υπολοιποι.
404
1022000
4000
Εννοώ, πως αυτό λειτουργεί για όσο διορθώνουμε τους άλλους.
17:21
We relyβασίζομαι on governmentκυβέρνηση agenciesοργανισμών
405
1026000
2000
Βασιζόμαστε σε κυβερνητικές υπηρεσίες
17:23
to tell us what pharmaceuticalsφαρμακευτικά προϊόντα are safeασφαλής.
406
1028000
5000
για να μας πουν ποια φάρμακα είναι ασφαλή.
17:28
I flewπέταξε here yesterdayεχθές.
407
1033000
2000
Ήρθα πετώντας εδώ χθες.
17:30
I didn't checkέλεγχος the airplaneαεροπλάνο.
408
1035000
2000
Δεν έλεγξα το αεροπλάνο.
17:32
I reliedγινει on some other groupομάδα
409
1037000
2000
βασίστηκα σε κάποια άλλη ομάδα
17:34
to determineκαθορίσει whetherκατά πόσο my planeεπίπεδο was safeασφαλής to flyπετώ.
410
1039000
3000
να εκτιμήσει αν το αεροπλάνο μου ήταν ασφαλές για να πετάξει.
17:37
We're here, noneκανένας of us fearφόβος the roofστέγη is going to collapseκατάρρευση on us,
411
1042000
3000
Εμείς εδώ, κανένας μας δεν φοβάται μήπως καταρρεύσει η οροφή πάνω μας,
17:40
not because we checkedτετραγωνισμένος,
412
1045000
3000
όχι επειδή την ελέγξαμε,
17:43
but because we're prettyαρκετά sure
413
1048000
2000
αλλά γιατί είμαστε αρκετά σίγουροι
17:45
the buildingΚτίριο codesκωδικοί here are good.
414
1050000
3000
πως οι οικοδομικοί κανονισμοί εδώ είναι καλοί.
17:48
It's a modelμοντέλο we just acceptαποδέχομαι
415
1053000
2000
Είναι ένα μοντέλο που απλώς αποδεχόμαστε
17:50
prettyαρκετά much by faithπίστη.
416
1055000
2000
λίγο ως πολύ από πίστη.
17:52
And that's okay.
417
1057000
3000
Και αυτό είναι εντάξει.
17:57
Now, what we want
418
1062000
2000
Τώρα, αυτό που θέλουμε
17:59
is people to get familiarοικείος enoughαρκετά
419
1064000
2000
είναι οι άνθρωποι να εξοικειώνονται αρκετά
18:01
with better modelsμοντέλα --
420
1066000
2000
με καλύτερα μοντέλα --
18:03
have it reflectedαντανακλάται in theirδικα τους feelingsσυναισθήματα --
421
1068000
2000
που θα αντανακλώνται στα συναισθήματά τους --
18:05
to allowεπιτρέπω them to make securityασφάλεια trade-offsσυμβιβασμούς.
422
1070000
4000
και θα τους επιτρέπουν να κάνουν ανταλλαγές ασφαλείας.
18:09
Now when these go out of whackηχηρό κτύπημα,
423
1074000
2000
Τώρα όταν αυτές διαλύονται,
18:11
you have two optionsεπιλογές.
424
1076000
2000
έχεις δύο επιλογές.
18:13
One, you can fixδιορθώσετε people'sτων ανθρώπων feelingsσυναισθήματα,
425
1078000
2000
Πρώτον, μπορείς να διορθώσεις τα συναισθήματα των ανθρώπων,
18:15
directlyκατευθείαν appealέφεση to feelingsσυναισθήματα.
426
1080000
2000
να απευθυνθείς απ' ευθείας στα συναισθήματα.
18:17
It's manipulationχειρισμός, but it can work.
427
1082000
3000
Είναι χειραγώγηση, αλλά μπορεί να δουλέψει.
18:20
The secondδεύτερος, more honestτίμιος way
428
1085000
2000
Ο δεύτερος, πιο τίμιος, τρόπος
18:22
is to actuallyπράγματι fixδιορθώσετε the modelμοντέλο.
429
1087000
3000
είναι όντως να διορθώσεις το μοντέλο.
18:26
ChangeΑλλαγή happensσυμβαίνει slowlyαργά.
430
1091000
2000
Οι αλλαγές συμβαίνουν αργά.
18:28
The smokingκάπνισμα debateδημόσια συζήτηση tookπήρε 40 yearsχρόνια,
431
1093000
3000
Το ζήτημα του καπνίσματος πήρε 40 χρόνια,
18:31
and that was an easyεύκολος one.
432
1096000
3000
και αυτό ήταν ένα εύκολο θέμα.
18:34
Some of this stuffυλικό is hardσκληρά.
433
1099000
2000
Μερικά από τα θέματα είναι δύσκολα.
18:36
I mean really thoughαν και,
434
1101000
2000
Εννοώ πραγματικά,
18:38
informationπληροφορίες seemsφαίνεται like our bestκαλύτερος hopeελπίδα.
435
1103000
2000
η πληροφόρηση φαίνεται ως η καλύτερή μας ελπίδα.
18:40
And I liedψέματα.
436
1105000
2000
Είπα ψέματα.
18:42
RememberΝα θυμάστε I said feelingσυναισθημα, modelμοντέλο, realityπραγματικότητα;
437
1107000
2000
Θυμηθείτε όταν μίλησα για συναίσθημα, μοντέλο, πραγματικότητα.
18:44
I said realityπραγματικότητα doesn't changeαλλαγή. It actuallyπράγματι does.
438
1109000
3000
Είπα πως η πραγματικότητα δεν αλλάζει. Κι όμως αλλάζει.
18:47
We liveζω in a technologicalτεχνολογικός worldκόσμος;
439
1112000
2000
Ζούμε σε έναν τεχνολογικό κόσμο:
18:49
realityπραγματικότητα changesαλλαγές all the time.
440
1114000
3000
η πραγματικότητα αλλάζει συνεχώς.
18:52
So we mightθα μπορούσε have -- for the first time in our speciesείδος --
441
1117000
3000
Έτσι ίσως έχουμε -- για πρώτη φορά ως είδος --
18:55
feelingσυναισθημα chasesκυνηγά modelμοντέλο, modelμοντέλο chasesκυνηγά realityπραγματικότητα, reality'sτης πραγματικότητας movingκίνηση --
442
1120000
3000
το συναίσθημα να κυνηγά το μοντέλο, το μοντέλο κυνηγά την πραγματικότητα, η πραγματικότητα κινείται --
18:58
they mightθα μπορούσε never catchσύλληψη up.
443
1123000
3000
ίσως δεν προλάβει ποτέ το ένα το άλλο.
19:02
We don't know.
444
1127000
2000
Δεν ξέρουμε.
19:04
But in the long-termμακροπρόθεσμα,
445
1129000
2000
Αλλά μακροπρόθεσμα,
19:06
bothκαι τα δυο feelingσυναισθημα and realityπραγματικότητα are importantσπουδαίος.
446
1131000
3000
και το συναίσθημα και η πραγματικότητα είναι σημαντικές.
19:09
And I want to closeΚοντά with two quickγρήγορα storiesιστορίες to illustrateεικονογραφώ this.
447
1134000
3000
Και θέλω να κλείσω με δύο σύντομες ιστορίες που το δείχνουν αυτό.
19:12
1982 -- I don't know if people will rememberθυμάμαι this --
448
1137000
2000
Το 1982 -- δεν γνωρίζω αν ο κόσμος το θυμάται αυτό --
19:14
there was a shortμικρός epidemicεπιδημία
449
1139000
3000
υπήρχε μια μικρή επιδημία
19:17
of TylenolTylenol poisoningsδηλητηριάσεις in the UnitedΕνωμένοι StatesΚράτη μέλη.
450
1142000
2000
με δηλητηριάσεις από Τάιλενολ στις Ηνωμένες Πολιτείες.
19:19
It's a horrificφρικιαστικός storyιστορία. SomeoneΚάποιος tookπήρε a bottleμπουκάλι of TylenolTylenol,
451
1144000
3000
Απαίσια ιστορία. Κάποιος πήρε ένα μπουκάλι Τάιλενολ,
19:22
put poisonδηλητήριο in it, closedκλειστό it up, put it back on the shelfράφι.
452
1147000
3000
έβαλε δηλητήριο μέσα, το έκλεισε, και το ξαναέβαλε στο ράφι.
19:25
SomeoneΚάποιος elseαλλού boughtαγορασμένος it and diedπέθανε.
453
1150000
2000
Κάποιος άλλος το αγόρασε και πέθανε.
19:27
This terrifiedτρομοκρατημένος people.
454
1152000
2000
Αυτό τρομοκράτησε τον κόσμο.
19:29
There were a coupleζευγάρι of copycatμιμητής attacksεπιθέσεις.
455
1154000
2000
Υπήρξαν μερικές ακόμα ίδιες επιθέσεις.
19:31
There wasn'tδεν ήταν any realπραγματικός riskκίνδυνος, but people were scaredφοβισμένος.
456
1156000
3000
Δεν υπήρχε πραγματικός κίνδυνος, αλλά ο κόσμος φοβόταν.
19:34
And this is how
457
1159000
2000
Και κάπως έτσι
19:36
the tamper-proofαπαραβίαστο drugφάρμακο industryβιομηχανία was inventedεφευρέθηκε.
458
1161000
2000
οι φαρμακοβιομηχανίες εφηύραν το καπάκι ασφαλείας
19:38
Those tamper-proofαπαραβίαστο capsκαλύμματα, that cameήρθε from this.
459
1163000
2000
Τα καπάκια ασφαλείας προήλθαν από αυτό.
19:40
It's completeπλήρης securityασφάλεια theaterθέατρο.
460
1165000
2000
Είναι εντελώς ένα θέατρο ασφαλείας.
19:42
As a homeworkεργασία για το σπίτι assignmentΑΝΑΘΕΣΗ ΕΡΓΑΣΙΑΣ, think of 10 waysτρόπους to get around it.
461
1167000
2000
Ως εργασία για το σπίτι, σκεφτείτε 10 τρόπους να το παραβιάσετε.
19:44
I'll give you one, a syringeσύριγγα.
462
1169000
3000
Σας δίνω έναν, μια σύριγγα.
19:47
But it madeέκανε people feel better.
463
1172000
3000
Όμως έκανε τους ανθρώπους να νιώσουν καλύτερα.
19:50
It madeέκανε theirδικα τους feelingσυναισθημα of securityασφάλεια
464
1175000
2000
Έκανε το αίσθημα της ασφάλειάς τους
19:52
more matchαγώνας the realityπραγματικότητα.
465
1177000
2000
να ταιριάζει καλύτερα με την πραγματικότητα.
19:54
Last storyιστορία, a fewλίγοι yearsχρόνια agoπριν, a friendφίλος of mineδικος μου gaveέδωσε birthγέννηση.
466
1179000
3000
Τελευταία ιστορία, πριν μερικά χρόνια, μια φίλη μου γέννησε.
19:57
I visitεπίσκεψη her in the hospitalνοσοκομείο.
467
1182000
2000
Την επισκέφτηκα στο νοσοκομείο.
19:59
It turnsστροφές out when a baby'sτου μωρού bornγεννημένος now,
468
1184000
2000
Φαίνεται πως όταν γεννιέται ένα παιδί τώρα,
20:01
they put an RFIDRFID braceletβραχιόλι on the babyμωρό,
469
1186000
2000
του φορούν ένα βραχιολάκι RFID
20:03
put a correspondingαντίστοιχος one on the motherμητέρα,
470
1188000
2000
που αντιστοιχεί σε μια μητέρα,
20:05
so if anyoneο καθενας other than the motherμητέρα takes the babyμωρό out of the maternityάδεια μητρότητας wardπτέρυγα,
471
1190000
2000
και έτσι αν κάποιος εκτός της μητέρας πάρει το μωρό έξω από το μαιευτήριο,
20:07
an alarmτρομάζω goesπηγαίνει off.
472
1192000
2000
χτυπάει ένας συναγερμός.
20:09
I said, "Well, that's kindείδος of neatκαθαρός.
473
1194000
2000
Είπα, "Αυτό είναιενδιαφέρον.
20:11
I wonderθαύμα how rampantανεξέλεγκτη babyμωρό snatchingαρπαγή is
474
1196000
2000
Αναρωτιέμαι πόσο εκτός ελέγχου είναι η απαγωγή βρεφών
20:13
out of hospitalsνοσοκομεία."
475
1198000
2000
από τα νοσοκομεία."
20:15
I go home, I look it up.
476
1200000
2000
Πάω σπίτι, το ψάχνω.
20:17
It basicallyβασικα never happensσυμβαίνει.
477
1202000
2000
Βασικά δεν συμβαίνει ποτέ.
20:19
But if you think about it,
478
1204000
2000
Αλλά αν το σκεφτείτε,
20:21
if you are a hospitalνοσοκομείο,
479
1206000
2000
αν είσαι το νοσοκομείο,
20:23
and you need to take a babyμωρό away from its motherμητέρα,
480
1208000
2000
και πρέπει να πάρεις ένα μωρό από την μητέρα του,
20:25
out of the roomδωμάτιο to runτρέξιμο some testsδοκιμές,
481
1210000
2000
έξω από το δωμάτιο για κάποια τεστ,
20:27
you better have some good securityασφάλεια theaterθέατρο,
482
1212000
2000
καλύτερα να έχεις ένα καλό θέατρο ασφαλείας,
20:29
or she's going to ripξήλωμα your armμπράτσο off.
483
1214000
2000
αλλιώς θα σου ξεριζώσει το χέρι.
20:31
(LaughterΤο γέλιο)
484
1216000
2000
(Γέλια)
20:33
So it's importantσπουδαίος for us,
485
1218000
2000
Έτσι, είναι σημαντικό για εμάς,
20:35
those of us who designσχέδιο securityασφάλεια,
486
1220000
2000
για όσους από εμάς σχεδιάζουμε την ασφάλεια,
20:37
who look at securityασφάλεια policyπολιτική,
487
1222000
3000
που κοιτάμε την πολιτική ασφαλείας,
20:40
or even look at publicδημόσιο policyπολιτική
488
1225000
2000
ή ακόμα την δημόσια πολιτική
20:42
in waysτρόπους that affectεπηρεάζουν securityασφάλεια.
489
1227000
2000
με τρόπους που επηρεάζουν την ασφάλεια.
20:44
It's not just realityπραγματικότητα; it's feelingσυναισθημα and realityπραγματικότητα.
490
1229000
3000
Δεν είναι απλώς η πραγματικότητα, είναι η αίσθηση και η πραγματικότητα.
20:47
What's importantσπουδαίος
491
1232000
2000
Αυτό που είναι σημαντικό
20:49
is that they be about the sameίδιο.
492
1234000
2000
είναι πως είναι περίπου το ίδιο.
20:51
It's importantσπουδαίος that, if our feelingsσυναισθήματα matchαγώνας realityπραγματικότητα,
493
1236000
2000
Είναι σημαντικό το ότι, αν η αίσθησή μας ταιριάζει με την πραγματικότητα,
20:53
we make better securityασφάλεια trade-offsσυμβιβασμούς.
494
1238000
2000
κάνουμε καλύτερες ανταλλαγές ασφαλείας.
20:55
Thank you.
495
1240000
2000
Σας ευχαριστώ.
20:57
(ApplauseΧειροκροτήματα)
496
1242000
2000
(Χειροκρότημα)
Translated by Vasilis Charizopoulos
Reviewed by Leonidas Argyros

▲Back to top

ABOUT THE SPEAKER
Bruce Schneier - Security expert
Bruce Schneier thinks hard about security -- as a computer security guru, and as a philosopher of the larger notion of making a safer world.

Why you should listen

Bruce Schneier is an internationally renowned security technologist and author. Described by the Economist as a "security guru," he is best known as a refreshingly candid and lucid security critic and commentator. When people want to know how security really works, they turn to Schneier.

His first bestseller, Applied Cryptography, explained how the arcane science of secret codes actually works, and was described by Wired as "the book the National Security Agency wanted never to be published." His book on computer and network security, Secrets and Lies, was called by Fortune "[a] jewel box of little surprises you can actually use." Beyond Fear tackles the problems of security from the small to the large: personal safety, crime, corporate security, national security. His current book, Schneier on Security, offers insight into everything from the risk of identity theft (vastly overrated) to the long-range security threat of unchecked presidential power and the surprisingly simple way to tamper-proof elections.

Schneier publishes a free monthly newsletter, Crypto-Gram, with over 150,000 readers. In its ten years of regular publication, Crypto-Gram has become one of the most widely read forums for free-wheeling discussions, pointed critiques and serious debate about security. As head curmudgeon at the table, Schneier explains, debunks and draws lessons from security stories that make the news.

More profile about the speaker
Bruce Schneier | Speaker | TED.com