TEDGlobal 2011
Pamela Meyer: How to spot a liar
Πάμελα Μάγιερ: πώς να εντοπίσετε έναν ψεύτη
Filmed:
Readability: 3.8
28,415,176 views
Κάθε μέρα μας λένε ψέματα από 10 έως 200 φορές και τα στοιχεία για να εντοπίσουμε αυτά τα ψέματα μπορεί να μην γίνονται αισθητά και αντιληπτά. Η Πάμελα Μάγιερ, συγγραφέας του "Εντοπίζοντας ένα ψέμα", δείχνει τους τρόπους και τις μεθόδους που χρησιμοποιούν όσοι έχουν εκπαιδευτεί να αναγνωρίζουν την εξαπάτηση -- και υποστηρίζει ότι η ειλικρίνεια είναι μια αξία που αξίζει να τη διατηρούμε.
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
Εντάξει, δεν θέλω να τρομάξω κανέναν εδώ μέσα
00:20
but it's just come to my attention
1
5000
2000
αλλά μόλις πρόσεξα
00:22
that the person to your right is a liar.
2
7000
2000
πως το άτομο στα δεξιά σας είναι ψεύτης.
00:24
(Laughter)
3
9000
2000
(Γέλια)
00:26
Also, the person to your left is a liar.
4
11000
3000
Επίσης, το άτομο στα αριστερά σας είναι ψεύτης.
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
Και το άτομο που κάθεται στη θέση σας είναι ψεύτης.
00:32
We're all liars.
6
17000
2000
Είμαστε όλοι ψεύτες.
00:34
What I'm going to do today
7
19000
2000
Αυτό που πρόκειται να κάνω σήμερα
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
είναι να σας δείξω τι λέει η έρευνα σχετικά με το γιατί είμαστε όλοι ψεύτες,
00:39
how you can become a liespotter
9
24000
2000
πώς μπορείτε να εντοπίσετε ένα ψέμα
00:41
and why you might want to go the extra mile
10
26000
3000
και γιατί ενδεχομένως να θέλετε να πάτε λίγο παραπέρα
00:44
and go from liespotting to truth seeking,
11
29000
3000
από τον εντοπισμό του ψέματος στην αναζήτηση της αλήθειας
00:47
and ultimately to trust building.
12
32000
2000
και τελικά στη δημιουργία εμπιστοσύνης.
00:49
Now speaking of trust,
13
34000
3000
Και μιας και μιλάμε για εμπιστοσύνη,
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
από τότε που έγραψα το βιβλίο "Εντοπίζοντας ένα ψέμα",
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
κανένας δεν θέλει να με συναντήσει από κοντά πια, όχι, όχι, όχι, όχι.
00:58
They say, "It's okay, we'll email you."
16
43000
3000
Λένε, "Δεν πειράζει θα σου στείλουμε ημέιλ".
01:01
(Laughter)
17
46000
2000
(Γέλια)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
Ούτε ένα ραντεβού για καφέ στα Στάρμπακς δεν μπορώ να κλείσω.
01:07
My husband's like, "Honey, deception?
19
52000
2000
Ο άντρας μου λέει, "Αγάπη μου, εξαπάτηση;
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
Καλύτερα να έγραφες για μαγειρική. Τι θα' λεγες για γαλλική μαγειρική;".
01:12
So before I get started, what I'm going to do
21
57000
2000
Έτσι, αυτό που πρόκειται να κάνω πριν ξεκινήσω
01:14
is I'm going to clarify my goal for you,
22
59000
3000
είναι να ξεκαθαρίσω το σκοπό μου,
01:17
which is not to teach a game of Gotcha.
23
62000
2000
ο οποίος δεν είναι να σας μάθω ένα παιχνίδι για να πείτε "Σ' έπιασα".
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
Αυτοί που εντοπίζουν το ψέμα δεν κάνουν σαν τα παιδάκια που ψάχνουν το κάθε τι,
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
τα παιδιά στο βάθος του δωματίου που φωνάζουν, "Σ' έπιασα! Σ' έπιασα!
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
Το φρύδι σου σηκώθηκε. Το ρουθούνι σου κουνήθηκε.
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
Βλέπω το "Πες μου Ψέματα" στην τηλεόραση. Το ξέρω ότι λες ψέματα".
01:30
No, liespotters are armed
28
75000
2000
Όχι, αυτοί που εντοπίζουν τα ψέματα είναι οπλισμένοι
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
με επιστημονική γνώση για τον εντοπισμό της εξαπάτησης.
01:35
They use it to get to the truth,
30
80000
2000
Τη χρησιμοποιούν για να φτάσουν στην αλήθεια
01:37
and they do what mature leaders do everyday;
31
82000
2000
και κάνουν ό,τι και οι ώριμοι ηγέτες κάθε μέρα.
01:39
they have difficult conversations with difficult people,
32
84000
3000
Κάνουν δύσκολες συζητήσεις με δύσκολους ανθρώπους,
01:42
sometimes during very difficult times.
33
87000
2000
μερικές φορές σε πολύ δύσκολες εποχές.
01:44
And they start up that path
34
89000
2000
Και παίρνουν αυτό το μονοπάτι
01:46
by accepting a core proposition,
35
91000
2000
έχοντας αποδεχτεί μια βασική πρόταση,
01:48
and that proposition is the following:
36
93000
2000
που είναι η εξής:
01:50
Lying is a cooperative act.
37
95000
3000
το ψέμα είναι μια πράξη συνεργασίας.
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
Για σκεφτείτε το, ένα ψέμα δεν έχει καμία δύναμη όταν απλά ειπωθεί.
01:57
Its power emerges
39
102000
2000
Η δύναμη του αναδύεται
01:59
when someone else agrees to believe the lie.
40
104000
2000
όταν κάποιος άλλος συμφωνήσει να το πιστέψει.
02:01
So I know it may sound like tough love,
41
106000
2000
Ξέρω ότι μπορεί να ακούγεται άδικο
02:03
but look, if at some point you got lied to,
42
108000
4000
αλλά εάν κάποια στιγμή σας είπαν ψέματα,
02:07
it's because you agreed to get lied to.
43
112000
2000
είναι επειδή συμφωνήσατε να σας πουν ψέματα.
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
Η πρώτη αλήθεια σχετικά με το ψέμα: το ψέμα είναι πράξη συνεργασίας.
02:12
Now not all lies are harmful.
45
117000
2000
Βέβαια, δεν είναι όλα τα ψέματα επιβλαβή.
02:14
Sometimes we're willing participants in deception
46
119000
3000
Μερικές φορές ηθελημένα συμμετέχουμε στην εξαπάτηση
02:17
for the sake of social dignity,
47
122000
3000
χάριν της κοινωνικής αξιοπρέπειας,
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
ίσως για να κρατήσουμε ένα μυστικό που πρέπει να κρατηθεί κρυφό.
02:23
We say, "Nice song."
49
128000
2000
Λέμε, "Ωραίο τραγούδι".
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
"Γλυκιά μου, όχι δε σε παχαίνει αυτό."
02:28
Or we say, favorite of the digiratti,
51
133000
2000
Ή, το αγαπημένο των "κομπιουτεράδων",
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
"Ξέρεις, μόλις "ψάρεψα" το ημέιλ σου από το φάκελο με τα ανεπιθύμητα μηνύματα.
02:33
So sorry."
53
138000
3000
Πόσο λυπάμαι."
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
Αλλά υπάρχουν και φορές που δεν είμαστε πρόθυμοι να συμμετέχουμε στην εξαπάτηση.
02:39
And that can have dramatic costs for us.
55
144000
3000
Και αυτό μπορεί να έχει δραματικό κόστος για εμάς.
02:42
Last year saw 997 billion dollars
56
147000
3000
Πέρυσι, χάθηκαν 997 δισεκατομμύρια δολάρια
02:45
in corporate fraud alone in the United States.
57
150000
4000
από επιχειρηματικές απάτες μόνο στις Ηνωμένες Πολιτείες.
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
Κάτι λιγότερο από ένα τρισεκατομμύριο δολάρια.
02:51
That's seven percent of revenues.
59
156000
2000
7% των εσόδων.
02:53
Deception can cost billions.
60
158000
2000
Η εξαπάτηση μπορεί να κοστίσει δισεκατομμύρια.
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
Σκεφτείτε την Ένρον, τον Μάντοφ, την κρίση των στεγαστικών δανείων.
02:58
Or in the case of double agents and traitors,
62
163000
3000
Ή στην περίπτωση των διπλών πρακτόρων και των προδοτών,
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
όπως ο Ρόμπερτ Χάνσεν ή ο Όλντριτς Έιμς,
03:03
lies can betray our country,
64
168000
2000
τα ψέματα μπορούν να προδώσουν την πατρίδα μας,
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
να διακινδυνεύσουν την ασφάλεια μας, να υποσκάψουν τη δημοκρατία,
03:08
they can cause the deaths of those that defend us.
66
173000
3000
να προκαλέσουν το θάνατο αυτών που μας υπερασπίζονται.
03:11
Deception is actually serious business.
67
176000
3000
Η εξαπάτηση είναι πραγματικά σοβαρή υπόθεση.
03:14
This con man, Henry Oberlander,
68
179000
2000
Αυτός ο απατεώνας ο Χένρι Ομπερλάντερ,
03:16
he was such an effective con man
69
181000
2000
ήταν τόσο καλός απατεώνας
03:18
British authorities say
70
183000
2000
λένε οι βρετανικές αρχές,
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
που θα μπορούσε να είχε θέσει σε κίνδυνο ολόκληρο το τραπεζικό σύστημα του Δυτικού Κόσμου.
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
Και δεν τον βρίσκεις αυτόν τον τύπο ούτε στο Google, ούτε πουθενά.
03:25
He was interviewed once, and he said the following.
73
190000
3000
Κάποτε του πήραν συνέντευξη και είπε το εξής.
03:28
He said, "Look, I've got one rule."
74
193000
2000
Είπε, "Κοιτάξτε, έχω έναν κανόνα."
03:30
And this was Henry's rule, he said,
75
195000
3000
Και ο κανόνας του Χένρι ήταν,
03:33
"Look, everyone is willing to give you something.
76
198000
2000
"Κοιτάξτε, όλοι είναι πρόθυμοι να σου δώσουν κάτι.
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
Είναι έτοιμοι να σου δώσουν κάτι ως αντάλλαγμα για αυτό που ποθούν."
03:38
And that's the crux of it.
78
203000
2000
Και αυτή είναι η ουσία.
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
Εάν δεν θέλεις να σε εξαπατήσουν, πρέπει να ξέρεις,
03:42
what is it that you're hungry for?
80
207000
2000
τι είναι αυτό που ποθείς.
03:44
And we all kind of hate to admit it.
81
209000
3000
Και όλοι κατά κάποιον τρόπο δεν θέλουμε να το παραδεχτούμε.
03:47
We wish we were better husbands, better wives,
82
212000
3000
Ευχόμαστε να ήμασταν καλύτεροι σύζυγοι, καλύτερες σύζυγοι,
03:50
smarter, more powerful,
83
215000
2000
εξυπνότεροι, δυνατότεροι,
03:52
taller, richer --
84
217000
2000
πιο ψηλοί, πιο πλούσιοι --
03:54
the list goes on.
85
219000
2000
και η λίστα συνεχίζεται.
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
Το ψέμα είναι μια απόπειρα να γεφυρώσουμε το χάσμα,
03:58
to connect our wishes and our fantasies
87
223000
2000
να συνδέσουμε τις ευχές με τις φαντασιώσεις μας
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
για το ποιοι ευχόμαστε να ήμασταν, πώς ευχόμαστε να ήμασταν,
04:03
with what we're really like.
89
228000
3000
με αυτό που είμαστε πραγματικά.
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
Και είμαστε όντως πολύ πρόθυμοι να γεμίσουμε τα κενά στη ζωή μας με ψέματα.
04:09
On a given day, studies show that you may be lied to
91
234000
3000
Μια οποιαδήποτε μέρα, οι έρευνες δείχνουν ότι μπορεί να σας πουν ψέματα
04:12
anywhere from 10 to 200 times.
92
237000
2000
από 10 έως 200 φορές.
04:14
Now granted, many of those are white lies.
93
239000
3000
Σύμφωνοι, πολλά από αυτά είναι αθώα ψέματα.
04:17
But in another study,
94
242000
2000
Αλλά μια άλλη έρευνα
04:19
it showed that strangers lied three times
95
244000
2000
έδειξε ότι οι άγνωστοι ψεύδονταν τρεις φορές
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
μέσα στα πρώτα 10 λεπτά της γνωριμίας τους.
04:23
(Laughter)
97
248000
2000
(Γέλια)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
Όταν ακούμε αυτά τα στοιχεία για πρώτη φορά, αντιδρούμε.
04:28
We can't believe how prevalent lying is.
99
253000
2000
Δεν μπορούμε να πιστέψουμε πόσο διαδεδομένο είναι το ψέμα.
04:30
We're essentially against lying.
100
255000
2000
Είμαστε ουσιαστικά κατά του ψέματος.
04:32
But if you look more closely,
101
257000
2000
Αλλά αν κοιτάξετε πιο προσεκτικά,
04:34
the plot actually thickens.
102
259000
2000
η κατάσταση περιπλέκεται.
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
Λέμε περισσότερα ψέματα σε ξένους παρά στους συναδέλφους μας.
04:39
Extroverts lie more than introverts.
104
264000
4000
Οι εξωστρεφείς λένε περισσότερα ψέματα από τους εσωστρεφείς.
04:43
Men lie eight times more about themselves
105
268000
3000
Οι άντρες λένε ψέματα για τον εαυτό τους οχτώ φορές περισσότερο
04:46
than they do other people.
106
271000
2000
από τους άλλους ανθρώπους.
04:48
Women lie more to protect other people.
107
273000
3000
Οι γυναίκες λένε ψέματα περισσότερο για να προστατέψουν άλλους ανθρώπους.
04:51
If you're an average married couple,
108
276000
3000
Εάν είστε ένα μέσο παντρεμένο ζευγάρι,
04:54
you're going to lie to your spouse
109
279000
2000
θα πείτε ψέματα στο/στη σύζυγο σας
04:56
in one out of every 10 interactions.
110
281000
2000
σε μία από τις δέκα συνομιλίες σας.
04:58
Now you may think that's bad.
111
283000
2000
Τώρα μπορεί να σκεφτείτε ότι αυτό είναι κακό.
05:00
If you're unmarried, that number drops to three.
112
285000
2000
Εάν δεν είστε παντρεμένοι, ο αριθμός μειώνεται στις τρεις.
05:02
Lying's complex.
113
287000
2000
Το ψέμα είναι περίπλοκο.
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
Υφαίνεται γύρω από την καθημερινή και την επαγγελματική μας ζωή.
05:07
We're deeply ambivalent about the truth.
115
292000
2000
Είμαστε πολύ αμφίθυμοι απέναντι στην αλήθεια.
05:09
We parse it out on an as-needed basis,
116
294000
2000
Την αναλύουμε με βάση τις ανάγκες μας,
05:11
sometimes for very good reasons,
117
296000
2000
μερικές φορές για πολύ καλούς λόγους,
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
άλλες φορές απλά επειδή δεν καταλαβαίνουμε τα κενά στη ζωή μας.
05:16
That's truth number two about lying.
119
301000
2000
Αυτή είναι η δεύτερη αλήθεια για το ψέμα.
05:18
We're against lying,
120
303000
2000
Είμαστε ενάντια στο ψέμα
05:20
but we're covertly for it
121
305000
2000
αλλά το συγκαλύπτουμε
05:22
in ways that our society has sanctioned
122
307000
2000
με τρόπους που η κοινωνία μας εγκρίνει
05:24
for centuries and centuries and centuries.
123
309000
2000
επί ολόκληρους αιώνες.
05:26
It's as old as breathing.
124
311000
2000
Είναι κάτι τόσο παλιό όσο και η αναπνοή.
05:28
It's part of our culture, it's part of our history.
125
313000
2000
Είναι μέρος του πολιτισμού μας, είναι μέρος της ιστορίας μας.
05:30
Think Dante, Shakespeare,
126
315000
3000
Σκεφτείτε τον Δάντη, τον Σέξπιρ,
05:33
the Bible, News of the World.
127
318000
3000
τη Βίβλο, τη Νιουζ οβ δε Γουόρλντ.
05:36
(Laughter)
128
321000
2000
(Γέλια)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
Το ψέμα έχει εξελικτική αξία για εμάς ως είδος.
05:40
Researchers have long known
130
325000
2000
Οι ερευνητές ξέρουν εδώ και καιρό
05:42
that the more intelligent the species,
131
327000
2000
ότι όσο πιο έξυπνο το είδος,
05:44
the larger the neocortex,
132
329000
2000
όσο μεγαλύτερος ο νεοφλοιός,
05:46
the more likely it is to be deceptive.
133
331000
2000
τόσο περισσότερες οι πιθανότητες να εξαπατά.
05:48
Now you might remember Koko.
134
333000
2000
Μπορεί να θυμάστε την Κόκο.
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
Θυμάται κανείς την Κόκο το γορίλα που έμαθε νοηματική;
05:53
Koko was taught to communicate via sign language.
136
338000
3000
Στην Κόκο έμαθαν να επικοινωνεί μέσω της νοηματικής.
05:56
Here's Koko with her kitten.
137
341000
2000
Να η Κόκο με το γατάκι της.
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
Είναι το μικρό, χαριτωμένο, μαλλιαρό της γατάκι.
06:01
Koko once blamed her pet kitten
139
346000
2000
Η Κόκο κάποτε κατηγόρησε το γατάκι της
06:03
for ripping a sink out of the wall.
140
348000
2000
ότι ξήλωσε τον νεροχύτη από τον τοίχο.
06:05
(Laughter)
141
350000
2000
(Γέλια)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
Είμαστε "σχεδιασμένοι" να ηγούμαστε στην ομάδα μας.
06:09
It's starts really, really early.
143
354000
2000
Αυτό ξεκινάει πολύ, πολύ νωρίς.
06:11
How early?
144
356000
2000
Πόσο νωρίς;
06:13
Well babies will fake a cry,
145
358000
2000
Λοιπόν, τα μωρά θα κλάψουν ψεύτικα,
06:15
pause, wait to see who's coming
146
360000
2000
θα σταματήσουν να δουν ποιος έρχεται
06:17
and then go right back to crying.
147
362000
2000
και μετά θα συνεχίσουν να κλαίνε.
06:19
One-year-olds learn concealment.
148
364000
2000
Τα μωρά ενός έτους μαθαίνουν να κρύβονται.
06:21
(Laughter)
149
366000
2000
(Γέλια)
06:23
Two-year-olds bluff.
150
368000
2000
Τα δίχρονα μπλοφάρουν.
06:25
Five-year-olds lie outright.
151
370000
2000
Τα πεντάχρονα λένε ψέματα στα ίσια.
06:27
They manipulate via flattery.
152
372000
2000
Σε χειρίζονται με την κολακεία.
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
Τα εννιάχρονα, αριστοτέχνες στη συγκάλυψη.
06:32
By the time you enter college,
154
377000
2000
Με το που θα μπεις στο πανεπιστήμιο,
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
θα λες ψέματα στη μαμά σου σε μία στις πέντε συζητήσεις.
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
Με το που μπαίνουμε στον κόσμο της εργασίας και βγάζουμε το ψωμί μας,
06:40
we enter a world that is just cluttered
157
385000
2000
μπαίνουμε σε έναν κόσμο που είναι φορτωμένος
06:42
with spam, fake digital friends,
158
387000
2000
με ανεπιθύμητους, ψεύτικους ψηφιακούς φίλους,
06:44
partisan media,
159
389000
2000
μεροληπτικά μέσα ενημέρωσης,
06:46
ingenious identity thieves,
160
391000
2000
ιδιοφυείς κλέφτες ταυτότητας,
06:48
world-class Ponzi schemers,
161
393000
2000
συστήματα πυραμίδας,
06:50
a deception epidemic --
162
395000
2000
μια επιδημία εξαπάτησης --
06:52
in short, what one author calls
163
397000
2000
με λίγα λόγια, αυτό που ένας συγγραφέας ονομάζει
06:54
a post-truth society.
164
399000
3000
μια κοινωνία μετα-αλήθειας.
06:57
It's been very confusing
165
402000
2000
Τα πράγματα είναι πολύ συγκεχυμένα
06:59
for a long time now.
166
404000
3000
εδώ και πολύ καιρό.
07:03
What do you do?
167
408000
2000
Τι κάνει κανείς;
07:05
Well there are steps we can take
168
410000
2000
Υπάρχουν βήματα που μπορούμε να ακολουθήσουμε
07:07
to navigate our way through the morass.
169
412000
2000
για να βρούμε το δρόμο μας μέσα στο τέλμα.
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
Οι εκπαιδευμένοι να εντοπίζουν το ψέμα φτάνουν στην αλήθεια 90 στις 100 φορές.
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
Εμείς οι υπόλοιποι, είμαστε μόνο 54% ακριβείς.
07:15
Why is it so easy to learn?
172
420000
2000
Γιατί είναι τόσο εύκολο να μάθουμε;
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
Υπάρχουν καλοί ψεύτες και υπάρχουν και κακοί ψεύτες. Δεν υπάρχουν αυθεντικοί ψεύτες.
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
Όλοι κάνουμε τα ίδια λάθη. Όλοι χρησιμοποιούμε τις ίδιες τεχνικές.
07:23
So what I'm going to do
175
428000
2000
Έτσι αυτό που πρόκειται να κάνω
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
είναι να σας δείξω δύο τρόπους εξαπάτησης.
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
Και μετά θα κοιτάξουμε τα καίρια σημεία και θα δούμε αν μπορούμε να τα βρούμε μόνοι μας.
07:30
We're going to start with speech.
178
435000
3000
Θα ξεκινήσουμε με τον λόγο.
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
(Βίντεο) Μπιλ Κλίντον: Θέλω να με ακούσετε.
07:35
I'm going to say this again.
180
440000
2000
Θα το ξαναπώ.
07:37
I did not have sexual relations
181
442000
3000
Δεν είχα σεξουαλικές σχέσεις
07:40
with that woman, Miss Lewinsky.
182
445000
4000
με εκείνη τη γυναίκα, τη δεσποινίδα Λουίνσκι.
07:44
I never told anybody to lie,
183
449000
2000
Ποτέ δεν είπα σε κανένα να πει ψέματα,
07:46
not a single time, never.
184
451000
2000
ούτε μία φορά, ποτέ.
07:48
And these allegations are false.
185
453000
3000
Και αυτοί οι ισχυρισμοί είναι ψευδείς.
07:51
And I need to go back to work for the American people.
186
456000
2000
Και πρέπει να επιστρέψω στο έργο μου για τον αμερικανικό λαό.
07:53
Thank you.
187
458000
2000
Σας ευχαριστώ.
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
Πάμελα Μάγιερ: Εντάξει, ποια είναι τα σημάδια;
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
Λοιπόν πρώτα ακούσαμε αυτό που είναι γνωστό ως μη δεσμευτική άρνηση.
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
Οι έρευνες δείχνουν ότι οι άνθρωποι που επιμένουν υπερβολικά στην άρνηση τους
08:08
will resort to formal rather than informal language.
191
473000
3000
καταφεύγουν σε επίσημη αντί για ανεπίσημη γλώσσα.
08:11
We also heard distancing language: "that woman."
192
476000
3000
Ακούσαμε επίσης γλώσσα αποστασιοποίησης: "εκείνη τη γυναίκα".
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
Ξέρουμε πως οι ψεύτες ασυνείδητα θα αποστασιοποιηθούν
08:16
from their subject
194
481000
2000
από το θέμα τους
08:18
using language as their tool.
195
483000
3000
χρησιμοποιώντας τη γλώσσα ως εργαλείο.
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
Τώρα εάν ο Μπιλ Κλίντον είχε πει, "Λοιπόν, για να σας πω την αλήθεια..."
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
ή το αγαπημένο του Νίξον, "Με κάθε ειλικρίνεια..."
08:26
he would have been a dead giveaway
198
491000
2000
θα προδιδόταν αμέσως
08:28
for any liespotter than knows
199
493000
2000
επειδή όποιος ξέρει να εντοπίζει το ψέμα γνωρίζει
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
ότι η χρήση της γλώσσας με αυτόν τον τρόπο,
08:33
further discredits the subject.
201
498000
2000
ενισχύει την απόδειξη ότι το το άτομο ψεύδεται.
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
Τώρα εάν είχε επαναλάβει ολόκληρη την ερώτηση,
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
ή εάν είχε εμπλουτίσει την περιγραφή του με λίγες παραπάνω λεπτομέρειες --
08:42
and we're all really glad he didn't do that --
204
507000
2000
και χαιρόμαστε όλοι που δεν το έκανε αυτό --
08:44
he would have further discredited himself.
205
509000
2000
θα είχε αμφισβητηθεί περισσότερο.
08:46
Freud had it right.
206
511000
2000
Ο Φρόιντ είχε δίκιο.
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
Ο Φρόιντ είπε, κοιτάξτε, υπάρχουν πολλά περισσότερα από τον λόγο:
08:51
"No mortal can keep a secret.
208
516000
3000
"Κανένας θνητός δεν μπορεί να κρατήσει μυστικό.
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
Αν τα χείλη του είναι βουβά, μιλάει με τα ακροδάχτυλα του".
08:57
And we all do it no matter how powerful you are.
210
522000
3000
Και το κάνουμε όλοι άσχετα με την δύναμη που έχουμε.
09:00
We all chatter with our fingertips.
211
525000
2000
Όλοι μιλάμε με τα ακροδάχτυλα μας.
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
Θα σας δείξω τον Ντομινίκ Στρος Καν με τον Ομπάμα
09:05
who's chattering with his fingertips.
213
530000
3000
ο οποίος μιλάει με τα ακροδάχτυλα του.
09:08
(Laughter)
214
533000
3000
(Γέλια)
09:11
Now this brings us to our next pattern,
215
536000
3000
Τώρα αυτό μας οδηγεί στο επόμενο μοτίβο,
09:14
which is body language.
216
539000
3000
το οποίο είναι η γλώσσα του σώματος.
09:17
With body language, here's what you've got to do.
217
542000
3000
Με την γλώσσα του σώματος, να τι πρέπει να κάνετε.
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
Πραγματικά πρέπει να πετάξετε τις υποψίες σας έξω από την πόρτα.
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
Αφήστε την επιστήμη να απαλύνει τη γνώση σας λιγάκι.
09:25
Because we think liars fidget all the time.
220
550000
3000
Επειδή πιστεύουμε πως οι ψεύτες κάνουν νευρικές κινήσεις όλη την ώρα.
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
Ξέρετε κάτι όμως, παγώνουν το πάνω μέρος του κορμού τους όταν λένε ψέματα.
09:31
We think liars won't look you in the eyes.
222
556000
3000
Πιστεύουμε πως οι ψεύτες δεν κοιτάζουν στα μάτια.
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
Ξέρετε κάτι όμως, σε κοιτάνε στα μάτια παραπάνω από το κανονικό
09:36
just to compensate for that myth.
224
561000
2000
για να καταρρίψουν αυτόν το μύθο.
09:38
We think warmth and smiles
225
563000
2000
Νομίζουμε πως η ζεστασιά και τα χαμόγελα
09:40
convey honesty, sincerity.
226
565000
2000
σημαίνουν εντιμότητα, ειλικρίνεια.
09:42
But a trained liespotter
227
567000
2000
Αλλά κάποιος εκπαιδευμένος να διακρίνει τα ψέματα
09:44
can spot a fake smile a mile away.
228
569000
2000
μπορεί να εντοπίσει ένα ψεύτικο χαμόγελο από ένα μίλι μακριά.
09:46
Can you all spot the fake smile here?
229
571000
3000
Μπορείτε όλοι να εντοπίσετε το ψεύτικο χαμόγελο εδώ;
09:50
You can consciously contract
230
575000
2000
Μπορείς συνειδητά να συσπάσεις
09:52
the muscles in your cheeks.
231
577000
3000
τους μύες στα μάγουλα σου.
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
Αλλά το αληθινό χαμόγελο βρίσκεται στα μάτια, στο "πόδι της χήνας" στα μάτια.
09:58
They cannot be consciously contracted,
233
583000
2000
Δεν μπορούμε να το κινήσουμε συνειδητά,
10:00
especially if you overdid the Botox.
234
585000
2000
ειδικά αν το έχουμε παρακάνει με το Μπότοξ.
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
Μην το παρακάνετε με το Μπότοξ, κανείς δεν θα πιστεύει ότι είστε ειλικρινείς.
10:05
Now we're going to look at the hot spots.
236
590000
2000
Τώρα θα κοιτάξουμε τα καίρια σημεία.
10:07
Can you tell what's happening in a conversation?
237
592000
2000
Μπορείτε να πείτε τι γίνεται σε μια συζήτηση;
10:09
Can you start to find the hot spots
238
594000
3000
Μπορείτε να ξεκινήσετε να εντοπίζετε τα καίρια σημεία
10:12
to see the discrepancies
239
597000
2000
για να βρίσκετε τις ασυμφωνίες
10:14
between someone's words and someone's actions?
240
599000
2000
ανάμεσα στα λόγια και τις πράξεις κάποιου;
10:16
Now I know it seems really obvious,
241
601000
2000
Ξέρω πως φαίνεται εντελώς προφανές
10:18
but when you're having a conversation
242
603000
2000
αλλά όταν κάνεις μια συζήτηση
10:20
with someone you suspect of deception,
243
605000
3000
με κάποιον τον οποίο υποψιάζεσαι ότι σε εξαπατά,
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
η στάση του είναι μακράν η πιο παραμελημένη αλλά εντυπωσιακή ένδειξη.
10:26
An honest person is going to be cooperative.
245
611000
2000
Ένα ειλικρινές άτομο θα είναι συνεργάσιμο.
10:28
They're going to show they're on your side.
246
613000
2000
Θα δείξει ότι είναι δίπλα σου.
10:30
They're going to be enthusiastic.
247
615000
2000
Θα είναι ενθουσιώδες.
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
Θα είναι πρόθυμο και θα σε βοηθήσει να φτάσεις στην αλήθεια.
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
Θα είναι πρόθυμο να κατεβάσει ιδέες, να ονοματίσει υπόπτους,
10:37
provide details.
250
622000
2000
να δώσει λεπτομέρειες.
10:39
They're going to say, "Hey,
251
624000
2000
Θα πει, "Α,
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
ίσως να ήταν αυτοί στη μισθοδοσία που πλαστογράφησαν τις επιταγές".
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
Θα γίνει έξαλλο αν αισθανθεί ότι κατηγορείται άδικα
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
καθ' όλη τη διάρκεια της συνομιλίας, όχι απλώς κατά διαστήματα.
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
Θα είναι έξαλλο σε όλη τη διάρκεια της συνέντευξης.
10:52
And if you ask someone honest
256
637000
2000
Και αν ρωτήσετε κάποιον ειλικρινή
10:54
what should happen to whomever did forge those checks,
257
639000
3000
τι πρέπει να γίνει με αυτόν που πλαστογράφησε τις επιταγές,
10:57
an honest person is much more likely
258
642000
2000
ένα ειλικρινές άτομο είναι περισσότερο πιθανό
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
να προτείνει αυστηρή και όχι επιεική τιμωρία.
11:03
Now let's say you're having that exact same conversation
260
648000
2000
Τώρα ας υποθέσουμε πως κάνετε αυτήν την ίδια συζήτηση
11:05
with someone deceptive.
261
650000
2000
με κάποιον που εξαπατά.
11:07
That person may be withdrawn,
262
652000
2000
Αυτό το άτομο ίσως να είναι αποτραβηγμένο,
11:09
look down, lower their voice,
263
654000
2000
να χαμηλώνει το βλέμμα, να χαμηλώνει τη φωνή του,
11:11
pause, be kind of herky-jerky.
264
656000
2000
να κάνει παύσεις, να είναι κάπως νευρικό.
11:13
Ask a deceptive person to tell their story,
265
658000
2000
Ρωτήστε κάποιον που εξαπατά να σας πει την ιστορία του,
11:15
they're going to pepper it with way too much detail
266
660000
3000
θα τη διηγηθεί με πάρα πολλές λεπτομέρειες
11:18
in all kinds of irrelevant places.
267
663000
3000
σε άσχετα σημεία.
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
Και θα την πει με αυστηρή χρονολογική σειρά.
11:24
And what a trained interrogator does
269
669000
2000
Και ο εκπαιδευμένος ανακριτής
11:26
is they come in and in very subtle ways
270
671000
2000
με πολύ λεπτούς χειρισμούς
11:28
over the course of several hours,
271
673000
2000
κατά τη διάρκεια πολλών ωρών,
11:30
they will ask that person to tell that story backwards,
272
675000
3000
θα ζητήσει από το συγκεκριμένο πρόσωπο να ξεκινήσει την ιστορία από το τέλος
11:33
and then they'll watch them squirm,
273
678000
2000
και θα παρακολουθεί αν νιώθει αμηχανία,
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
και θα εντοπίζει τις ερωτήσεις που το κάνουν να λέει τα περισσότερα ψέματα.
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
Γιατί το κάνουν αυτό; Λοιπόν όλοι κάνουμε το ίδιο.
11:41
We rehearse our words,
276
686000
2000
Προβάρουμε τα λόγια μας
11:43
but we rarely rehearse our gestures.
277
688000
2000
αλλά σπάνια τις χειρονομίες μας.
11:45
We say "yes," we shake our heads "no."
278
690000
2000
Λέμε "ναι" και κουνάμε το κεφάλι μας σαν να λέμε "όχι".
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
Λέμε πολύ πειστικές ιστορίες και ανασηκώνουμε ελαφρά τους ώμους.
11:50
We commit terrible crimes,
280
695000
2000
Διαπράττουμε τρομερά εγκλήματα
11:52
and we smile at the delight in getting away with it.
281
697000
3000
και χαμογελάμε με τη χαρά ότι τη γλιτώνουμε.
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
Αυτό το χαμόγελο είναι γνωστό στη δουλειά μας ως "χαρά της εξαπάτησης".
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
Και θα το δούμε σε αρκετά βίντεο καθώς προχωράμε
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
αλλά θα ξεκινήσουμε -- για όσους από εσάς δεν τον γνωρίζουν,
12:03
this is presidential candidate John Edwards
285
708000
3000
με τον υποψήφιο για την προεδρία Τζον Έντουαρντς
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
ο οποίος σόκαρε την Αμερική επειδή είχε ένα παιδί εκτός γάμου.
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
Θα τον δούμε να μιλάει για το αν θα κάνει το τεστ πατρότητας.
12:12
See now if you can spot him
288
717000
2000
Δείτε εάν μπορείτε να τον παρατηρήσετε
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
να λέει "ναι" ενώ κουνάει το κεφάλι του σαν "όχι",
12:16
slightly shrugging his shoulders.
290
721000
2000
ανασηκώνοντας ελαφρά τους ώμους σαν να αμφιβάλλει.
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
(Βίντεο) Τζον Έντουαρντς: Ευχαρίστως να κάνω το τεστ.
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
Ξέρω ότι δεν είναι δυνατόν το παιδί να είναι δικό μου
12:23
because of the timing of events.
293
728000
2000
εξαιτίας της χρονικής στιγμής των γεγονότων.
12:25
So I know it's not possible.
294
730000
2000
Έτσι ξέρω ότι δεν είναι δυνατόν.
12:27
Happy to take a paternity test,
295
732000
2000
Ευχαρίστως να κάνω το τεστ πατρότητας
12:29
and would love to see it happen.
296
734000
2000
και θα ήθελα να γίνει.
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
Δημοσιογράφος: Θα το κάνετε σύντομα; Υπάρχει κανείς --
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
Τζ. Έ.: Εγώ είμαι μόνο η μία πλευρά. Είμαι μόνο η μία πλευρά του τεστ.
12:37
But I'm happy to participate in one.
299
742000
3000
Αλλά ευχαρίστως να το κάνω.
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
Π. Μ.: Λοιπόν, τα κουνήματα του κεφαλιού είναι πολύ πιο εύκολο να τα εντοπίσετε
12:42
once you know to look for them.
301
747000
2000
όταν ξέρετε να τα αναζητάτε.
12:44
There're going to be times
302
749000
2000
Υπάρχουν φορές
12:46
when someone makes one expression
303
751000
2000
που κάποιος παίρνει μια έκφραση
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
και κρύβει μια άλλη η οποία φανερώνεται κάπως σε μια στιγμή.
12:52
Murderers are known to leak sadness.
305
757000
2000
Είναι γνωστό ότι οι δολοφόνοι αφήνουν να φανερωθεί λύπη.
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
Ο καινούργιος συνέταιρος ίσως σας κάνει χειραψία,
12:56
celebrate, go out to dinner with you
307
761000
2000
γιορτάσει το γεγονός, βγει για φαγητό μαζί σας
12:58
and then leak an expression of anger.
308
763000
3000
και μετά αφήσει να φανερωθεί μια έκφραση θυμού.
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
Και δεν πρόκειται να γίνουμε όλοι ειδικοί στις εκφράσεις του προσώπου εν μία νυκτί
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
αλλά υπάρχει κάτι που μπορώ να σας διδάξω, που είναι πολύ επικίνδυνο και εύκολο να το μάθετε
13:07
and that's the expression of contempt.
311
772000
3000
και αυτό είναι η έκφραση της περιφρόνησης.
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
Στον θυμό, έχεις δύο ανθρώπους σε ένα γήπεδο με ίσους όρους.
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
Είναι κατά κάποιον τρόπο μια υγιής σχέση.
13:15
But when anger turns to contempt,
314
780000
2000
Αλλά όταν ο θυμός γίνεται περιφρόνηση,
13:17
you've been dismissed.
315
782000
2000
σας έχουν απορρίψει.
13:19
It's associated with moral superiority.
316
784000
2000
Συνδέεται με την ηθική ανωτερότητα.
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
Και για αυτόν τον λόγο, είναι πολύ, πολύ δύσκολο να συνέλθει κάποιος.
13:24
Here's what it looks like.
318
789000
2000
Να πώς μοιάζει.
13:26
It's marked by one lip corner
319
791000
2000
Η γωνία του ενός χείλους
13:28
pulled up and in.
320
793000
2000
τραβιέται επάνω και προς τα μέσα.
13:30
It's the only asymmetrical expression.
321
795000
3000
Είναι η μοναδική ασύμμετρη έκφραση.
13:33
And in the presence of contempt,
322
798000
2000
Και μόλις αντιληφθείτε περιφρόνηση,
13:35
whether or not deception follows --
323
800000
2000
είτε ακολουθείται από εξαπάτηση είτε όχι --
13:37
and it doesn't always follow --
324
802000
2000
και δεν ακολουθείται πάντα --
13:39
look the other way, go the other direction,
325
804000
2000
κοιτάξτε αλλού, αλλάξτε πορεία,
13:41
reconsider the deal,
326
806000
2000
ξανασκεφτείτε τη συμφωνία,
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
πείτε, "Όχι ευχαριστώ. Δεν έρχομαι πάνω για ένα τελευταίο ποτό. Ευχαριστώ".
13:47
Science has surfaced
328
812000
2000
Η επιστήμη έχει φέρει στο φως
13:49
many, many more indicators.
329
814000
2000
πολλές, πολλές ακόμα ενδείξεις.
13:51
We know, for example,
330
816000
2000
Ξέρουμε, για παράδειγμα,
13:53
we know liars will shift their blink rate,
331
818000
2000
ξέρουμε πως οι ψεύτες αλλάζουν το ρυθμό που ανοιγοκλείνουν τα μάτια τους,
13:55
point their feet towards an exit.
332
820000
2000
τα πόδια τους δείχνουν προς κάποια έξοδο.
13:57
They will take barrier objects
333
822000
2000
Τοποθετούν αντικείμενα σαν εμπόδια
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
ανάμεσα στους ίδιους και σε αυτόν που τους ρωτάει.
14:02
They'll alter their vocal tone,
335
827000
2000
Θα αλλάξουν τον τόνο της φωνής τους,
14:04
often making their vocal tone much lower.
336
829000
3000
συχνά κάνοντάς τον πολύ χαμηλότερο.
14:07
Now here's the deal.
337
832000
2000
Η κατάσταση έχει ως εξής.
14:09
These behaviors are just behaviors.
338
834000
3000
Αυτές είναι απλά συμπεριφορές.
14:12
They're not proof of deception.
339
837000
2000
Δεν είναι απόδειξη εξαπάτησης.
14:14
They're red flags.
340
839000
2000
Είναι σήματα κινδύνου.
14:16
We're human beings.
341
841000
2000
Είμαστε άνθρωποι.
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
Κάνουμε χειρονομίες εξαπάτησης όλη μέρα και παντού.
14:21
They don't mean anything in and of themselves.
343
846000
2000
Δεν σημαίνουν τίποτα από μόνες τους.
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
Αλλά όταν δείτε πολλές μαζί, είναι ένα σημάδι.
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
Δείτε, ακούστε, δοκιμάστε, κάντε μερικές δύσκολες ερωτήσεις,
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
μην υιοθετείτε την άνεση αυτού που γνωρίζει,
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
δείξτε περιέργεια, κάντε περισσότερες ερωτήσεις,
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
δείξτε λίγη αξιοπρέπεια, δείξτε συμπάθεια στο πρόσωπο με το οποίο μιλάτε.
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
Μην προσπαθείτε να είστε σαν το "Νόμος και Τάξη" και τις άλλες τηλεοπτικές σειρές
14:41
that pummel their subjects into submission.
350
866000
2000
που γρονθοκοπούν τους άλλους για να τους κάνουν να υποταχθούν.
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
Μην είστε πολύ επιθετικοί, δεν πιάνει.
14:46
Now we've talked a little bit
352
871000
2000
Είπαμε λοιπόν
14:48
about how to talk to someone who's lying
353
873000
2000
για το πώς να μιλήσουμε σε κάποιον που ψεύδεται
14:50
and how to spot a lie.
354
875000
2000
και για το πώς να εντοπίσουμε ένα ψέμα.
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
Και όπως υποσχέθηκα, τώρα θα δούμε πώς είναι η αλήθεια.
14:55
But I'm going to show you two videos,
356
880000
2000
Αλλά θα σας δείξω δύο βίντεο,
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
δύο μητέρες -- η μία λέει ψέματα, η άλλη λέει αλήθεια.
15:00
And these were surfaced
358
885000
2000
Τα οποία ήρθαν στην επιφάνεια
15:02
by researcher David Matsumoto in California.
359
887000
2000
από τον ερευνητή Ντέιβιντ Ματσουμότο στην Καλιφόρνια.
15:04
And I think they're an excellent example
360
889000
2000
Και νομίζω πως είναι ένα εξαίρετο παράδειγμα
15:06
of what the truth looks like.
361
891000
2000
για το πώς φαίνεται η αλήθεια.
15:08
This mother, Diane Downs,
362
893000
2000
Αυτή η μητέρα, η Νταϊάν Ντάουνς,
15:10
shot her kids at close range,
363
895000
2000
πυροβόλησε τα παιδιά της εξ επαφής,
15:12
drove them to the hospital
364
897000
2000
τα πήγε στο νοσοκομείο
15:14
while they bled all over the car,
365
899000
2000
ενώ αιμορραγούσαν μέσα στο αμάξι
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
και ισχυρίστηκε ότι το έκανε ένας άγνωστος με απεριποίητα μαλλιά.
15:18
And you'll see when you see the video,
367
903000
2000
Και θα δείτε όταν παρακολουθήσετε το βίντεο,
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
ότι δεν μπορεί να προσποιηθεί καν ότι υποφέρει.
15:22
What you want to look for here
369
907000
2000
Αυτό που πρέπει να ψάξετε εδώ
15:24
is an incredible discrepancy
370
909000
2000
είναι η απίστευτη ασυμφωνία
15:26
between horrific events that she describes
371
911000
2000
ανάμεσα στα τρομακτικά γεγονότα που περιγράφει
15:28
and her very, very cool demeanor.
372
913000
2000
και την πολύ, πολύ ψυχρή συμπεριφορά της.
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
Και αν κοιτάξετε προσεχτικά, θα διακρίνετε στο βίντεο τη χαρά της εξαπάτησης.
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
(Βίντεο) Νταϊάν Ντάουνς: Το βράδυ όταν κλείνω τα μάτια μου,
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
μπορώ να δω την Κρίστι να απλώνει το χέρι της προς εμένα ενώ οδηγώ
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
και το αίμα να τρέχει από το στόμα της.
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
Και αυτό ίσως να ξεθωριάσει με τον καιρό
15:43
but I don't think so.
378
928000
2000
αλλά δεν το νομίζω.
15:45
That bothers me the most.
379
930000
3000
Αυτό με ενοχλεί περισσότερο από όλα.
15:55
PM: Now I'm going to show you a video
380
940000
2000
Π. Μ.: Τώρα θα σας δείξω ένα βίντεο
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
μιας μητέρας που θρηνεί πραγματικά, της Έριν Ράνιον,
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
να αντιμετωπίζει στο δικαστήριο τον άνθρωπο που δολοφόνησε και βασάνισε την κόρη της.
16:03
Here you're going to see no false emotion,
383
948000
2000
Εδώ δεν πρόκειτα να δείτε κανένα ψεύτικο συναίσθημα,
16:05
just the authentic expression of a mother's agony.
384
950000
3000
μόνο την αυθεντική έκφραση μιας μητέρας που υποφέρει.
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
(Βίντεο) Έριν Ράνιον: Έγραψα αυτήν τη δήλωση τρία χρόνια μετά
16:10
of the night you took my baby,
386
955000
2000
από τη νύχτα που πήρες το μωρό μου
16:12
and you hurt her,
387
957000
2000
και το πλήγωσες
16:14
and you crushed her,
388
959000
2000
και το συνέθλιψες,
16:16
you terrified her until her heart stopped.
389
961000
4000
το τρομοκράτησες μέχρι που σταμάτησε η καρδιά του.
16:20
And she fought, and I know she fought you.
390
965000
3000
Και πάλεψε, το ξέρω πως πάλεψε εναντίον σου.
16:23
But I know she looked at you
391
968000
2000
Αλλά ξέρω και πως σε κοίταξε
16:25
with those amazing brown eyes,
392
970000
2000
με αυτά τα απίστευτα καστανά της μάτια
16:27
and you still wanted to kill her.
393
972000
3000
και εσύ εξακολούθησες να θέλεις να την σκοτώσεις.
16:30
And I don't understand it,
394
975000
2000
Και δεν το καταλαβαίνω
16:32
and I never will.
395
977000
3000
ούτε θα το καταλάβω ποτέ.
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
Π. Μ.: Εντάξει, δεν μπορούμε να αμφισβητήσουμε την αλήθεια αυτών των συναισθημάτων.
16:39
Now the technology around what the truth looks like
397
984000
3000
Τώρα η τεχνολογία για το πώς φαίνεται η αλήθεια
16:42
is progressing on, the science of it.
398
987000
3000
προχωράει, το ίδιο και η επιστήμη.
16:45
We know for example
399
990000
2000
Ξέρουμε για παράδειγμα
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
ότι πλέον έχουμε ανιχνευτές οφθαλµικών κινήσεων και εγκεφαλογράφημα υπερύθρων,
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
μαγνητικές τομογραφίες που αποκωδικοποιούν τα σήματα που στέλνει το σώμα μας
16:53
when we're trying to be deceptive.
402
998000
2000
όταν προσπαθούμε να εξαπατήσουμε κάποιον.
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
Και αυτές οι τεχνολογίες θα πλασαριστούν στην αγορά
16:58
as panaceas for deceit,
404
1003000
2000
σαν πανάκεια στην εξαπάτηση
17:00
and they will prove incredibly useful some day.
405
1005000
3000
και θα αποδειχτούν απίστευτα χρήσιμες κάποια μέρα.
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
Αλλά πρέπει στο μεταξύ να αναρωτηθείτε:
17:05
Who do you want on your side of the meeting,
407
1010000
2000
Ποιόν θέλετε με το μέρος σας,
17:07
someone who's trained in getting to the truth
408
1012000
3000
κάποιον που είναι εκπαιδευμένος να φτάνει στην αλήθεια
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
ή κάποιον που θα κουβαλήσει ένα ηλεκτροεγκεφαλογράφημα 200 κιλών
17:12
through the door?
410
1017000
2000
μαζί του;
17:14
Liespotters rely on human tools.
411
1019000
4000
Αυτοί που εντοπίζουν το ψέμα στηρίζονται σε ανθρώπινα εργαλεία.
17:18
They know, as someone once said,
412
1023000
2000
Ξέρουν αυτό που είπε κάποιος κάποτε,
17:20
"Character's who you are in the dark."
413
1025000
2000
"Ο χαρακτήρας στο σκοτάδι φαίνεται".
17:22
And what's kind of interesting
414
1027000
2000
Και το ενδιαφέρον είναι
17:24
is that today we have so little darkness.
415
1029000
2000
ότι σήμερα έχουμε πολύ λίγο σκοτάδι.
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
Ο κόσμος μας φωτίζεται 24 ώρες το 24ωρο.
17:29
It's transparent
417
1034000
2000
Είναι διάφανος
17:31
with blogs and social networks
418
1036000
2000
με τα μπλογκ και τα κοινωνικά δίκτυα
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
να αναμεταδίδουν τη βοή μιας ολόκληρης νέας γενιάς ανθρώπων
17:35
that have made a choice to live their lives in public.
420
1040000
3000
που έχουν επιλέξει να ζήσουν τη ζωή τους σε κοινή θέα.
17:38
It's a much more noisy world.
421
1043000
4000
Είναι ένας πολύ πιο θορυβώδης κόσμος.
17:42
So one challenge we have
422
1047000
2000
Έτσι μια πρόκληση που αντιμετωπίζουμε
17:44
is to remember,
423
1049000
2000
είναι να θυμόμαστε ότι
17:46
oversharing, that's not honesty.
424
1051000
3000
το να μοιραζόμαστε περισσότερα από όσα πρέπει δεν είναι ειλικρίνεια.
17:49
Our manic tweeting and texting
425
1054000
2000
Η μανία μας για το Τουίτερ και τα γραπτά μηνύματα
17:51
can blind us to the fact
426
1056000
2000
μπορεί να μας εμποδίσει να δούμε
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
πως τα λεπτά σημεία της ανθρώπινης αξιοπρέπειας -- η ακεραιότητα του χαρακτήρα --
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
είναι ακόμα αυτό που μετράει, είναι αυτό που θα μετράει πάντα.
17:59
So in this much noisier world,
429
1064000
2000
Έτσι σε αυτόν τον πολύ πιο θορυβώδη κόσμο,
18:01
it might make sense for us
430
1066000
2000
ίσως να έχει νόημα
18:03
to be just a little bit more explicit
431
1068000
2000
να είμαστε λίγο πιο κατηγορηματικοί
18:05
about our moral code.
432
1070000
3000
όσον αφορά τον ηθικό μας κώδικα.
18:08
When you combine the science of recognizing deception
433
1073000
2000
Όταν συνδυάζεις την επιστήμη αναγνώρισης της εξαπάτησης
18:10
with the art of looking, listening,
434
1075000
2000
με την τέχνη να παρατηρείς και να αφουγκράζεσαι
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
απαλλάσσεσαι από το να γίνεις συνεργός σε ένα ψέμα.
18:15
You start up that path
436
1080000
2000
Μπαίνεις σε ένα μονοπάτι
18:17
of being just a little bit more explicit,
437
1082000
2000
όπου είσαι λίγο πιο κατηγορηματικός
18:19
because you signal to everyone around you,
438
1084000
2000
επειδή στέλνεις σήμα σε όλους γύρω σου,
18:21
you say, "Hey, my world, our world,
439
1086000
3000
λέγοντας, "Έι, ο κόσμος μου, ο κόσμος μας,
18:24
it's going to be an honest one.
440
1089000
2000
πρόκειται να έχει ειλικρίνεια.
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
Στον κόσμο μου η αλήθεια θα ενισχύεται
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
και η ψευτιά θα αναγνωρίζεται και θα περιθωριοποιείται".
18:31
And when you do that,
443
1096000
2000
Και όταν το κάνεις αυτό,
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
όλα γύρω σου αρχίζουν να αλλάζουν λιγάκι.
18:36
And that's the truth. Thank you.
445
1101000
3000
Και αυτή είναι η αλήθεια. Σας ευχαριστώ.
18:39
(Applause)
446
1104000
5000
(Χειροκρότημα)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com