TEDGlobal 2011
Pamela Meyer: How to spot a liar
Памела Майър: Как да разпознаем лъжеца.
Filmed:
Readability: 3.8
28,415,176 views
Всеки ден ни лъжат между 10 и 200 пъти, а уликите за разпознаване на тези лъжи могат да бъдат трудно забележими и неинтуитивни. Памела Майър, автор на "Да разпознаеш лъжата", демонстрира методите използвани от тези, които са обучени да разпознават заблудата -- и твърди, че честността е добродетел, който си заслужава да запазим.
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
Така, не искам да стряскам никой в тази зала,
00:20
but it's just come to my attention
1
5000
2000
но току-що забелязах,
00:22
that the person to your right is a liar.
2
7000
2000
че човекът вдясно от вас е лъжец.
00:24
(Laughter)
3
9000
2000
(Смях)
00:26
Also, the person to your left is a liar.
4
11000
3000
Същото се отнася за този в ляво от вас.
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
Същото се отнася за самите вас.
00:32
We're all liars.
6
17000
2000
Всички сме лъжци.
00:34
What I'm going to do today
7
19000
2000
Това което ще направя днес
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
е да ви покажа какви са резултатите от проучванията на това защо всички лъжем,
00:39
how you can become a liespotter
9
24000
2000
как можете да разпознавате лъжата,
00:41
and why you might want to go the extra mile
10
26000
3000
защо бихте искали да имате това умение
00:44
and go from liespotting to truth seeking,
11
29000
3000
и да преминете от разпознаване на лъжата към търсене на истината,
00:47
and ultimately to trust building.
12
32000
2000
и в крайна сметка до изграждане на доверие.
00:49
Now speaking of trust,
13
34000
3000
И като говорим за доверие,
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
откакто написах книгата "Да разпознаеш лъжата",
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
никой не иска да се среща лично с мен, не, не, не, не, не.
00:58
They say, "It's okay, we'll email you."
16
43000
3000
Казват ми: "Ще ви изпратим имейл."
01:01
(Laughter)
17
46000
2000
(Смях)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
Дори не мога да си уредя среща в Старбъкс.
01:07
My husband's like, "Honey, deception?
19
52000
2000
Съпругът ми, ми казва. "Скъпа, измама?"
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
Може би можеше да се насочиш към готварството. Например френска кухня?"
01:12
So before I get started, what I'm going to do
21
57000
2000
Така че преди да започна, това което ще направя
01:14
is I'm going to clarify my goal for you,
22
59000
3000
е да ви изясня моята цел,
01:17
which is not to teach a game of Gotcha.
23
62000
2000
която не е да ви науча да играете на "Хванах те."
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
Хората, които разпознават лъжата не са като деца,
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
като онези деца в задната част на стаята, които викат: "Хванах те! Хванах те!"
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
Веждата ти е трепнала. Въздъхнал си.
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
Гледам онова телевизионно шоу "Излъжи ме. Знам, че лъжеш."
01:30
No, liespotters are armed
28
75000
2000
Не, хората които разпознават лъжете използват
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
научни знания за да разпознават измамата.
01:35
They use it to get to the truth,
30
80000
2000
И ги използват за да стигнат до истината,
01:37
and they do what mature leaders do everyday;
31
82000
2000
правят това което зрелите лидери правят всеки ден;
01:39
they have difficult conversations with difficult people,
32
84000
3000
водят трудни разговори с трудни хора,
01:42
sometimes during very difficult times.
33
87000
2000
понягога в трудни моменти.
01:44
And they start up that path
34
89000
2000
И изхождат
01:46
by accepting a core proposition,
35
91000
2000
от едно основополагащо твърдение,
01:48
and that proposition is the following:
36
93000
2000
а то е,
01:50
Lying is a cooperative act.
37
95000
3000
че лъжата е съвместен акт.
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
Замислете се, лъжата сама по себе си е безсилна,
01:57
Its power emerges
39
102000
2000
Тя става значима
01:59
when someone else agrees to believe the lie.
40
104000
2000
едва когато някой реши да й повярва.
02:01
So I know it may sound like tough love,
41
106000
2000
Знам че звучи невероятно,
02:03
but look, if at some point you got lied to,
42
108000
4000
но вижте, ако някога са ви излъгали,
02:07
it's because you agreed to get lied to.
43
112000
2000
това е така защото сте се съгласили с това.
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
Истина номер едно за лъжата е че тя е съвместен акт.
02:12
Now not all lies are harmful.
45
117000
2000
Не всяка лъжа е вредна.
02:14
Sometimes we're willing participants in deception
46
119000
3000
Понякога ние доброволно участваме в дадена заблуда
02:17
for the sake of social dignity,
47
122000
3000
в името на социалното достойнство,
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
за да запазим тайна, която трябва да си остане такава.
02:23
We say, "Nice song."
49
128000
2000
Казваме: "Хубава песен."
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
"Скъпа не изглеждаш дебела в това, не."
02:28
Or we say, favorite of the digiratti,
51
133000
2000
Или любимото на хората от компютърния свят:
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
"Знаеш ли, току-що изрових този имейл от папката с нежелана поща.
02:33
So sorry."
53
138000
3000
Така че извинявай."
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
Но има случаи в които ние ставаме неволни участници в заблуда.
02:39
And that can have dramatic costs for us.
55
144000
3000
И това може да има драматични последици за нас.
02:42
Last year saw 997 billion dollars
56
147000
3000
През миналата година станахме свидетели на корпоративни
02:45
in corporate fraud alone in the United States.
57
150000
4000
измами за 997 милиарда долара само в САЩ.
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
А това е малко под трилион долара.
02:51
That's seven percent of revenues.
59
156000
2000
Това са 7 процента от печалбите.
02:53
Deception can cost billions.
60
158000
2000
Измамата може да коства милиарди.
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
Спомнете си за Енрон, Мадоф, за ипотечната криза.
02:58
Or in the case of double agents and traitors,
62
163000
3000
Или за случаите на двойни агенти и предатели,
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
като Робърт Хансън или Олдрих Еймс,
03:03
lies can betray our country,
64
168000
2000
лъжите могат да предадат цяла държава,
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
могат да изложат на риск нашата сигурност, да подкопаят основите на демокрацията,
03:08
they can cause the deaths of those that defend us.
66
173000
3000
да станат причина за смъртта на тези, които ни защитават.
03:11
Deception is actually serious business.
67
176000
3000
Измамата всъщност е сериозно нещо.
03:14
This con man, Henry Oberlander,
68
179000
2000
Този измамник, Хенри Обърлендър,
03:16
he was such an effective con man
69
181000
2000
бил толкова добър,
03:18
British authorities say
70
183000
2000
че по твърдение на британските власти
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
е можел да застраши цялата банкова система на Западния свят.
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
Не можете да намерите информация за този човек в Гугъл, нито някъде другаде.
03:25
He was interviewed once, and he said the following.
73
190000
3000
Бил е интервюиран само веднъж, и е казал следното:
03:28
He said, "Look, I've got one rule."
74
193000
2000
"Вижте, имам едно правило."
03:30
And this was Henry's rule, he said,
75
195000
3000
А то било следното:
03:33
"Look, everyone is willing to give you something.
76
198000
2000
"Всеки е съгласен да ви даде нещо.
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
Съгласен е да ви даде нещо в замяна на това, от което той самият има нужда."
03:38
And that's the crux of it.
78
203000
2000
А това е разковничето.
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
Ако не искате да ви измамят, трябва да сте наясно с това,
03:42
what is it that you're hungry for?
80
207000
2000
от какво имате нужда?
03:44
And we all kind of hate to admit it.
81
209000
3000
А всички ние мразим да си признаваме това.
03:47
We wish we were better husbands, better wives,
82
212000
3000
Иска ни се да сме по-добри съпрузи, съпруги,
03:50
smarter, more powerful,
83
215000
2000
по-умни, по-силни,
03:52
taller, richer --
84
217000
2000
по-високи, по-богати --
03:54
the list goes on.
85
219000
2000
и т.н.
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
Лъжата е начин да запълним тази празнина,
03:58
to connect our wishes and our fantasies
87
223000
2000
да свържем желанията и фантазиите си
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
за това какви ни се иска да бъдем, какви бихме искали да бъдем,
04:03
with what we're really like.
89
228000
3000
с това какви сме всъщност.
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
О, и как ни се иска да запълним тези празнини в живота ни с лъжи.
04:09
On a given day, studies show that you may be lied to
91
234000
3000
Проучванията показват, че за един ден могат да ни излъжат
04:12
anywhere from 10 to 200 times.
92
237000
2000
между 10 и 200 пъти.
04:14
Now granted, many of those are white lies.
93
239000
3000
Имайте предвид, че много от тези лъжи са благородни.
04:17
But in another study,
94
242000
2000
Но друго проучване показва,
04:19
it showed that strangers lied three times
95
244000
2000
че непознатите лъжат три пъти
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
през първите 10 минути след като се запознаят.
04:23
(Laughter)
97
248000
2000
(Смях)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
Когато за първи път чуем тези резултати, се стряскаме.
04:28
We can't believe how prevalent lying is.
99
253000
2000
Не можем да повярваме колко широко разпространена е лъжата.
04:30
We're essentially against lying.
100
255000
2000
По принцип сме против лъжата.
04:32
But if you look more closely,
101
257000
2000
Но ако се вгледате,
04:34
the plot actually thickens.
102
259000
2000
ще видите че нещата стават по-дебели.
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
Лъжем повече непознатите, отколкото колегите си.
04:39
Extroverts lie more than introverts.
104
264000
4000
Екстровертите лъжат повече от интровертите.
04:43
Men lie eight times more about themselves
105
268000
3000
Мъжете лъжат осем пъти повече за себе се,
04:46
than they do other people.
106
271000
2000
отколкото за други хора.
04:48
Women lie more to protect other people.
107
273000
3000
Жените лъжат повече, за да защитят други хора.
04:51
If you're an average married couple,
108
276000
3000
Ако сте средностатистическа двойка,
04:54
you're going to lie to your spouse
109
279000
2000
ще лъжете половинката си
04:56
in one out of every 10 interactions.
110
281000
2000
в един от всеки 10 случая.
04:58
Now you may think that's bad.
111
283000
2000
Може да си мислите, че това е лошо.
05:00
If you're unmarried, that number drops to three.
112
285000
2000
Ако не сте семейни, това число става 3.
05:02
Lying's complex.
113
287000
2000
Лъжата е сложна.
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
Тя е вплетена в същноста на нашия ежедневен и служебен живот.
05:07
We're deeply ambivalent about the truth.
115
292000
2000
Истината за нас има двойствен характер.
05:09
We parse it out on an as-needed basis,
116
294000
2000
Тълкуваме я според ситуацията,
05:11
sometimes for very good reasons,
117
296000
2000
понякога имаме основателна причина,
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
друг път просто защото не разбираме празнотите в живота си.
05:16
That's truth number two about lying.
119
301000
2000
Това е истина номер две за лъжата.
05:18
We're against lying,
120
303000
2000
Ние сме против нея,
05:20
but we're covertly for it
121
305000
2000
но тайно сме за нея,
05:22
in ways that our society has sanctioned
122
307000
2000
по начини които нашето общество е отхвърляло
05:24
for centuries and centuries and centuries.
123
309000
2000
в продължение на векове и векове и векове.
05:26
It's as old as breathing.
124
311000
2000
Тя е стара като дишането.
05:28
It's part of our culture, it's part of our history.
125
313000
2000
Тя е част от нашата култура, нашата история.
05:30
Think Dante, Shakespeare,
126
315000
3000
Спомнете си за Данте, Шекспир,
05:33
the Bible, News of the World.
127
318000
3000
Библията, в. "Нюз ъф дъ Уърлд."
05:36
(Laughter)
128
321000
2000
(Смях)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
Лъжата има еволюционно значение за нашия вид.
05:40
Researchers have long known
130
325000
2000
Изследователите отдавна са на ясно,
05:42
that the more intelligent the species,
131
327000
2000
че колкото по-интелигентен е даден вид,
05:44
the larger the neocortex,
132
329000
2000
колкото по-голям е неговя неокортекс,
05:46
the more likely it is to be deceptive.
133
331000
2000
толкова по-вереятно е този вид да е склонен да мами, да заблуждава.
05:48
Now you might remember Koko.
134
333000
2000
Може би си спомняте Коко.
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
Някой сеща ли се за Коко, горилата, която знаеше езика на глухонемите?
05:53
Koko was taught to communicate via sign language.
136
338000
3000
Коко била научена да комуникира, чрез езика на глухонемите.
05:56
Here's Koko with her kitten.
137
341000
2000
Ето я Коко с нейното коте.
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
Нейното сладко, пухкаво котенце.
06:01
Koko once blamed her pet kitten
139
346000
2000
Коко веднъж обвинила домашния си любимец,
06:03
for ripping a sink out of the wall.
140
348000
2000
че е изтръгнал мивка от стената.
06:05
(Laughter)
141
350000
2000
(Смях)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
Заложено ни е да станем лидери на глутницата.
06:09
It's starts really, really early.
143
354000
2000
Това започва много, много рано.
06:11
How early?
144
356000
2000
Колко рано ли?
06:13
Well babies will fake a cry,
145
358000
2000
Ами бебетата имитират плач,
06:15
pause, wait to see who's coming
146
360000
2000
спират, за да проверят кой идва
06:17
and then go right back to crying.
147
362000
2000
след което пак започват да плачат.
06:19
One-year-olds learn concealment.
148
364000
2000
На една година вече се учат да се крият.
06:21
(Laughter)
149
366000
2000
(Смях)
06:23
Two-year-olds bluff.
150
368000
2000
На две вече блъфират.
06:25
Five-year-olds lie outright.
151
370000
2000
А на пет вече лъжат.
06:27
They manipulate via flattery.
152
372000
2000
Манипулират чрез ласкателство.
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
Девет годишните са царе на измамите.
06:32
By the time you enter college,
154
377000
2000
Докато влезете в колеж,
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
вече ще лъжете майка си веднъж на всеки пет пъти, когато говорите с нея.
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
Докато навлезем в работната сфера и започнем да печелим препитание,
06:40
we enter a world that is just cluttered
157
385000
2000
навлизаме във свят, който е задръстен
06:42
with spam, fake digital friends,
158
387000
2000
със спам, фалшиви дигитални приятели,
06:44
partisan media,
159
389000
2000
партизански медии,
06:46
ingenious identity thieves,
160
391000
2000
находчиви крадци на самоличности,
06:48
world-class Ponzi schemers,
161
393000
2000
измамници от световна класа,
06:50
a deception epidemic --
162
395000
2000
епидемия от лъжи --
06:52
in short, what one author calls
163
397000
2000
накратко, както го нарич един автор,
06:54
a post-truth society.
164
399000
3000
общество надскочило истината.
06:57
It's been very confusing
165
402000
2000
От доста време
06:59
for a long time now.
166
404000
3000
ситуацията е доста объркваща.
07:03
What do you do?
167
408000
2000
Как да постъпите?
07:05
Well there are steps we can take
168
410000
2000
Ами има начини да
07:07
to navigate our way through the morass.
169
412000
2000
си проправите път през тресавището.
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
Обучените хора стигат до истината в 90% от случаите.
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
Останалите, успяваме в едва 54% от случаите.
07:15
Why is it so easy to learn?
172
420000
2000
Защо е толкова лесно да се научиш?
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
Има добри и лоши лъжци. Няма такива, които са измислили лъжата.
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
Всички правим същите грешки. Използваме същите методи.
07:23
So what I'm going to do
175
428000
2000
Това което ще направя
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
е да ви покажа два шаблона на измама.
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
След което ще говорим за издайническите моменти и ще се опитаме да ги намерим заедно.
07:30
We're going to start with speech.
178
435000
3000
Ще започнем с речта.
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
(Видео) Бил Клинтън: Искам да ме чуете.
07:35
I'm going to say this again.
180
440000
2000
Ще го повторя.
07:37
I did not have sexual relations
181
442000
3000
Не съм имал сексуални взаимоотношения
07:40
with that woman, Miss Lewinsky.
182
445000
4000
с тази жена, г-ца Люински.
07:44
I never told anybody to lie,
183
449000
2000
Никога не съм казвал на някой да лъже,
07:46
not a single time, never.
184
451000
2000
нито веднъж, никога.
07:48
And these allegations are false.
185
453000
3000
И тези обвинения са несправедливи.
07:51
And I need to go back to work for the American people.
186
456000
2000
И трябва да се върна към работата си за американския народ.
07:53
Thank you.
187
458000
2000
Благодаря ви.
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
Памела Майър: Добре, какво го издаде?
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
Ами на първо място видяхме отрицание.
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
Проучванията показват, че хората които са твърдо убедени в отрицанието си
08:08
will resort to formal rather than informal language.
191
473000
3000
прибягват до официален вместо разговорен език.
08:11
We also heard distancing language: "that woman."
192
476000
3000
Също така видяхме дистанциране: "онази жена."
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
Знаем, че лъжците несъзнателно се дистанцират
08:16
from their subject
194
481000
2000
от субекта,
08:18
using language as their tool.
195
483000
3000
изполвайки езика.
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
Ако Бил Клинтън беше казал: "Ами да ви кажа честно..."
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
Или любимото на Никсън: "Честно казано..."
08:26
he would have been a dead giveaway
198
491000
2000
той би се издал мигновено,
08:28
for any liespotter than knows
199
493000
2000
защото всеки който разпознава лъжата знае,
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
че класификацията, както се нарича, такъв език
08:33
further discredits the subject.
201
498000
2000
още повече дискредититира субекта.
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
Ако беше повторил въпроса,
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
ако беше доукрасил разказа си с твърде много подробности --
08:42
and we're all really glad he didn't do that --
204
507000
2000
а всички ние се радваме, че не го направи --
08:44
he would have further discredited himself.
205
509000
2000
би се дискредититирал още повече.
08:46
Freud had it right.
206
511000
2000
Фройд е бил прав.
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
Фройд е казал, вижте, не става въпрос само за речта:
08:51
"No mortal can keep a secret.
208
516000
3000
"Никой смъртен не може да пази тайна.
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
Ако си държи езика зад зъбите, говори с пръстите си."
08:57
And we all do it no matter how powerful you are.
210
522000
3000
И всчики ние го правим, независимо колко силни сме.
09:00
We all chatter with our fingertips.
211
525000
2000
Всички говорим с пръстите си.
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
Ще ви покажа Доминик Строс-Кан с Обама,
09:05
who's chattering with his fingertips.
213
530000
3000
който говори с пръстите си.
09:08
(Laughter)
214
533000
3000
(Смях)
09:11
Now this brings us to our next pattern,
215
536000
3000
Това ни води към следващия ни модел,
09:14
which is body language.
216
539000
3000
който е езика на тялото.
09:17
With body language, here's what you've got to do.
217
542000
3000
Ето какво трябва да правите.
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
Наистина трябва да захвърлите всички предположения.
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
Оставете науката да си поиграе с вашите знания.
09:25
Because we think liars fidget all the time.
220
550000
3000
Мислим си, че лъжците са нервни постоянно.
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
Познайте какво, знае се че те буквално не помръдват горната част на тялото си когато лъжат.
09:31
We think liars won't look you in the eyes.
222
556000
3000
Мислим се, че те не биха ни гледали в очите.
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
Познайте какво, те ви гледат в очите и то прекалено много,
09:36
just to compensate for that myth.
224
561000
2000
просто за да компенсират за този мит.
09:38
We think warmth and smiles
225
563000
2000
Мислим си, че топлината и усмивките
09:40
convey honesty, sincerity.
226
565000
2000
са израз на честност, откровеност.
09:42
But a trained liespotter
227
567000
2000
Но обучен човек
09:44
can spot a fake smile a mile away.
228
569000
2000
може да разпознае фалшива усмивка от миля разстояние.
09:46
Can you all spot the fake smile here?
229
571000
3000
Можете ли всички да разпознаете фалшивата усмивка тук?
09:50
You can consciously contract
230
575000
2000
Човек може съзнателно да свива
09:52
the muscles in your cheeks.
231
577000
3000
мускулите в бузите си.
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
Но истинската усмивка се крие в очите, бръчките около очите.
09:58
They cannot be consciously contracted,
233
583000
2000
Те не могат да се свиват съзнателно,
10:00
especially if you overdid the Botox.
234
585000
2000
особено ако сте прекалили с Ботокса.
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
Не прекалявайте с него, никой няма да повярва, че сте искрен.
10:05
Now we're going to look at the hot spots.
236
590000
2000
Сега ще разгледаме издайническите моменти.
10:07
Can you tell what's happening in a conversation?
237
592000
2000
Можете ли да разберете какво става по време на разговор?
10:09
Can you start to find the hot spots
238
594000
3000
Започвате ли да забелязвате тези моменти,
10:12
to see the discrepancies
239
597000
2000
да забелязвате несъответствията
10:14
between someone's words and someone's actions?
240
599000
2000
в думите и действията на хората?
10:16
Now I know it seems really obvious,
241
601000
2000
Знам че изглежда очевидно,
10:18
but when you're having a conversation
242
603000
2000
но когато разговаряте с някой,
10:20
with someone you suspect of deception,
243
605000
3000
който подозирате в лъжа,
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
поведението е най-пренебрегваният, но и най-издайническия индикатор.
10:26
An honest person is going to be cooperative.
245
611000
2000
Честният човек би ви съдействал.
10:28
They're going to show they're on your side.
246
613000
2000
Би ви показал, че е на ваша страна.
10:30
They're going to be enthusiastic.
247
615000
2000
Би бил ентусиазиран.
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
Би желал и би помогнал да се разбере истината.
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
Би давал добри идеи, би посочвал заподозрени,
10:37
provide details.
250
622000
2000
би давал подробности.
10:39
They're going to say, "Hey,
251
624000
2000
Би казал: "Ей,
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
може би тези са хората, фалшифицирали чековете."
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
Биха били бесни ако усетят, че са обвинени несправедливо
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
по време на целия разпит, не само на моменти;
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
биха били ядосани по време на целия разпит.
10:52
And if you ask someone honest
256
637000
2000
А ако попитате някой честен човек,
10:54
what should happen to whomever did forge those checks,
257
639000
3000
какво трябва да е наказанието за тези които са фалшифицирали онези чекове,
10:57
an honest person is much more likely
258
642000
2000
той би бил по-склонен да
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
препоръча строго вместо леко наказание.
11:03
Now let's say you're having that exact same conversation
260
648000
2000
Да предположим, че водите този същия разговор
11:05
with someone deceptive.
261
650000
2000
с някой, който мами.
11:07
That person may be withdrawn,
262
652000
2000
Този човек би бил по-сдържан,
11:09
look down, lower their voice,
263
654000
2000
свел глава, би говорил тихо,
11:11
pause, be kind of herky-jerky.
264
656000
2000
би паузирал, би бил непостоянен.
11:13
Ask a deceptive person to tell their story,
265
658000
2000
Помолете измамника да разкаже версията си,
11:15
they're going to pepper it with way too much detail
266
660000
3000
той би я украсил с твърде много подробности
11:18
in all kinds of irrelevant places.
267
663000
3000
за всякакви незначими моменти.
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
Би разказал версията си в строг хронологичен ред.
11:24
And what a trained interrogator does
269
669000
2000
Това което професионалистите правят
11:26
is they come in and in very subtle ways
270
671000
2000
е да се намесят и по много ловък начин
11:28
over the course of several hours,
271
673000
2000
в продължение на няколко часа,
11:30
they will ask that person to tell that story backwards,
272
675000
3000
да накарат човека да разкаже версията си на обратно,
11:33
and then they'll watch them squirm,
273
678000
2000
след което го гледат как се гърчи,
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
и следят кои въпроси пораждат най-много лъжи.
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
Защо го правят ли? Ами всички ние постъпваме по един и същи начин.
11:41
We rehearse our words,
276
686000
2000
Повтаряме думите си,
11:43
but we rarely rehearse our gestures.
277
688000
2000
но много рядко жестовете си.
11:45
We say "yes," we shake our heads "no."
278
690000
2000
Казваме "Да", а клатим главата си за "Не."
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
Разказваме убедителни истории, а леко свиваме рамене.
11:50
We commit terrible crimes,
280
695000
2000
Извършваме ужасни престъпления,
11:52
and we smile at the delight in getting away with it.
281
697000
3000
а удовлетворението ни, че ще се измъкнем ни кара да се усмихваме.
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
Тази усмивка в занаята е позната като "подвеждащо удовлетворение."
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
И ще видим това в няколко клипа по-нататък,
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
но ще започнем с -- за тези от вас които не го познават,
12:03
this is presidential candidate John Edwards
285
708000
3000
това е кандидат-президента Джон Едуардс,
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
който шокира Америка с извънбрачното си дете.
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
Ще видим как коментира бащинския тест.
12:12
See now if you can spot him
288
717000
2000
Опитайте се да забележите как
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
казва, "да," а с главата си казва "не,"
12:16
slightly shrugging his shoulders.
290
721000
2000
леко свива рамене.
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
(Видео) Джон Едуърдс: Ще се радвам да си направя тест за бащинство.
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
Сигурен съм, че не е възможно това дете да е мое,
12:23
because of the timing of events.
293
728000
2000
заради времето
12:25
So I know it's not possible.
294
730000
2000
по което се е случило това.
12:27
Happy to take a paternity test,
295
732000
2000
Бих се радвал да си направя тест,
12:29
and would love to see it happen.
296
734000
2000
и ще се радвам това да се случи.
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
Репортер: Ще го направите ли скоро? Има ли някой --
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
Дж. Е.: Е, аз съм само едната страна на този тест.
12:37
But I'm happy to participate in one.
299
742000
3000
Но бих се радвал да участвам в такъв.
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
П.М.: Добре, това въртене на главата се забелязва много по-лесно
12:42
once you know to look for them.
301
747000
2000
когато знаете какво да търсите.
12:44
There're going to be times
302
749000
2000
Има случаи
12:46
when someone makes one expression
303
751000
2000
в които някой прави едно изражение
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
за да замаскира друго, което изпуска неволно.
12:52
Murderers are known to leak sadness.
305
757000
2000
Убийците прикриват тъга.
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
Новият ви съдружник може да ви стисне ръка,
12:56
celebrate, go out to dinner with you
307
761000
2000
да празнува, да вечеря с вас
12:58
and then leak an expression of anger.
308
763000
3000
а всъщност да прикрива гнева си.
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
Няма да станем експерти по лицеви изражения за една нощ,
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
но има едно, което мога да ви покажа, и което е много опасно и лесно да се научи,
13:07
and that's the expression of contempt.
311
772000
3000
и това е изражението на презрение.
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
При гнева, имате двама души при равни условия.
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
Това донякъде е здравословна връзка.
13:15
But when anger turns to contempt,
314
780000
2000
Но когато гневът се превърне в презрение,
13:17
you've been dismissed.
315
782000
2000
тогава напълно ви пренебрегват.
13:19
It's associated with moral superiority.
316
784000
2000
Свързва се с морално превъзходство.
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
И поради тази причина е много, много трудно да се възстановиш от него.
13:24
Here's what it looks like.
318
789000
2000
Ето как изглежда.
13:26
It's marked by one lip corner
319
791000
2000
Разпознава се по повдигната
13:28
pulled up and in.
320
793000
2000
и прибрана навътре устна.
13:30
It's the only asymmetrical expression.
321
795000
3000
Това е единственото асиметрично изражение.
13:33
And in the presence of contempt,
322
798000
2000
А при наличие на презрение,
13:35
whether or not deception follows --
323
800000
2000
независимо дали има измама или не --
13:37
and it doesn't always follow --
324
802000
2000
а не винаги има --
13:39
look the other way, go the other direction,
325
804000
2000
обърнете гръб, отдръпнете се,
13:41
reconsider the deal,
326
806000
2000
премислете сделката,
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
кажете: "Не благодаря. Ще помисля още малко. Благодаря ви."
13:47
Science has surfaced
328
812000
2000
Науката е открила
13:49
many, many more indicators.
329
814000
2000
още много, много индикатори.
13:51
We know, for example,
330
816000
2000
Например знаем,
13:53
we know liars will shift their blink rate,
331
818000
2000
че лъжците сменят скоростта с която мигат,
13:55
point their feet towards an exit.
332
820000
2000
насочват стъпалата си към изхода.
13:57
They will take barrier objects
333
822000
2000
Поставят предмети като бариери
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
между тях и човекът, който ги разпитва.
14:02
They'll alter their vocal tone,
335
827000
2000
Всички сменят тона си,
14:04
often making their vocal tone much lower.
336
829000
3000
често стават по-тихи.
14:07
Now here's the deal.
337
832000
2000
Ето каква е равносметката.
14:09
These behaviors are just behaviors.
338
834000
3000
Тези поведения са просто поведения.
14:12
They're not proof of deception.
339
837000
2000
Те на са доказателство за измама.
14:14
They're red flags.
340
839000
2000
Те са индикатори.
14:16
We're human beings.
341
841000
2000
Ние сме човешки същества.
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
Постоянно правим жестове, които могат да са индикатор за измама.
14:21
They don't mean anything in and of themselves.
343
846000
2000
Сами по себе си те не значат нищо.
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
Но когато забележите струпвания на такива жестове, това е сигнал за вас.
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
Гледайте, слушайте, изследвайте, задавайте трудни въпроси,
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
излезте от състоянието в което си мислите, че знаете всичко,
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
активирайте любопитството си, задавайте повече въпроси,
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
имайте достойнство, отнасяйте се към събеседника си с разбиране.
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
Не се опитвайте да имитирате героите от "Закон и ред" и другите подобни телевизионни предавания,
14:41
that pummel their subjects into submission.
350
866000
2000
които подчиняват субектите си.
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
Не бъдете твърде агресивни, това не помага.
14:46
Now we've talked a little bit
352
871000
2000
Така, говорихме
14:48
about how to talk to someone who's lying
353
873000
2000
за това как да разговаряте с някой, който лъже
14:50
and how to spot a lie.
354
875000
2000
и как да разпознавате лъжата.
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
И както обещах, сега ще видим как изглежда истината.
14:55
But I'm going to show you two videos,
356
880000
2000
Но ще ви покажа два клипа,
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
две майки -- едната лъже, другата казва истината.
15:00
And these were surfaced
358
885000
2000
Те са разпространени
15:02
by researcher David Matsumoto in California.
359
887000
2000
от изследователя Дейвид Матсумото, от Калифорния.
15:04
And I think they're an excellent example
360
889000
2000
И мисля, че са чудесен пример
15:06
of what the truth looks like.
361
891000
2000
за това как изглежда истината.
15:08
This mother, Diane Downs,
362
893000
2000
Тази майка, Даян Доунс,
15:10
shot her kids at close range,
363
895000
2000
застреляла децата си от упор,
15:12
drove them to the hospital
364
897000
2000
закарали ги в болницата
15:14
while they bled all over the car,
365
899000
2000
докато кървяли в колата й
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
и твърдяла, че чорлав непознат е извършил престъплението.
15:18
And you'll see when you see the video,
367
903000
2000
А вие ще забележите, докато гледате видеото,
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
че тя дори не може да се преструва на агонизираща майка.
15:22
What you want to look for here
369
907000
2000
Това на което трябва да обърнете внимание в случая
15:24
is an incredible discrepancy
370
909000
2000
е невероятното несъответствие
15:26
between horrific events that she describes
371
911000
2000
между ужасните събития, които тя описва
15:28
and her very, very cool demeanor.
372
913000
2000
и изключително спокойното й поведение.
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
И ако се вгледате внимателно ще забележите "подвеждащо удовлетворение" по време на цялото видео.
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
(Видео) Даян Доунс: Нощем, когато затворя очи,
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
виждам как Кристи протяга ръка към мен, докато шофирам,
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
а кръвта продължава да излиза от устата й.
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
А това -- може би ще избледее с времето --
15:43
but I don't think so.
378
928000
2000
но аз не мисля така.
15:45
That bothers me the most.
379
930000
3000
Това ме безпокои най-много.
15:55
PM: Now I'm going to show you a video
380
940000
2000
П.М.: Сега ще ви покажа клип
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
на една майка, която наистина скърби, Ерин Ръниън,
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
докато се изправя пред убиецът и мъчителят на нейната дъщеря в съда.
16:03
Here you're going to see no false emotion,
383
948000
2000
Тук няма да видите фалшиви емоции,
16:05
just the authentic expression of a mother's agony.
384
950000
3000
просто автентичния израз на майчината агония.
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
(Видео) Ерин Ръниън: Написах тези показания на третата годишнина
16:10
of the night you took my baby,
386
955000
2000
от нощта в която отвлече детето ми,
16:12
and you hurt her,
387
957000
2000
и я нарани,
16:14
and you crushed her,
388
959000
2000
и я смачка,
16:16
you terrified her until her heart stopped.
389
961000
4000
ужаси я, докато сърцето й не спря.
16:20
And she fought, and I know she fought you.
390
965000
3000
А тя се е борила, аз знам че се съпротивлявала.
16:23
But I know she looked at you
391
968000
2000
Знам че те е погледнала
16:25
with those amazing brown eyes,
392
970000
2000
с онези невероятни кафяви очи,
16:27
and you still wanted to kill her.
393
972000
3000
а ти все още си искал да я убиеш.
16:30
And I don't understand it,
394
975000
2000
И аз не го разбирам,
16:32
and I never will.
395
977000
3000
и никога няма да го разбера.
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
П.М.: Добре, няма съмнение за истинността на тези емоции.
16:39
Now the technology around what the truth looks like
397
984000
3000
Технологията, която разпознава истината
16:42
is progressing on, the science of it.
398
987000
3000
се развива, в научно отношение.
16:45
We know for example
399
990000
2000
Знаем например,
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
че вече разполагаме със скенери за очи и инфрачервени мозъчни скенери,
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
ЯМР-и които могат да декодират сигналите, които нашите тела изпращат,
16:53
when we're trying to be deceptive.
402
998000
2000
когато се опитваме да мамим.
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
И тези технологии, ще ни бъдат предложени, на всички нас
16:58
as panaceas for deceit,
404
1003000
2000
като лек за лъжата,
17:00
and they will prove incredibly useful some day.
405
1005000
3000
и някой ден ще се докажат като изключително полезни.
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
Не междувременно се запитайте:
17:05
Who do you want on your side of the meeting,
407
1010000
2000
Кой искате да е с вас по време на срещата,
17:07
someone who's trained in getting to the truth
408
1012000
3000
човек обучен да открива истината,
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
или човек, който ще замъкне 200-килограмов електроенцефалограм
17:12
through the door?
410
1017000
2000
през вратата?
17:14
Liespotters rely on human tools.
411
1019000
4000
Хората разпознаващи лъжата разчитат на човешки инструменти.
17:18
They know, as someone once said,
412
1023000
2000
Те знаят, че както някой някога е казал:
17:20
"Character's who you are in the dark."
413
1025000
2000
"Характерът е това което си на тъмно."
17:22
And what's kind of interesting
414
1027000
2000
А това, което е интересно е, че
17:24
is that today we have so little darkness.
415
1029000
2000
днес толкова малко неща остават скрити.
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
Светът ни е осветен по 24 часа в денонощието.
17:29
It's transparent
417
1034000
2000
Той е прозрачен,
17:31
with blogs and social networks
418
1036000
2000
заради блоговете и социалните мрежи,
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
които са израз на цяло едно ново поколение,
17:35
that have made a choice to live their lives in public.
420
1040000
3000
което е избрало да живее живота си на светло.
17:38
It's a much more noisy world.
421
1043000
4000
Този свят е много по-шумен.
17:42
So one challenge we have
422
1047000
2000
Така че едно от предизвикателствата пред нас
17:44
is to remember,
423
1049000
2000
е да запомним,
17:46
oversharing, that's not honesty.
424
1051000
3000
че прекомерното споделяне не е честност.
17:49
Our manic tweeting and texting
425
1054000
2000
Нашата мания за споделяне
17:51
can blind us to the fact
426
1056000
2000
може да ни остави слепи за факта,
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
че това което все още има значение са тънкостите на човешкото благоприличие --
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
целостта на характера, това е което винаги ще има значение.
17:59
So in this much noisier world,
429
1064000
2000
Така че в този доста по-шумен свят,
18:01
it might make sense for us
430
1066000
2000
за нас може да има логика в това
18:03
to be just a little bit more explicit
431
1068000
2000
да бъдем малко по-категорични
18:05
about our moral code.
432
1070000
3000
относно нашия морален кодекс.
18:08
When you combine the science of recognizing deception
433
1073000
2000
Когато съчетаете науката за разпознаване на измамата
18:10
with the art of looking, listening,
434
1075000
2000
с изкуството на гледането, вслушването,
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
се освобождавате от това да участвате в лъжа.
18:15
You start up that path
436
1080000
2000
Започвате да ставате
18:17
of being just a little bit more explicit,
437
1082000
2000
малко по-категорични,
18:19
because you signal to everyone around you,
438
1084000
2000
защото давате сигнал на всички около вас,
18:21
you say, "Hey, my world, our world,
439
1086000
3000
казвате: "Хей, моят свят, нашият свят,
18:24
it's going to be an honest one.
440
1089000
2000
ще бъде честен.
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
В моят свят истината ще бъде заздравена,
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
а лъжата разкрита и маргинализирана."
18:31
And when you do that,
443
1096000
2000
И когато направите това,
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
земята около вас ще се размести леко.
18:36
And that's the truth. Thank you.
445
1101000
3000
И това е истината. Благодаря ви.
18:39
(Applause)
446
1104000
5000
(Аплодисменти)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com