TEDGlobal 2011
Pamela Meyer: How to spot a liar
Памела Мейер: Як розпізнати брехуна
Filmed:
Readability: 3.8
28,415,176 views
Кожного дня ми чуємо брехню від 10 до 200 разів, але не так легко розпізнати, коли саме нас обманюють. Памела Мейер, автор книги "Liespotting" ("Розпізнання брехні") розповідає, яка поведінка і "слабкі місця" привертають увагу фахівців із виявлення брехні. І стверджує, що бути чесним - справді варто.
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
Гаразд, я не хочу лякати нікого з вас,
00:20
but it's just come to my attention
1
5000
2000
але я щойно помітила,
00:22
that the person to your right is a liar.
2
7000
2000
що особа праворуч від вас - брехун.
00:24
(Laughter)
3
9000
2000
(Сміх)
00:26
Also, the person to your left is a liar.
4
11000
3000
Особа ліворуч також брехун.
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
І той, хто сидить у вашому кріслі - також брехун.
00:32
We're all liars.
6
17000
2000
Ми всі брехуни.
00:34
What I'm going to do today
7
19000
2000
Сьогодні я розповім вам,
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
чому, згідно з дослідженнями, ми всі брехуни,
00:39
how you can become a liespotter
9
24000
2000
як ви можете виявити брехню,
00:41
and why you might want to go the extra mile
10
26000
3000
і чому ви могли б докласти зусиль
00:44
and go from liespotting to truth seeking,
11
29000
3000
і перейти від розпізнання брехні до пошуку правди
00:47
and ultimately to trust building.
12
32000
2000
і, врешті, до зміцнення довіри.
00:49
Now speaking of trust,
13
34000
3000
Отож, про довіру.
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
Після того, як я написала книжку "Розпізнання брехні",
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
ніхто більше не хоче зустрічатись зі мною, ні, ні, ні, ні, ні.
00:58
They say, "It's okay, we'll email you."
16
43000
3000
Кажуть, "Все гаразд. Ми надішлемо вам листа".
01:01
(Laughter)
17
46000
2000
(Сміх)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
Я навіть не можу піти з кимось на каву в "Starbucks".
01:07
My husband's like, "Honey, deception?
19
52000
2000
Мій чоловік каже, "Кохана, обман?
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
Може, краще займись готуванням їжі. Як щодо французької кухні?"
01:12
So before I get started, what I'm going to do
21
57000
2000
Отож, спочатку
01:14
is I'm going to clarify my goal for you,
22
59000
3000
я розповім вам про свою мету.
01:17
which is not to teach a game of Gotcha.
23
62000
2000
Ні, я не вчитиму вас гри "Піймався!"
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
Розпізнавачі брехні - це не ті малі бешкетники,
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
які вистрибують зі схованки, вигукуючи, "Піймався! Піймався!
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
Ти смикнув бровою. Ти роздув ніздрі.
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
Я дивлюся серіал "Теорія брехні". Я знаю, що ти брешеш".
01:30
No, liespotters are armed
28
75000
2000
Ні, розпізнавачі брехні озброєні
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
науковим знанням, як виявити обман.
01:35
They use it to get to the truth,
30
80000
2000
Вони дошукуються правди
01:37
and they do what mature leaders do everyday;
31
82000
2000
і діють як талановиті лідери:
01:39
they have difficult conversations with difficult people,
32
84000
3000
ведуть складні розмови зі складними людьми,
01:42
sometimes during very difficult times.
33
87000
2000
інколи у дуже складний час.
01:44
And they start up that path
34
89000
2000
Вони стають на цей шлях,
01:46
by accepting a core proposition,
35
91000
2000
погодившись із
01:48
and that proposition is the following:
36
93000
2000
найголовнішим твердженням:
01:50
Lying is a cooperative act.
37
95000
3000
брехня - це спільний вчинок.
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
Задумайтесь - брехня безсила, якщо її лише вимовили.
01:57
Its power emerges
39
102000
2000
Вона набуває сили,
01:59
when someone else agrees to believe the lie.
40
104000
2000
коли хтось інший погоджується в неї вірити.
02:01
So I know it may sound like tough love,
41
106000
2000
Сказано жорстоко, але з добрими намірами.
02:03
but look, if at some point you got lied to,
42
108000
4000
Якщо вам збрехали,
02:07
it's because you agreed to get lied to.
43
112000
2000
значить ви на це погодились.
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
Правда номер один про брехню: брехня - це спільний вчинок.
02:12
Now not all lies are harmful.
45
117000
2000
Але не всяка брехня згубна.
02:14
Sometimes we're willing participants in deception
46
119000
3000
Деколи ми охоче надаємось до обману
02:17
for the sake of social dignity,
47
122000
3000
заради соціальної гідності
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
або щоб зберегти таємницю.
02:23
We say, "Nice song."
49
128000
2000
Ми кажемо, "Гарна пісня".
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
"Кохана, ця річ тебе не повнить, справді".
02:28
Or we say, favorite of the digiratti,
51
133000
2000
А найкраща відмовка кібер-еліти -
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
"Знаєш, я щойно виловив твого листа з папки зі спамом.
02:33
So sorry."
53
138000
3000
Дуже шкода".
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
Але часом ми стаємо мимовільними учасниками обману.
02:39
And that can have dramatic costs for us.
55
144000
3000
І це може нам обійтися дуже дорого.
02:42
Last year saw 997 billion dollars
56
147000
3000
Торік корпоративне шахрайство в самих лише Сполучених Штатах
02:45
in corporate fraud alone in the United States.
57
150000
4000
коштувало 997 мільярдів доларів.
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
Ще дрібка - і був би трильйон доларів.
02:51
That's seven percent of revenues.
59
156000
2000
Це сім відсотків від річного доходу.
02:53
Deception can cost billions.
60
158000
2000
Обман може коштувати мільярди.
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
Згадайте компанії Енрон і Медофф, іпотечну кризу.
02:58
Or in the case of double agents and traitors,
62
163000
3000
Коли йдеться про подвійних агентів і зрадників,
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
як-от Роберт Гансен або Олдріч Еймс,
03:03
lies can betray our country,
64
168000
2000
брехня може зрадити нашу країну,
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
поставити під загрозу нашу безпеку, підірвати демократію,
03:08
they can cause the deaths of those that defend us.
66
173000
3000
призвести до загибелі наших захисників.
03:11
Deception is actually serious business.
67
176000
3000
Обман - це насправді серйозна річ.
03:14
This con man, Henry Oberlander,
68
179000
2000
Шахрай Генрі Оберландер
03:16
he was such an effective con man
69
181000
2000
був настільки майстерним,
03:18
British authorities say
70
183000
2000
що, за словами британської влади,
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
міг зруйнувати цілісіньку банківську систему Заходу.
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
Але ви не знайдете його в "Google"; ви ніде його не знайдете.
03:25
He was interviewed once, and he said the following.
73
190000
3000
Одного разу в нього взяли інтерв'ю.
03:28
He said, "Look, I've got one rule."
74
193000
2000
Він сказав, "У мене є одне правило".
03:30
And this was Henry's rule, he said,
75
195000
3000
Ось правило Генрі:
03:33
"Look, everyone is willing to give you something.
76
198000
2000
"Кожен хоче вам щось дати.
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
Кожен готовий вам щось дати за те, що він прагне отримати навзамін".
03:38
And that's the crux of it.
78
203000
2000
От у чім суть.
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
Якщо ви не хочете, щоб вас обманули, ви мусите знати,
03:42
what is it that you're hungry for?
80
207000
2000
чого ви прагнете.
03:44
And we all kind of hate to admit it.
81
209000
3000
Ми всі не хочемо цього визнати.
03:47
We wish we were better husbands, better wives,
82
212000
3000
Ми б хотіли бути кращим чоловіком чи дружиною,
03:50
smarter, more powerful,
83
215000
2000
розумнішими, сильнішими,
03:52
taller, richer --
84
217000
2000
вищими, багатшими -
03:54
the list goes on.
85
219000
2000
і далі по списку.
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
Брехня - це спроба подолати цю розбіжність,
03:58
to connect our wishes and our fantasies
87
223000
2000
звести наші бажання і фантазії
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
про те, ким би ми хотіли бути, якими б ми хотіли бути,
04:03
with what we're really like.
89
228000
3000
з тим, якими ми є насправді.
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
Ми страшенно хочемо заповнити ці прогалини брехнею.
04:09
On a given day, studies show that you may be lied to
91
234000
3000
Згідно з дослідженнями, кожного дня
04:12
anywhere from 10 to 200 times.
92
237000
2000
ми чуємо брехню від 10 до 200 разів.
04:14
Now granted, many of those are white lies.
93
239000
3000
Припустімо, що це здебільшого невинна брехня.
04:17
But in another study,
94
242000
2000
Але інша розвідка засвідчила,
04:19
it showed that strangers lied three times
95
244000
2000
що нейзнайомці збрехали тричі
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
за перших десять хвилин зустрічі.
04:23
(Laughter)
97
248000
2000
(Сміх)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
Спочатку ці дані викликають в нас огиду.
04:28
We can't believe how prevalent lying is.
99
253000
2000
Ми не ймемо віри, наскільки поширена брехня.
04:30
We're essentially against lying.
100
255000
2000
Ми в принципі проти брехні.
04:32
But if you look more closely,
101
257000
2000
Але придивімось уважніше -
04:34
the plot actually thickens.
102
259000
2000
що далі, то цікавіше.
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
Ми частіше брешемо незнайомцям, ніж колегам.
04:39
Extroverts lie more than introverts.
104
264000
4000
Екстраверти брешуть частіше, ніж інтроверти.
04:43
Men lie eight times more about themselves
105
268000
3000
Чоловіки брешуть у вісім разів частіше про самих себе,
04:46
than they do other people.
106
271000
2000
ніж обманюють інших.
04:48
Women lie more to protect other people.
107
273000
3000
Жінки частіше брешуть, щоб захистити інших.
04:51
If you're an average married couple,
108
276000
3000
Якщо ви - звичайне подружжя,
04:54
you're going to lie to your spouse
109
279000
2000
то ви брешете своєму чоловікові або дружині
04:56
in one out of every 10 interactions.
110
281000
2000
в одній із десяти розмов.
04:58
Now you may think that's bad.
111
283000
2000
Може, ви думаєте, що це погано.
05:00
If you're unmarried, that number drops to three.
112
285000
2000
Якщо ви неодружені, то брешете в одній із трьох розмов.
05:02
Lying's complex.
113
287000
2000
Брехня - це складне явище.
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
Вона тісно переплетена з нашим щоденним і діловим життям.
05:07
We're deeply ambivalent about the truth.
115
292000
2000
Ми геть неоднозначно ставимось до правди.
05:09
We parse it out on an as-needed basis,
116
294000
2000
Ми виділяємо її за потреби,
05:11
sometimes for very good reasons,
117
296000
2000
інколи з дуже добрих причин,
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
а деколи тому, що не розуміємо розбіжностей у своєму житті.
05:16
That's truth number two about lying.
119
301000
2000
Це правда номер два про брехню.
05:18
We're against lying,
120
303000
2000
Ми проти брехні,
05:20
but we're covertly for it
121
305000
2000
але потайки - за неї.
05:22
in ways that our society has sanctioned
122
307000
2000
Адже суспільство схвалює це
05:24
for centuries and centuries and centuries.
123
309000
2000
з незапам'ятної давнини.
05:26
It's as old as breathing.
124
311000
2000
Брехня стара як світ.
05:28
It's part of our culture, it's part of our history.
125
313000
2000
Це частина нашої культури, це частина нашої історії.
05:30
Think Dante, Shakespeare,
126
315000
3000
Згадайте Данте, Шекспіра,
05:33
the Bible, News of the World.
127
318000
3000
Біблію, бульварну газету "News Of The World".
05:36
(Laughter)
128
321000
2000
(Сміх)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
Брехня відіграла роль в еволюції людини як біологічного виду.
05:40
Researchers have long known
130
325000
2000
Науковці давно знають,
05:42
that the more intelligent the species,
131
327000
2000
що чим розумніший біологічний вид,
05:44
the larger the neocortex,
132
329000
2000
тим більша в нього нова кора головного мозку,
05:46
the more likely it is to be deceptive.
133
331000
2000
і тим більша схильність до брехні.
05:48
Now you might remember Koko.
134
333000
2000
Можливо, ви пригадуєте горилу Коко.
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
Чи хтось пам'ятає горилу Коко, яка опанувала мову жестів?
05:53
Koko was taught to communicate via sign language.
136
338000
3000
Коко навчили спілкуватись мовою жестів.
05:56
Here's Koko with her kitten.
137
341000
2000
Ось Коко зі своїм кошеням.
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
Це її гарненьке, пухнасте кошеня.
06:01
Koko once blamed her pet kitten
139
346000
2000
Одного разу, Коко докоряла кошеняті,
06:03
for ripping a sink out of the wall.
140
348000
2000
за те, що воно зірвало умивальник зі стіни.
06:05
(Laughter)
141
350000
2000
(Сміх)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
Ми "запрограмовані" стати лідерами зграї.
06:09
It's starts really, really early.
143
354000
2000
Усе починається рано, дуже рано.
06:11
How early?
144
356000
2000
Наскільки рано?
06:13
Well babies will fake a cry,
145
358000
2000
Ну от немовлята зумисне заплачуть,
06:15
pause, wait to see who's coming
146
360000
2000
зупиняться, подивляться, чи хтось до них йде,
06:17
and then go right back to crying.
147
362000
2000
і знову плакатимуть.
06:19
One-year-olds learn concealment.
148
364000
2000
Однорічні дітки вчаться приховувати.
06:21
(Laughter)
149
366000
2000
(Сміх)
06:23
Two-year-olds bluff.
150
368000
2000
Дворічні - обманювати.
06:25
Five-year-olds lie outright.
151
370000
2000
П'ятирічні - відверто брехати.
06:27
They manipulate via flattery.
152
372000
2000
Вони маніпулюють лестощами.
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
Дев'ятирічні майстерно приховують свої вчинки.
06:32
By the time you enter college,
154
377000
2000
Вступивши до коледжу,
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
ви брехатимете своїй мамі в одній із п'яти розмов.
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
Коли ми починаємо працювати і стаємо годувальниками,
06:40
we enter a world that is just cluttered
157
385000
2000
ми входимо у засмічений світ, який захарастили
06:42
with spam, fake digital friends,
158
387000
2000
спам, удавані віртуальні друзі,
06:44
partisan media,
159
389000
2000
заангажовані медіа,
06:46
ingenious identity thieves,
160
391000
2000
винахідливі грабіжники особистих даних,
06:48
world-class Ponzi schemers,
161
393000
2000
вмілі послідовники схем Понзі,
06:50
a deception epidemic --
162
395000
2000
епідемія обману -
06:52
in short, what one author calls
163
397000
2000
коротше, усе те, що один письменник називає
06:54
a post-truth society.
164
399000
3000
пост-правдивим суспільством.
06:57
It's been very confusing
165
402000
2000
Ця ситуація бентежить нас
06:59
for a long time now.
166
404000
3000
уже віддавна.
07:03
What do you do?
167
408000
2000
Що ж робити?
07:05
Well there are steps we can take
168
410000
2000
Можемо зробити певні кроки,
07:07
to navigate our way through the morass.
169
412000
2000
прокладаючи собі шлях через болото.
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
Вишколені розпізнавачі брехні дошукуються правди у 90 відсотках випадків.
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
Решта з нас - лише у 54 відсотках.
07:15
Why is it so easy to learn?
172
420000
2000
Чому цього так легко навчитись?
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
Існують добрі брехуни і погані брехуни. Немає направду вроджених брехунів.
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
Ми всі робимо однакові помилки. Ми всі вдаємось до однакових прийомів.
07:23
So what I'm going to do
175
428000
2000
Отож зараз
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
я покажу вам дві схеми обману.
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
Потім ми подивимось на "слабкі місця" і спробуємо самі їх знайти.
07:30
We're going to start with speech.
178
435000
3000
Почнімо з промови.
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
(Відео) Білл Клінтон: Я хочу, щоб ви вислухали мене.
07:35
I'm going to say this again.
180
440000
2000
Я повторю це знову.
07:37
I did not have sexual relations
181
442000
3000
У мене не було статевого зв'язку
07:40
with that woman, Miss Lewinsky.
182
445000
4000
з тією жінкою, панною Левінскі.
07:44
I never told anybody to lie,
183
449000
2000
Я ніколи нікому не наказував брехати,
07:46
not a single time, never.
184
451000
2000
жодного разу, ніколи.
07:48
And these allegations are false.
185
453000
3000
Ці заяви фальшиві.
07:51
And I need to go back to work for the American people.
186
456000
2000
А тепер я мушу повернутись до роботи на благо народу Америки.
07:53
Thank you.
187
458000
2000
Дякую.
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
Памела Мейер: Отже, що свідчить про обман?
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
Спочатку ми чули так зване нескорочене заперечення.
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
Науковці кажуть, що люди, які всіляко прагнуть щось спростувати,
08:08
will resort to formal rather than informal language.
191
473000
3000
вживають радше формальну, ніж неформальну, лексику.
08:11
We also heard distancing language: "that woman."
192
476000
3000
Ми також чули мову дистанціювання: "з тією жінкою".
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
Ми знаємо, що брехуни підсвідомо відгороджуватимуть себе
08:16
from their subject
194
481000
2000
від теми розмови,
08:18
using language as their tool.
195
483000
3000
використовуючи для цього мову.
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
Якби Білл Клінтон сказав, "Ну, правду кажучи..."
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
або улюблену фразу Річарда Ніксона, "Скажу відверто..."
08:26
he would have been a dead giveaway
198
491000
2000
він би відразу дався до рук
08:28
for any liespotter than knows
199
493000
2000
всякого розпізнавача брехні, який знає,
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
що так звана мова уточнення
08:33
further discredits the subject.
201
498000
2000
викликає ще більшу недовіру до промовця.
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
А якби він ще раз повністю повторив запитання,
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
або якби пересипав свою розповідь масою деталей -
08:42
and we're all really glad he didn't do that --
204
507000
2000
ми радіємо, що він цього не зробив -
08:44
he would have further discredited himself.
205
509000
2000
він викликав би ще більшу недовіру.
08:46
Freud had it right.
206
511000
2000
Фройд мав рацію.
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
Фройд сказав: насправді, йдеться не тільки про слова:
08:51
"No mortal can keep a secret.
208
516000
3000
"Жоден смертний не здатний зберігати секрет.
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
Якщо мовчать його губи, говорять кінчики пальців".
08:57
And we all do it no matter how powerful you are.
210
522000
3000
Ми всі це робимо, незалежно від статусу.
09:00
We all chatter with our fingertips.
211
525000
2000
Ми всі говоримо кінчиками пальців.
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
Я покажу вам як Домінік Стросс-Кан розмовляє з Обамою,
09:05
who's chattering with his fingertips.
213
530000
3000
який говорить кінчиками пальців.
09:08
(Laughter)
214
533000
3000
(Сміх)
09:11
Now this brings us to our next pattern,
215
536000
3000
Це підвело нас до наступної схеми -
09:14
which is body language.
216
539000
3000
мови тіла.
09:17
With body language, here's what you've got to do.
217
542000
3000
Ось що вам слід зробити з мовою тіла.
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
Відкиньте геть свої припущення.
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
Хай наука підшліфує ваші знання.
09:25
Because we think liars fidget all the time.
220
550000
3000
Адже ми думаємо, що брехуни весь час метушаться.
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
А тепер уявіть собі - вони навчились "заморожувати" верхню частину тіла.
09:31
We think liars won't look you in the eyes.
222
556000
3000
Ми гадаємо, що брехуни не дивляться прямо у вічі.
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
Уявіть собі, вони дивляться прямо у вічі навіть трохи довше,
09:36
just to compensate for that myth.
224
561000
2000
пам'ятаючи про цей міф.
09:38
We think warmth and smiles
225
563000
2000
Ми думаємо, що тепле ставлення та усмішки
09:40
convey honesty, sincerity.
226
565000
2000
виражають чесність і щирість.
09:42
But a trained liespotter
227
567000
2000
Але фаховий розпізнавач брехні
09:44
can spot a fake smile a mile away.
228
569000
2000
за кілометр побачить удавану посмішку.
09:46
Can you all spot the fake smile here?
229
571000
3000
Чи всі ви бачите тут удавану посмішку?
09:50
You can consciously contract
230
575000
2000
Можна свідомо скорочувати
09:52
the muscles in your cheeks.
231
577000
3000
м'язи щоки.
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
Але справжня усмішка - в очах, у "гусячих лапках" біля очей.
09:58
They cannot be consciously contracted,
233
583000
2000
Їх не можна навмисне скоротити,
10:00
especially if you overdid the Botox.
234
585000
2000
особливо, якщо ви переборщили з Ботоксом.
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
Не зловживайте Ботоксом; ніхто вам не буде вірити.
10:05
Now we're going to look at the hot spots.
236
590000
2000
Тепер подивимось на "слабкі місця".
10:07
Can you tell what's happening in a conversation?
237
592000
2000
Ви можете сказати, що відбувається під час розмови?
10:09
Can you start to find the hot spots
238
594000
3000
Можете знайти "слабкі місця"
10:12
to see the discrepancies
239
597000
2000
і невідповідності
10:14
between someone's words and someone's actions?
240
599000
2000
між чиїмись словами і діями?
10:16
Now I know it seems really obvious,
241
601000
2000
Це звучить банально,
10:18
but when you're having a conversation
242
603000
2000
але коли ви розмовляєте
10:20
with someone you suspect of deception,
243
605000
3000
з особою, яку підозрюєте в обмані,
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
її ставлення найбільш промовисте.
10:26
An honest person is going to be cooperative.
245
611000
2000
Чесна людина буде йти вам назустріч.
10:28
They're going to show they're on your side.
246
613000
2000
Вона показуватиме, що вона на вашому боці.
10:30
They're going to be enthusiastic.
247
615000
2000
Буде сповнена ентузіазму.
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
Буде всіляко сприяти вам у пошуку правди.
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
Вона охоче шукатиме розв'язок, називатиме підозрюваних,
10:37
provide details.
250
622000
2000
розповість подробиці.
10:39
They're going to say, "Hey,
251
624000
2000
Вона скаже, "Слухай,
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
може це хтось із відділу заробітної плати підробив ті чеки".
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
Вона розлютується, якщо почує безпідставні звинувачення.
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
І лютуватиме протягом усієї бесіди, а не в окремі моменти;
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
вона лютуватиме протягом усієї бесіди.
10:52
And if you ask someone honest
256
637000
2000
А якщо ви запитаєте чесну особу,
10:54
what should happen to whomever did forge those checks,
257
639000
3000
як покарати осіб, які підробили чеки - ким би вони не були -
10:57
an honest person is much more likely
258
642000
2000
чесна людина швидше за все
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
порадить строге, а не м'яке, покарання.
11:03
Now let's say you're having that exact same conversation
260
648000
2000
Тепер уявіть, що ви маєте ту ж саму розмову
11:05
with someone deceptive.
261
650000
2000
з ошуканцем.
11:07
That person may be withdrawn,
262
652000
2000
Ця замкнена людина,
11:09
look down, lower their voice,
263
654000
2000
яка опустила очі, стишила голос,
11:11
pause, be kind of herky-jerky.
264
656000
2000
робить паузи, і взагалі дриґається.
11:13
Ask a deceptive person to tell their story,
265
658000
2000
Попросіть ошуканця розповісти свою історію.
11:15
they're going to pepper it with way too much detail
266
660000
3000
Вони пересиплять її зайвими деталями
11:18
in all kinds of irrelevant places.
267
663000
3000
у всіх невідповідних місцях.
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
І розкажуть свою історію у строгому хронологічному порядку.
11:24
And what a trained interrogator does
269
669000
2000
Майстерний слідчий робить ось що:
11:26
is they come in and in very subtle ways
270
671000
2000
приходить і дуже делікатно,
11:28
over the course of several hours,
271
673000
2000
через кілька годин,
11:30
they will ask that person to tell that story backwards,
272
675000
3000
просить цю особу розповісти історію у зворотньому порядку.
11:33
and then they'll watch them squirm,
273
678000
2000
Дивиться, як вона корчиться,
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
і задає питання, які видають на-гора найвідвертішу брехню.
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
Навіщо вони так роблять? Але ж ми всі так робимо.
11:41
We rehearse our words,
276
686000
2000
Ми повторюємо слова,
11:43
but we rarely rehearse our gestures.
277
688000
2000
але рідко повторюємо жести.
11:45
We say "yes," we shake our heads "no."
278
690000
2000
Кажемо, "Так", а головою хитаємо "Ні".
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
Розповідаємо дуже переконливі історії і мимоволі знизуємо плечима.
11:50
We commit terrible crimes,
280
695000
2000
Чинимо жахливі злочини
11:52
and we smile at the delight in getting away with it.
281
697000
3000
і посміхаємось, радісно очікуючи, що вийдемо сухими з води.
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
Фахівці називають цю посмішку "захватом ошуканства".
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
Ми побачимо її у кількох наступних відео.
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
Якщо хтось не знає цього чоловіка -
12:03
this is presidential candidate John Edwards
285
708000
3000
це кандидат на посаду президента США Джон Едвардс,
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
який шокував Америку, визнавши свою позашлюбну дитину.
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
На відео він говорить про тест на батьківство.
12:12
See now if you can spot him
288
717000
2000
Спробуйте зловити момент, коли
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
він каже "так", хитаючи головою "ні",
12:16
slightly shrugging his shoulders.
290
721000
2000
злегка знизуючи плечима.
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
(Відео) Джон Едвардс: Я охоче зроблю тест.
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
Я знаю, що це не може бути моя дитина,
12:23
because of the timing of events.
293
728000
2000
бо факти не сходяться в часі.
12:25
So I know it's not possible.
294
730000
2000
Тому я знаю, що це неможливо.
12:27
Happy to take a paternity test,
295
732000
2000
Я охоче зроблю тест на батьківство
12:29
and would love to see it happen.
296
734000
2000
і з радістю дізнаюсь про його результати.
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
Журналіст: Ви його невдовзі зробите? Чи хтось -
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
ДЕ: Ну, я ж тільки одна сторона. Я тільки одна сторона тесту.
12:37
But I'm happy to participate in one.
299
742000
3000
Але я охоче його зроблю.
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
ПМ: Справді, легше помітити, як він хитає головою,
12:42
once you know to look for them.
301
747000
2000
якщо за цим спеціально слідкувати.
12:44
There're going to be times
302
749000
2000
Буває, що
12:46
when someone makes one expression
303
751000
2000
під одним виразом обличчя
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
замаскований зовсім інший, який немов просочується назовні.
12:52
Murderers are known to leak sadness.
305
757000
2000
З убивці сочиться смуток.
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
Ваш новий бізнес-партнер тисне вам руку,
12:56
celebrate, go out to dinner with you
307
761000
2000
святкує, іде з вами на вечерю,
12:58
and then leak an expression of anger.
308
763000
3000
а на його обличчі проступає злість.
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
За один вечір ви не станете фахівцями з виразу обличчя,
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
але я розповім вам про дуже небезпечний вираз, який легко виявити -
13:07
and that's the expression of contempt.
311
772000
3000
вираз зневаги.
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
Якщо йдеться про злість, то маємо двох людей на рівних умовах.
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
Це ще доволі здорові стосунки.
13:15
But when anger turns to contempt,
314
780000
2000
Але якщо злість перетворилась у зневагу -
13:17
you've been dismissed.
315
782000
2000
вас відцуралися.
13:19
It's associated with moral superiority.
316
784000
2000
Це пов'язано з моральною перевагою.
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
І тому це страшенно складно пережити.
13:24
Here's what it looks like.
318
789000
2000
Ось як це виглядає.
13:26
It's marked by one lip corner
319
791000
2000
Куточок вуст
13:28
pulled up and in.
320
793000
2000
піднято догори і всередину.
13:30
It's the only asymmetrical expression.
321
795000
3000
Це єдиний асиметричний вираз обличчя.
13:33
And in the presence of contempt,
322
798000
2000
Якщо ви відчуваєте зневагу,
13:35
whether or not deception follows --
323
800000
2000
обманюють вас при цьому чи ні -
13:37
and it doesn't always follow --
324
802000
2000
хоч обманюють не завжди -
13:39
look the other way, go the other direction,
325
804000
2000
подивіться в інший бік, змініть напрямок руху,
13:41
reconsider the deal,
326
806000
2000
змініть своє рішення,
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
скажіть, "Ні, дякую. Мушу відмовитись від чарочки спиртного на ніч. Спасибі."
13:47
Science has surfaced
328
812000
2000
Наука виявила
13:49
many, many more indicators.
329
814000
2000
силу-силенну інших ознак.
13:51
We know, for example,
330
816000
2000
Так, ми знаємо, що
13:53
we know liars will shift their blink rate,
331
818000
2000
брехуни частіше кліпають очима,
13:55
point their feet towards an exit.
332
820000
2000
а носаки їх черевиків звернені до виходу.
13:57
They will take barrier objects
333
822000
2000
Вони візьмуть якусь річ
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
і поставлять її як перешкоду між собою та своїм співрозмовником.
14:02
They'll alter their vocal tone,
335
827000
2000
Вони змінюють тон голосу,
14:04
often making their vocal tone much lower.
336
829000
3000
і часто говорять низьким голосом.
14:07
Now here's the deal.
337
832000
2000
Справа ось у чому.
14:09
These behaviors are just behaviors.
338
834000
3000
Такі дії це тільки дії.
14:12
They're not proof of deception.
339
837000
2000
Це не доказ обману.
14:14
They're red flags.
340
839000
2000
Вони немов червоний прапор.
14:16
We're human beings.
341
841000
2000
Усі ми люди.
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
Цілісінький день ми робимо оманливі метушливі рухи.
14:21
They don't mean anything in and of themselves.
343
846000
2000
Самі собою вони нічого не означають.
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
Але цілий набір таких рухів - це сигнал для вас.
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
Дивіться, слухайте, вивідуйте, ставте складні питання,
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
покиньте комфортний стан обізнаності,
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
станьте допитливим, питайте більше,
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
поводьтеся з гідністю, намагайтесь налагодити взаєморозуміння.
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
Не беріть приклад із героїв серіалу "Закон і порядок" та інших телевізійних шоу,
14:41
that pummel their subjects into submission.
350
866000
2000
які змушують своїх співрозмовників до послуху.
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
Не будьте занадто агресивними, це нічого не дасть.
14:46
Now we've talked a little bit
352
871000
2000
Отож, ви вже трохи дізнались
14:48
about how to talk to someone who's lying
353
873000
2000
про те, як розмовляти з брехунами
14:50
and how to spot a lie.
354
875000
2000
і як розпізнати брехню.
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
А тепер, як я обіцяла, ми подивимось, як виглядає правда.
14:55
But I'm going to show you two videos,
356
880000
2000
Я покажу вам два ролики:
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
двох матерів, одна з яких обманює, а інша - каже правду.
15:00
And these were surfaced
358
885000
2000
Записи надав
15:02
by researcher David Matsumoto in California.
359
887000
2000
дослідник Девід Мацумото з Каліфорнії.
15:04
And I think they're an excellent example
360
889000
2000
Ці відео чудово показують,
15:06
of what the truth looks like.
361
891000
2000
як виглядає правда.
15:08
This mother, Diane Downs,
362
893000
2000
Ця мати, Даян Даунс,
15:10
shot her kids at close range,
363
895000
2000
вистрелила у своїх дітей зблизька,
15:12
drove them to the hospital
364
897000
2000
відвезла їх до лікарні -
15:14
while they bled all over the car,
365
899000
2000
дорогою вони стікали кров'ю в машині -
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
і заявила, що це вчинив незнайомець із шевелюрою.
15:18
And you'll see when you see the video,
367
903000
2000
На відео видно, що вона навіть
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
не намагається вдавати з себе згорьовану матір.
15:22
What you want to look for here
369
907000
2000
Зверніть увагу
15:24
is an incredible discrepancy
370
909000
2000
на разючу невідповідність
15:26
between horrific events that she describes
371
911000
2000
між жахливими подіями, які вона описує,
15:28
and her very, very cool demeanor.
372
913000
2000
і її неймовірним самовладанням.
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
Придивившись, ви побачите "захват ошуканства".
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
(Відео) Даян Даунс: Вночі, коли я заплющую очі,
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
я бачу, що я за кермом, а Крісті простягає до мене руку.
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
З її рота без упину тече кров.
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
І саме це - може з часом воно перейде -
15:43
but I don't think so.
378
928000
2000
хоча я так не думаю,
15:45
That bothers me the most.
379
930000
3000
саме це мене турбує найбільше.
15:55
PM: Now I'm going to show you a video
380
940000
2000
ПМ: А зараз подивимось відео про
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
справді нещасну матір, Ерін Рунніон,
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
яка зустрілась віч-на-віч у суді з вбивцею і мучителем її доньки.
16:03
Here you're going to see no false emotion,
383
948000
2000
Жодної вдаваної емоції,
16:05
just the authentic expression of a mother's agony.
384
950000
3000
лише правдивий вияв страждань матері.
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
(Відео) Ерін Рунніон: Я написала це звернення на третю річницю
16:10
of the night you took my baby,
386
955000
2000
тої ночі, коли ти забрав мою дитину,
16:12
and you hurt her,
387
957000
2000
коли ти бив її,
16:14
and you crushed her,
388
959000
2000
душив її,
16:16
you terrified her until her heart stopped.
389
961000
4000
і мучив її, поки її серце не зупинилось.
16:20
And she fought, and I know she fought you.
390
965000
3000
Вона боролась, я знаю, вона чинила тобі опір.
16:23
But I know she looked at you
391
968000
2000
Але я також знаю, що вона дивилась на тебе
16:25
with those amazing brown eyes,
392
970000
2000
своїми чарівними карими очима,
16:27
and you still wanted to kill her.
393
972000
3000
і ти ще більше хотів її вбити.
16:30
And I don't understand it,
394
975000
2000
Я не розумію цього,
16:32
and I never will.
395
977000
3000
і ніколи не зрозумію.
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
ПМ: Без сумніву, ці емоції правдиві.
16:39
Now the technology around what the truth looks like
397
984000
3000
Технологія про те, як виглядає правда,
16:42
is progressing on, the science of it.
398
987000
3000
розвивається, як і наука про неї.
16:45
We know for example
399
990000
2000
Наприклад, існують
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
спеціальні відстежувачі рухів очей та інфрачервоні сканери мозку,
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
магнітно-резонансні томографи, які розшифровують сигнали тіла,
16:53
when we're trying to be deceptive.
402
998000
2000
коли ми обманюємо.
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
Ці технології рекламуватимуть
16:58
as panaceas for deceit,
404
1003000
2000
як панацею від обману.
17:00
and they will prove incredibly useful some day.
405
1005000
3000
Колись вони стануть дійсно корисними.
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
А тим часом запитайте себе:
17:05
Who do you want on your side of the meeting,
407
1010000
2000
кого б ви хотіли взяти з собою на зустріч -
17:07
someone who's trained in getting to the truth
408
1012000
3000
фахівця, який вміє дошукуватися правди,
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
чи юнака, який тягнутиме 400-кілограмовий електроенцефалограф
17:12
through the door?
410
1017000
2000
за собою?
17:14
Liespotters rely on human tools.
411
1019000
4000
Розпізнавачі брехні покладаються на людські знаряддя.
17:18
They know, as someone once said,
412
1023000
2000
Вони знають відомий вислів
17:20
"Character's who you are in the dark."
413
1025000
2000
"Характер - це те, які ви в темряві".
17:22
And what's kind of interesting
414
1027000
2000
Цікаво, що
17:24
is that today we have so little darkness.
415
1029000
2000
сьогодні у нас так мало темряви.
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
Наш світ освітлений 24 години на добу.
17:29
It's transparent
417
1034000
2000
Його роблять прозорим
17:31
with blogs and social networks
418
1036000
2000
блоги і соціальні мережі,
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
що поширюють гомін зовсім нового покоління людей,
17:35
that have made a choice to live their lives in public.
420
1040000
3000
які вирішили проживати життя публічно.
17:38
It's a much more noisy world.
421
1043000
4000
Цей світ набагато галасливіший.
17:42
So one challenge we have
422
1047000
2000
Перед нами важливе завдання:
17:44
is to remember,
423
1049000
2000
мусимо пам'ятати, що
17:46
oversharing, that's not honesty.
424
1051000
3000
надмірна відвертість не свідчить про чесність.
17:49
Our manic tweeting and texting
425
1054000
2000
Маніакальне відсилання твітів і смс
17:51
can blind us to the fact
426
1056000
2000
затьмарює той факт, що
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
тонкощі людської гідності - чесність характеру -
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
єдине, що має і завжди матиме значення.
17:59
So in this much noisier world,
429
1064000
2000
У цьому галасливому світі
18:01
it might make sense for us
430
1066000
2000
нам слід
18:03
to be just a little bit more explicit
431
1068000
2000
трошки голосніше говорити
18:05
about our moral code.
432
1070000
3000
про свої моральні норми.
18:08
When you combine the science of recognizing deception
433
1073000
2000
Поєднавши науку розпізнання обману
18:10
with the art of looking, listening,
434
1075000
2000
з мистецтвом бачити і слухати,
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
ви звільните себе від співучасті в брехні.
18:15
You start up that path
436
1080000
2000
Ви станете на шлях
18:17
of being just a little bit more explicit,
437
1082000
2000
трошки голоснішого висловлення,
18:19
because you signal to everyone around you,
438
1084000
2000
бо ви сигналізуєте людям навколо вас.
18:21
you say, "Hey, my world, our world,
439
1086000
3000
Ви кажете, "Ей, мій світ, наш світ,
18:24
it's going to be an honest one.
440
1089000
2000
стане чесним".
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
У моєму світі правда зміцніє,
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
а обман виявлять і витіснять".
18:31
And when you do that,
443
1096000
2000
Якщо ви так зробите,
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
ваше оточення почне потрошку змінюватись.
18:36
And that's the truth. Thank you.
445
1101000
3000
Це правда. Дякую.
18:39
(Applause)
446
1104000
5000
(Оплески)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com