TEDGlobal 2011
Pamela Meyer: How to spot a liar
パメラ・メイヤー:嘘の見抜き方
Filmed:
Readability: 3.8
28,415,176 views
私たちは1日に10~200回ほど嘘をつかれており、嘘を見抜く手掛かりはとてもとらえにくく、また直感で自然に分かるものでもありません。「しょっちゅうウソをつかれてしまうあなたへ 」の著者パメラ・メイヤーが、嘘の手法と、嘘が多く使われている場面でどうやって訓練をした「嘘を見抜く専門家(嘘発見人)」が嘘の検知を行うのか、その方法を見せてくれます。 また「正直さ」は守るべき価値観であると彼女は主張しています。
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
皆さんを警戒させるつもりはないですが
00:20
but it's just come to my attention
1
5000
2000
気がついたのでお知らせしますと
00:22
that the person to your right is a liar.
2
7000
2000
あなたの右隣の人は嘘つきです
00:24
(Laughter)
3
9000
2000
(笑)
00:26
Also, the person to your left is a liar.
4
11000
3000
左隣の人も嘘つきです
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
そして 席に座っている皆さん自身が嘘つきです
00:32
We're all liars.
6
17000
2000
私たちはみな嘘つきなのです
00:34
What I'm going to do today
7
19000
2000
今日は 私たちが
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
なぜ嘘つきなのかについての研究結果をお見せし
00:39
how you can become a liespotter
9
24000
2000
どうすれば嘘を検知できるようになるのか
00:41
and why you might want to go the extra mile
10
26000
3000
また 私たちはなぜ 嘘を見抜き 真実をみつけ
00:44
and go from liespotting to truth seeking,
11
29000
3000
最終的に信頼関係を築くために努力しようとするのかについて
00:47
and ultimately to trust building.
12
32000
2000
お話したいと思います
00:49
Now speaking of trust,
13
34000
3000
信頼といえば
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
「しょっちゅうウソをつかれてしまうあなたへ 」の出版後
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
誰も私に直接会ってくれなくなりました
00:58
They say, "It's okay, we'll email you."
16
43000
3000
「いえ いえ いいです メールします」と言われるんです
01:01
(Laughter)
17
46000
2000
(笑)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
スターバックスでお茶をする相手もいなくなりました
01:07
My husband's like, "Honey, deception?
19
52000
2000
夫曰く「嘘についてだって?それより
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
料理のほうがよかったんじゃない?フランス料理とか」
01:12
So before I get started, what I'm going to do
21
57000
2000
だから 初めに これからお話するのは
01:14
is I'm going to clarify my goal for you,
22
59000
3000
単純な嘘当てゲームではないということを
01:17
which is not to teach a game of Gotcha.
23
62000
2000
皆さんにお伝えしておきます
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
嘘を見抜く専門家(嘘発見人)は
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
こましゃくれた子供が 「あ!嘘ついた! 眉毛がぴくっとして
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
小鼻が膨らんだ ドラマ 「ライ・トゥ・ミー」で見たもん」
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
というのとは違います
01:30
No, liespotters are armed
28
75000
2000
嘘発見人は 嘘を見つけるための
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
科学的な知識を持っており
01:35
They use it to get to the truth,
30
80000
2000
それを使って真実を見つけます
01:37
and they do what mature leaders do everyday;
31
82000
2000
そして経験豊かな指導者と同じように
01:39
they have difficult conversations with difficult people,
32
84000
3000
時には非常に困難な場面で気難しい人々を相手に
01:42
sometimes during very difficult times.
33
87000
2000
毎日 複雑な会話をしています
01:44
And they start up that path
34
89000
2000
嘘発見人は最初に核となる命題を
01:46
by accepting a core proposition,
35
91000
2000
受け入れることから始めます
01:48
and that proposition is the following:
36
93000
2000
その命題とは
01:50
Lying is a cooperative act.
37
95000
3000
嘘は共同作業であるということです
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
どんな嘘も口から発せられたでけでは効力を持ちませんよね
01:57
Its power emerges
39
102000
2000
他の誰かがそれを信じて初めて
01:59
when someone else agrees to believe the lie.
40
104000
2000
嘘は力を得るのです
02:01
So I know it may sound like tough love,
41
106000
2000
親の小言のような言い方をすると
02:03
but look, if at some point you got lied to,
42
108000
4000
「あなたが嘘をつかれたのは 嘘をつかれることを許したから」なのです
02:07
it's because you agreed to get lied to.
43
112000
2000
「あなたが嘘をつかれたのは 嘘をつかれることを許したから」なのです
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
嘘についての一番目の真実:「嘘は共同作業である」
02:12
Now not all lies are harmful.
45
117000
2000
全ての嘘が悪いわけではありません
02:14
Sometimes we're willing participants in deception
46
119000
3000
時には私たちは 進んで嘘に協力します
02:17
for the sake of social dignity,
47
122000
3000
体面を保つために またおそらくは
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
黙っていたほうがよいことを隠すためにです
02:23
We say, "Nice song."
49
128000
2000
たとえば 「いい歌ね」
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
「その服太って見えないよ 全然」
02:28
Or we say, favorite of the digiratti,
51
133000
2000
もしくは お決まりのフレーズ
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
「メールがスパムフォルダに入ってしまっていたんです
02:33
So sorry."
53
138000
3000
本当にすみません」
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
しかし時には不本意な形で嘘に巻き込まれることがあります
02:39
And that can have dramatic costs for us.
55
144000
3000
そしてそれはものすごく高くつくことになりかねません
02:42
Last year saw 997 billion dollars
56
147000
3000
昨年 アメリカ合衆国内だけでも
02:45
in corporate fraud alone in the United States.
57
150000
4000
企業による不正行為が9970億ドルありました 1兆ドル目前で
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
国家歳入の7%にあたります
02:51
That's seven percent of revenues.
59
156000
2000
何十億ドルもの損害を
02:53
Deception can cost billions.
60
158000
2000
嘘は与えうるのです
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
エンロン破綻 マードフ投資詐欺 住宅ローン危機を思い出してください
02:58
Or in the case of double agents and traitors,
62
163000
3000
他にも ロバート・ハンセン オルドリッチ・エイムズなどの2重スパイや国家反逆者のような場合には
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
他にも ロバート・ハンセン オルドリッチ・エイムズなどの2重スパイや国家反逆者のような場合には
03:03
lies can betray our country,
64
168000
2000
嘘は 国を売り渡し
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
国家の安全保障を危うくし 民主主義を脅かし
03:08
they can cause the deaths of those that defend us.
66
173000
3000
国家の防衛に当たる人々の死を招きます
03:11
Deception is actually serious business.
67
176000
3000
嘘は実際に深刻な問題なのです
03:14
This con man, Henry Oberlander,
68
179000
2000
これは詐欺師のオバーランダーです
03:16
he was such an effective con man
69
181000
2000
大変有能な詐欺師で
03:18
British authorities say
70
183000
2000
英国の当局によれば 彼は
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
西欧諸国の銀行制度そのものを崩壊させていた可能性がありました
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
彼はグーグルにもどこにも載っていません
03:25
He was interviewed once, and he said the following.
73
190000
3000
彼はインタビューに答えたことが一度あり
03:28
He said, "Look, I've got one rule."
74
193000
2000
「いいですか 一つの法則しか使ってません
03:30
And this was Henry's rule, he said,
75
195000
3000
ヘンリーの法則だけです」と言っています
03:33
"Look, everyone is willing to give you something.
76
198000
2000
「誰もが 己の願望のためには
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
進んで何かを差し出すものだ」
03:38
And that's the crux of it.
78
203000
2000
これが嘘の本質なのです
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
あなたが騙されたくないと思うのなら
03:42
what is it that you're hungry for?
80
207000
2000
自分の願望を知る必要があるのです
03:44
And we all kind of hate to admit it.
81
209000
3000
私たち皆が認めたくないことです
03:47
We wish we were better husbands, better wives,
82
212000
3000
もっと良い夫に 妻になりたい
03:50
smarter, more powerful,
83
215000
2000
もっと賢くなりたい もっと権力を持ちたい
03:52
taller, richer --
84
217000
2000
背が高くなりたい お金持ちになりたい
03:54
the list goes on.
85
219000
2000
望みは尽きません
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
私たちの願いや夢想と現実の差を
03:58
to connect our wishes and our fantasies
87
223000
2000
埋めようとするのが嘘なのです
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
実際の自分と こうありたい自分
04:03
with what we're really like.
89
228000
3000
こんな風だったらと思う自分との差です
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
なんと 進んで現実との差を嘘で埋めようとするのです
04:09
On a given day, studies show that you may be lied to
91
234000
3000
研究によると 私たちは毎日
04:12
anywhere from 10 to 200 times.
92
237000
2000
10回から200回嘘をつかれています
04:14
Now granted, many of those are white lies.
93
239000
3000
確かにうした嘘の多くは罪のないものです
04:17
But in another study,
94
242000
2000
別の研究によると
04:19
it showed that strangers lied three times
95
244000
2000
初めて会う人同士は最初の10分で
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
3回嘘をつくという結果もでています
04:23
(Laughter)
97
248000
2000
(笑)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
さて この情報を知ると最初はたじろぎます これほどにも
04:28
We can't believe how prevalent lying is.
99
253000
2000
嘘が溢れているとは信じられないからです
04:30
We're essentially against lying.
100
255000
2000
私たちは本質的に嘘を嫌います
04:32
But if you look more closely,
101
257000
2000
しかし もっと詳しく見てみると
04:34
the plot actually thickens.
102
259000
2000
事態はいっそう込み入っています
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
私たちは職場の同僚より見知らぬ人により嘘をつきます
04:39
Extroverts lie more than introverts.
104
264000
4000
外向型の人は内向型の人よりもより嘘をつきます
04:43
Men lie eight times more about themselves
105
268000
3000
男性は他人のことより 自分のことについて
04:46
than they do other people.
106
271000
2000
8倍嘘をつきます
04:48
Women lie more to protect other people.
107
273000
3000
女性は他の人を守るためにより嘘をつきます
04:51
If you're an average married couple,
108
276000
3000
もしあなたが平均的な夫婦なら
04:54
you're going to lie to your spouse
109
279000
2000
10回の会話で1回は
04:56
in one out of every 10 interactions.
110
281000
2000
嘘をついています
04:58
Now you may think that's bad.
111
283000
2000
これはひどいと思われるでしょうが
05:00
If you're unmarried, that number drops to three.
112
285000
2000
独身なら 3回に1回に増えます
05:02
Lying's complex.
113
287000
2000
嘘は複雑な行為です
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
嘘は私たちの日々の生活やビジネスに織り込まれています
05:07
We're deeply ambivalent about the truth.
115
292000
2000
私たちは真実に対して非常に両義的です
05:09
We parse it out on an as-needed basis,
116
294000
2000
私たちは必要にせまられて
05:11
sometimes for very good reasons,
117
296000
2000
もっともな理由があって 時には
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
単に現実を受け入れられず 嘘をつきます
05:16
That's truth number two about lying.
119
301000
2000
これが嘘についての2番目の真実です
05:18
We're against lying,
120
303000
2000
私たちは嘘を否定しながらも
05:20
but we're covertly for it
121
305000
2000
裏では嘘をついています
05:22
in ways that our society has sanctioned
122
307000
2000
それは何世紀にも渡って
05:24
for centuries and centuries and centuries.
123
309000
2000
私たちの社会で承認されてきているのです
05:26
It's as old as breathing.
124
311000
2000
嘘は 呼吸と同じくらい古いもので
05:28
It's part of our culture, it's part of our history.
125
313000
2000
私たちの文化 歴史の一部です
05:30
Think Dante, Shakespeare,
126
315000
3000
ダンテやシェークスピアを
05:33
the Bible, News of the World.
127
318000
3000
聖書を 世界のニュースを見てください
05:36
(Laughter)
128
321000
2000
(笑)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
人類という種にとって嘘は進化的価値があります
05:40
Researchers have long known
130
325000
2000
研究者達の間では以前から
05:42
that the more intelligent the species,
131
327000
2000
知的な種ほど大脳の新皮質も大きくなって 嘘をつくようになることが
05:44
the larger the neocortex,
132
329000
2000
知的な種ほど大脳の新皮質も大きくなって 嘘をつくようになることが
05:46
the more likely it is to be deceptive.
133
331000
2000
知られています
05:48
Now you might remember Koko.
134
333000
2000
ゴリラのココを覚えていますか?
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
手話を覚えたゴリラです
05:53
Koko was taught to communicate via sign language.
136
338000
3000
ココは手話を通じて会話することを覚えました
05:56
Here's Koko with her kitten.
137
341000
2000
これはココと子猫です
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
かわいいふわふわのペットの猫
06:01
Koko once blamed her pet kitten
139
346000
2000
ココは流し台を壁からむしり取ったのを
06:03
for ripping a sink out of the wall.
140
348000
2000
この猫のせいにしたことがあります
06:05
(Laughter)
141
350000
2000
(笑)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
私たちは嘘の達人になる本能を備え
06:09
It's starts really, really early.
143
354000
2000
非常に早い頃からその頭角を表します
06:11
How early?
144
356000
2000
どのくらい小さい頃からでしょう?
06:13
Well babies will fake a cry,
145
358000
2000
赤ちゃんは嘘泣きをしてみて
06:15
pause, wait to see who's coming
146
360000
2000
来る人によって泣きやんだり
06:17
and then go right back to crying.
147
362000
2000
また泣き始めます
06:19
One-year-olds learn concealment.
148
364000
2000
一歳児は隠蔽を覚えます
06:21
(Laughter)
149
366000
2000
(笑)
06:23
Two-year-olds bluff.
150
368000
2000
二歳児は はったりをかけます
06:25
Five-year-olds lie outright.
151
370000
2000
四歳児は公然と嘘をつき
06:27
They manipulate via flattery.
152
372000
2000
おべっかを使います
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
九歳児はごまかしの達人です
06:32
By the time you enter college,
154
377000
2000
大学に入学するころには
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
母親との会話で5回に1回は嘘をつくようになります
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
職について稼ぐようになると
06:40
we enter a world that is just cluttered
157
385000
2000
嘘に取り囲まれるようになります
06:42
with spam, fake digital friends,
158
387000
2000
スパムメール 偽のネット友達
06:44
partisan media,
159
389000
2000
狂信的なメディア
06:46
ingenious identity thieves,
160
391000
2000
巧妙な なりすまし犯罪
06:48
world-class Ponzi schemers,
161
393000
2000
世界規模のポンジ・スキーム
06:50
a deception epidemic --
162
395000
2000
虚は蔓延しています
06:52
in short, what one author calls
163
397000
2000
要するに ある作家が言ったような
06:54
a post-truth society.
164
399000
3000
「真実が失われた社会」です
06:57
It's been very confusing
165
402000
2000
今にいたるまでずっと
06:59
for a long time now.
166
404000
3000
嘘に翻弄されてきました
07:03
What do you do?
167
408000
2000
どうしたらよいでしょうか?
07:05
Well there are steps we can take
168
410000
2000
実は このような苦境を乗り切るための
07:07
to navigate our way through the morass.
169
412000
2000
手段があります
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
訓練された嘘発見人は90%の確率で真実を見つけます
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
普通の人は54%くらいです
07:15
Why is it so easy to learn?
172
420000
2000
なぜそんなに簡単に習得できるかというと
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
上手下手はあっても本当に独創的な嘘つきはいません
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
嘘をつく時 同じように間違い 同じテクニックを使うからです
07:23
So what I'm going to do
175
428000
2000
では やってみましょう まず
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
嘘が現れる 2種類のパターンを紹介し
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
嘘の現場をお見せします 嘘を見抜けるでしょうか
07:30
We're going to start with speech.
178
435000
3000
まずは会話に現れるパターンを見てみましょう
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
(ビデオ) クリントン: 「よろしいですか
07:35
I'm going to say this again.
180
440000
2000
もう一度同じことを言います
07:37
I did not have sexual relations
181
442000
3000
私は あの女性 モニカ・ルインスキーさんと
07:40
with that woman, Miss Lewinsky.
182
445000
4000
性的な関係を持ったことはありません
07:44
I never told anybody to lie,
183
449000
2000
誰にも 一度たりとも
07:46
not a single time, never.
184
451000
2000
嘘を強要していません
07:48
And these allegations are false.
185
453000
3000
この疑惑は事実ではありません
07:51
And I need to go back to work for the American people.
186
456000
2000
国民のための仕事に戻る必要があるのです
07:53
Thank you.
187
458000
2000
ありがとうございました」
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
さて どんな兆候があったでしょうか
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
まず 「短縮形を用いない否認(did not)」がありました
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
研究によると 否定しようと意気込みすぎている場合
08:08
will resort to formal rather than informal language.
191
473000
3000
形式ばった言葉を使ってしまうと言われています
08:11
We also heard distancing language: "that woman."
192
476000
3000
また 「あの女性」という「距離を置く言葉」がありました
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
嘘をついている人は 無意識に
08:16
from their subject
194
481000
2000
嘘の対象について距離を置く言葉を
08:18
using language as their tool.
195
483000
3000
使おうをするのです
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
もしクリントンが「本当のことを言うと」やニクソンのおなじみのフレーズ「率直に言って」などの--
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
もしクリントンが「本当のことを言うと」やニクソンのおなじみのフレーズ「率直に言って」などの--
08:26
he would have been a dead giveaway
198
491000
2000
修飾する言葉を使っていたとしたら
08:28
for any liespotter than knows
199
493000
2000
嘘発見人には決め手になります
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
こうした信憑性を高めようとする言葉は かえって
08:33
further discredits the subject.
201
498000
2000
話の信憑性を低くすることがわかっているからです
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
もしされた質問をそのまま繰り返していたり
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
詳細すぎる説明を振りまいていたとしたら
08:42
and we're all really glad he didn't do that --
204
507000
2000
--幸い私たちは聞かずにすみましたが--
08:44
he would have further discredited himself.
205
509000
2000
もっと疑わしく見えたはずです
08:46
Freud had it right.
206
511000
2000
フロイトの言うとおりです
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
彼は言葉以上に語るものがあると言っていました
08:51
"No mortal can keep a secret.
208
516000
3000
「どんな人も秘密を守ることはできない
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
唇を閉じていても 指先が語っているから」
08:57
And we all do it no matter how powerful you are.
210
522000
3000
あなたがどれほど口が固くても
09:00
We all chatter with our fingertips.
211
525000
2000
指先で秘密を漏らしているのです
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
ドミニク・ストロスカーンと一緒に写っている
09:05
who's chattering with his fingertips.
213
530000
3000
オバマの指先にご注目を
09:08
(Laughter)
214
533000
3000
(笑)
09:11
Now this brings us to our next pattern,
215
536000
3000
これが嘘をつく時の2つ目のパターン ---
09:14
which is body language.
216
539000
3000
ボディランゲージです 見てみましょう
09:17
With body language, here's what you've got to do.
217
542000
3000
しぐさについては
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
思いこみを一度全部捨てて 科学によって
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
考え方を少し変えてみましょう
09:25
Because we think liars fidget all the time.
220
550000
3000
私たちは嘘つきは始終そわそわしていると思っていますが
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
嘘をついているときは上半身を動かさないものなのです
09:31
We think liars won't look you in the eyes.
222
556000
3000
嘘つきは目を見ないと思っていますが
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
嘘つきはこのことを逆手にとって
09:36
just to compensate for that myth.
224
561000
2000
余計に長く目を見つめるのです
09:38
We think warmth and smiles
225
563000
2000
熱心さやほほえみは 正直さや
09:40
convey honesty, sincerity.
226
565000
2000
親密さをあらわすと思われていますが
09:42
But a trained liespotter
227
567000
2000
訓練された嘘発見人は偽の微笑みを
09:44
can spot a fake smile a mile away.
228
569000
2000
1キロ先からでも見抜くことができます
09:46
Can you all spot the fake smile here?
229
571000
3000
どちらが偽の笑いかわかりますか?
09:50
You can consciously contract
230
575000
2000
ほほの筋肉は意識して
09:52
the muscles in your cheeks.
231
577000
3000
動かすことができますが
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
本物の笑みの場合は目じりに小じわができます
09:58
They cannot be consciously contracted,
233
583000
2000
ボトックス注射をしすぎると
10:00
especially if you overdid the Botox.
234
585000
2000
特に目の筋肉は動かせなくなりますので
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
やりすぎに注意 誰もあなたを信頼しなくなりますよ
10:05
Now we're going to look at the hot spots.
236
590000
2000
さて 今度は嘘の現場を見ていきましょう
10:07
Can you tell what's happening in a conversation?
237
592000
2000
次の会話で何がおきているかわかりますか?
10:09
Can you start to find the hot spots
238
594000
3000
話されている言葉としぐさの
10:12
to see the discrepancies
239
597000
2000
不一致を見つけることで
10:14
between someone's words and someone's actions?
240
599000
2000
嘘を見抜くことができるでしょうか
10:16
Now I know it seems really obvious,
241
601000
2000
ごく当たり前と思われるでしょうが
10:18
but when you're having a conversation
242
603000
2000
嘘と疑っている人と話す時には
10:20
with someone you suspect of deception,
243
605000
3000
大変見落とされがちなのですが
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
実は態度が嘘をついているかどうかを表します
10:26
An honest person is going to be cooperative.
245
611000
2000
無実な人は協力的で
10:28
They're going to show they're on your side.
246
613000
2000
あなたの味方だという態度を示し
10:30
They're going to be enthusiastic.
247
615000
2000
熱心に 自分から進んで 真実をみつける
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
手助けをしようとします
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
一緒に考え 疑わしい人の名前をあげたり
10:37
provide details.
250
622000
2000
詳細な話をします
10:39
They're going to say, "Hey,
251
624000
2000
こんなことを言うかもしれません
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
「給料を改ざんしたのは給与計算課のあいつかもしれません」
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
無実の人は不当に疑われていることがわかったら
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
一瞬ではなく、
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
取り調べの間ずっと激昂するはずです
10:52
And if you ask someone honest
256
637000
2000
改ざんの犯人に対して
10:54
what should happen to whomever did forge those checks,
257
639000
3000
どんな処罰を与えるべきか無実な人に質問すると
10:57
an honest person is much more likely
258
642000
2000
寛大ではない厳しい処置を
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
するべきだと答えることが多いのです
11:03
Now let's say you're having that exact same conversation
260
648000
2000
では これと全く同じ質問を
11:05
with someone deceptive.
261
650000
2000
嘘を付いている人にしてみるとしましょう
11:07
That person may be withdrawn,
262
652000
2000
その人は体を遠ざけて
11:09
look down, lower their voice,
263
654000
2000
下を向き 声を低くし
11:11
pause, be kind of herky-jerky.
264
656000
2000
尻込みし ぎこちない態度をとるでしょう
11:13
Ask a deceptive person to tell their story,
265
658000
2000
嘘をついている人に話をさせると
11:15
they're going to pepper it with way too much detail
266
660000
3000
重要でないすべてのところに
11:18
in all kinds of irrelevant places.
267
663000
3000
細かい説明をつけすぎるでしょう
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
そして 厳密に時系列に話をします
11:24
And what a trained interrogator does
269
669000
2000
訓練された尋問者は
11:26
is they come in and in very subtle ways
270
671000
2000
数時間にわたる尋問で
11:28
over the course of several hours,
271
673000
2000
さりげなく少しずつ検証します
11:30
they will ask that person to tell that story backwards,
272
675000
3000
同じ話を逆さまに話してくださいと頼んで
11:33
and then they'll watch them squirm,
273
678000
2000
その人が落ち着かない時を探し
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
どの質問が最も疑わしい兆候があったのかを見極めます
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
なぜこの方法なのでしょう?人は同じように準備するからです
11:41
We rehearse our words,
276
686000
2000
嘘をつくときに話のおさらいはしますが
11:43
but we rarely rehearse our gestures.
277
688000
2000
身振りまでは練習しません
11:45
We say "yes," we shake our heads "no."
278
690000
2000
「はい」といいつつ頭を「いいえ」と振ったり
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
非常に説得力のある話をしながら 肩をわずかにすくめたりします
11:50
We commit terrible crimes,
280
695000
2000
恐ろしい犯罪を犯した時に
11:52
and we smile at the delight in getting away with it.
281
697000
3000
逃れられた安堵から笑みを浮かべます
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
この笑みは「duping delight(欺瞞者の喜悦)」として知られています
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
では いくつかのビデオを見てみましょう
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
最初のビデオは ご存じない方のためにご説明しますと
12:03
this is presidential candidate John Edwards
285
708000
3000
大統領候補だったジョン・エドワードで
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
婚外子がいたことでアメリカに衝撃を与えた人です
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
彼が親子鑑定を受けることについて話しているところの映像です
12:12
See now if you can spot him
288
717000
2000
彼が「はい」といいながら首を振っているところや
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
わずかに肩をすくめているところなどを
12:16
slightly shrugging his shoulders.
290
721000
2000
見つけることができるかどうか試してください
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
(ビデオ)ジョン・エドワード: 喜んで受けますよ
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
子供ができた時期から考えて 私の子供でないということを
12:23
because of the timing of events.
293
728000
2000
確信していますから
12:25
So I know it's not possible.
294
730000
2000
ありえないということを知っています
12:27
Happy to take a paternity test,
295
732000
2000
進んで親子鑑定を受けて
12:29
and would love to see it happen.
296
734000
2000
結果を知りたいと思っています
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
インタビュアー:鑑定はすぐにお受けになる予定ですか?他にも--
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
エドワード:いや 私だけです 受けるのは私一人だけですが 進んで受けますよ
12:37
But I'm happy to participate in one.
299
742000
3000
エドワード:いや 私だけです 受けるのは私一人だけですが 進んで受けますよ
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
パメラ:いかがでしょう わかっていれば
12:42
once you know to look for them.
301
747000
2000
首を振っているのを見つけるのは簡単ですね
12:44
There're going to be times
302
749000
2000
自分の感情を覆い隠そうとして
12:46
when someone makes one expression
303
751000
2000
別の表情をする時には
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
ほんの一瞬ですが 元の感情が漏れ出ることがよくあるのです
12:52
Murderers are known to leak sadness.
305
757000
2000
殺人者は悲しみの表情を漏らすことで知られています
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
新しい提携先と合意に達して
12:56
celebrate, go out to dinner with you
307
761000
2000
お祝いに夕食を共にした時
12:58
and then leak an expression of anger.
308
763000
3000
怒りの表情を漏らすかもしれません
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
一晩で表情分析の専門家にはなれないですが
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
簡単に学べて非常に危険な兆候を一つお教えしましょう
13:07
and that's the expression of contempt.
311
772000
3000
それは侮蔑の表情です
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
怒りがあっても人は付き合っていき 同じ土俵にもいられます
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
いくらかは健全な関係があるからです
13:15
But when anger turns to contempt,
314
780000
2000
しかし怒りが侮蔑に変わったら
13:17
you've been dismissed.
315
782000
2000
もうそこまでです
13:19
It's associated with moral superiority.
316
784000
2000
侮蔑とは道徳的上位に立っているということだからです
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
この理由から 関係を修復するのが大変大変難しいのです
13:24
Here's what it looks like.
318
789000
2000
これが侮蔑の表情です
13:26
It's marked by one lip corner
319
791000
2000
片方の口の端が
13:28
pulled up and in.
320
793000
2000
上に上がって中に入り込みます
13:30
It's the only asymmetrical expression.
321
795000
3000
表情の中で 侮蔑はたった一つの非対称な表情です
13:33
And in the presence of contempt,
322
798000
2000
この侮蔑の表情を見たら
13:35
whether or not deception follows --
323
800000
2000
騙そうとしていようがいまいが
13:37
and it doesn't always follow --
324
802000
2000
-- 侮蔑は騙しているとは限らないので --
13:39
look the other way, go the other direction,
325
804000
2000
すぐに 背を向け 方向転換して
13:41
reconsider the deal,
326
806000
2000
取引を見直すべきです
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
「結構です もう誘われても来ません それでは」と言いなさい
13:47
Science has surfaced
328
812000
2000
科学は もっともっとたくさんの
13:49
many, many more indicators.
329
814000
2000
嘘の兆候を暴き出しています
13:51
We know, for example,
330
816000
2000
たとえば 嘘つきは
13:53
we know liars will shift their blink rate,
331
818000
2000
まばたきの回数を変えること
13:55
point their feet towards an exit.
332
820000
2000
足を出口側に向けようとします
13:57
They will take barrier objects
333
822000
2000
インタビュアーとの間に物をおいて
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
垣根を作ろうとします
14:02
They'll alter their vocal tone,
335
827000
2000
声のトーンを変え
14:04
often making their vocal tone much lower.
336
829000
3000
しばしば低い声をだそうとします
14:07
Now here's the deal.
337
832000
2000
さて ここが重要ですが
14:09
These behaviors are just behaviors.
338
834000
3000
しぐさは単にしぐさにすぎません
14:12
They're not proof of deception.
339
837000
2000
嘘の証拠ではありません
14:14
They're red flags.
340
839000
2000
これらは注意信号です
14:16
We're human beings.
341
841000
2000
私たちは人間です
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
一日中いたるところで嘘が疑われる動作をしています
14:21
They don't mean anything in and of themselves.
343
846000
2000
しぐさ自体は何も意味していません
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
しかし それがいくつもあったら 注意が必要です
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
よく見聞きし 探り 難しい質問を投げてみましょう
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
ゆったりとくつろいだ雰囲気から
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
興味を惹かれた感じでもっと質問をしてみましょう
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
尊厳を忘れずに 親密な間柄だと感じさせるようにしながらです
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
刑事ドラマの「Law&Order」のやり方を真似て 降伏するまで叩きのめすような方法はやめましょう
14:41
that pummel their subjects into submission.
350
866000
2000
刑事ドラマの「Law&Order」のやり方を真似て 降伏するまで叩きのめすような方法はやめましょう
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
攻撃的にならないこと それではうまく行きません
14:46
Now we've talked a little bit
352
871000
2000
さて ほんのさわりですが
14:48
about how to talk to someone who's lying
353
873000
2000
嘘をついている人との話し方 また
14:50
and how to spot a lie.
354
875000
2000
嘘の見つけ方について話しました
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
次は 約束通り 真実を語る人がどう見えるのかお話しましょう
14:55
But I'm going to show you two videos,
356
880000
2000
これから2つのビデオをお見せしましょう
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
二人の母親のうち 片方は嘘をついていて
15:00
And these were surfaced
358
885000
2000
もう片方は本当のことを語っています
15:02
by researcher David Matsumoto in California.
359
887000
2000
カリフォルニアの研究者デイヴッド・マツモトによって見いだされました
15:04
And I think they're an excellent example
360
889000
2000
これは真実がどのように見えるのかの
15:06
of what the truth looks like.
361
891000
2000
非常によい例だと思います
15:08
This mother, Diane Downs,
362
893000
2000
この母親 ダイアン・ダウンズは
15:10
shot her kids at close range,
363
895000
2000
自分の子供を至近距離で撃ってから
15:12
drove them to the hospital
364
897000
2000
車の中を血まみれにしながら
15:14
while they bled all over the car,
365
899000
2000
車で病院にかけこみ
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
髪の薄い見知らぬ人の犯行だと主張したのです
15:18
And you'll see when you see the video,
367
903000
2000
このビデオを見ると 彼女が苦悩する母親の
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
振りすらできていないことがわかるでしょう
15:22
What you want to look for here
369
907000
2000
ここで見ていただきたいのは
15:24
is an incredible discrepancy
370
909000
2000
信じられないほどの乖離です
15:26
between horrific events that she describes
371
911000
2000
彼女が説明する恐ろしい出来事に対して
15:28
and her very, very cool demeanor.
372
913000
2000
彼女の態度は非常に冷静です
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
また よく見ると「欺瞞者の喜悦」があちこちに現れているのが分かります
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
(ビデオ)ダイアン・ダウンズ: 夜に目を閉じると
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
車を運転している間にクリスティが私に手を延ばして
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
口から血が流れ続けている光景が見えるのです
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
日が経つにつれて薄れるだろうと言われますが
15:43
but I don't think so.
378
928000
2000
私にはそうは思えません
15:45
That bothers me the most.
379
930000
3000
このことが一番私を苦しめています
15:55
PM: Now I'm going to show you a video
380
940000
2000
パメラ: 次は 本当に悲嘆にくれている母親
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
エリン・ルニオン のビデオをお見せしましょう
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
自分の娘を虐待して殺した犯人に対峙しているところです
16:03
Here you're going to see no false emotion,
383
948000
2000
ここには全く偽りの感情がなく
16:05
just the authentic expression of a mother's agony.
384
950000
3000
母親の本物の悲痛な感情があるばかりです
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
(ビデオ)エリン・ルニオン:私はこの陳述を
16:10
of the night you took my baby,
386
955000
2000
娘の3回目の命日に書きました
16:12
and you hurt her,
387
957000
2000
あなたが殺し 痛めつけ 押しつぶし
16:14
and you crushed her,
388
959000
2000
あの子の心臓が止まるまで
16:16
you terrified her until her heart stopped.
389
961000
4000
傷めつけた日に
16:20
And she fought, and I know she fought you.
390
965000
3000
あの子は何度も抵抗したはずです
16:23
But I know she looked at you
391
968000
2000
あの子はあなたを見たはずです
16:25
with those amazing brown eyes,
392
970000
2000
あの素晴らしい茶色の目で
16:27
and you still wanted to kill her.
393
972000
3000
でもあなたはそれでもあの子を殺したかったのです
16:30
And I don't understand it,
394
975000
2000
私には どうしてそんなことができるのか 理解できません 今後も絶対ずっと理解できません
16:32
and I never will.
395
977000
3000
私には どうしてそんなことができるのか 理解できません 今後も絶対ずっと理解できません
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
パメラ:この感情が本物なことに疑いはないでしょう
16:39
Now the technology around what the truth looks like
397
984000
3000
真実がどのように表されるのかについての
16:42
is progressing on, the science of it.
398
987000
3000
科学技術は進歩しています
16:45
We know for example
399
990000
2000
例えば
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
視線追跡装置や赤外線脳スキャン
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
嘘をつこうとしている時に体から発される
16:53
when we're trying to be deceptive.
402
998000
2000
信号を解読するMRIなどがあります
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
こうした技術が世界中に売り込まれるでしょう
16:58
as panaceas for deceit,
404
1003000
2000
いつの日か 詐欺に対する万能薬として
17:00
and they will prove incredibly useful some day.
405
1005000
3000
こうした機器は非常に便利になるでしょう
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
しかしそれまでは自力で嘘をみつけなければなりません
17:05
Who do you want on your side of the meeting,
407
1010000
2000
人と対面する時 協力してもらうとしたら 嘘を見抜く訓練を受けた人と 180キロの嘘発見器を引きずって持ち込もうとしている人
17:07
someone who's trained in getting to the truth
408
1012000
3000
人と対面する時 協力してもらうとしたら 嘘を見抜く訓練を受けた人と 180キロの嘘発見器を引きずって持ち込もうとしている人
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
人と対面する時 協力してもらうとしたら 嘘を見抜く訓練を受けた人と 180キロの嘘発見器を引きずって持ち込もうとしている人
17:12
through the door?
410
1017000
2000
どちらがいいですか?
17:14
Liespotters rely on human tools.
411
1019000
4000
嘘発見人は人間的手段に頼ります
17:18
They know, as someone once said,
412
1023000
2000
誰かが言った「影に隠れた人格」のことを
17:20
"Character's who you are in the dark."
413
1025000
2000
よく知っているからです
17:22
And what's kind of interesting
414
1027000
2000
ただ それなのに面白いことは
17:24
is that today we have so little darkness.
415
1029000
2000
今の私たちには影がほとんどないことです
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
私たちは24時間白日のもとにいます
17:29
It's transparent
417
1034000
2000
私たちの世界はつつぬけです
17:31
with blogs and social networks
418
1036000
2000
ブログやSNSで
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
自分達の生活を公開することを選んだ
17:35
that have made a choice to live their lives in public.
420
1040000
3000
全く新しい世代の人々が噂話を公開しています
17:38
It's a much more noisy world.
421
1043000
4000
以前に比べて遙かに真実が見えにくくなった世界です
17:42
So one challenge we have
422
1047000
2000
私たちに与えられた一つの課題は
17:44
is to remember,
423
1049000
2000
過度な共有は正直さではないということを
17:46
oversharing, that's not honesty.
424
1051000
3000
覚えておくことです
17:49
Our manic tweeting and texting
425
1054000
2000
熱狂的なツイートやテキストメッセージは
17:51
can blind us to the fact
426
1056000
2000
さりげなく表される良識や高潔さが
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
常に大切であり これからも大切だということを 見失わせてしまいます
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
常に大切であり これからも大切だということを 見失わせてしまいます
17:59
So in this much noisier world,
429
1064000
2000
つまり この真実が見えなくなった世界で私たちに必要なのは
18:01
it might make sense for us
430
1066000
2000
つまり この真実が見えなくなった世界で私たちに必要なのは
18:03
to be just a little bit more explicit
431
1068000
2000
今までよりもほんの少し
18:05
about our moral code.
432
1070000
3000
自分の道徳基準を明確に示すことです
18:08
When you combine the science of recognizing deception
433
1073000
2000
科学的な嘘識別と よく見て聞き出す技を組み合せれば
18:10
with the art of looking, listening,
434
1075000
2000
科学的な嘘識別と よく見て聞き出す技を組み合せれば
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
嘘に乗せられずにすみます
18:15
You start up that path
436
1080000
2000
あなたは 今よりほんの少し
18:17
of being just a little bit more explicit,
437
1082000
2000
明確に示す生き方を始めます
18:19
because you signal to everyone around you,
438
1084000
2000
なぜなら あなたは周囲の人に対して
18:21
you say, "Hey, my world, our world,
439
1086000
3000
「私の 私たちの世界を
18:24
it's going to be an honest one.
440
1089000
2000
正直な世界にするの
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
真実が力を増し 偽りは
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
悟られてしまって効果の無い世界になる」と言うからです
18:31
And when you do that,
443
1096000
2000
これを実践していけば
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
周りがほんの少しずつ変わり始めます
18:36
And that's the truth. Thank you.
445
1101000
3000
それこそが真実です ありがとうございました
18:39
(Applause)
446
1104000
5000
(拍手)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com