TEDGlobal 2011
Pamela Meyer: How to spot a liar
파멜라 메이어 : 거짓말쟁이를 색출해 내는 방법
Filmed:
Readability: 3.8
28,415,176 views
보통 우리는 하루에 10~200번 정도의 거짓말을 듣습니다. 그리고 그 거짓말을 찾아낼 수 있는 단서는 아주 작고 직관에 반대되는 것일 수도 있습니다. "거짓말을 찾아내는 법(Liespotting)"의 저자인 파멜라 메이어는 속임수를 알아채도록 훈련이 된 사람들이 사용하는 방법과 "핫스팟"을 보여줍니다. 그리고 그녀는 진솔함은 지킬 가치가 있는 것이라고 주장합니다
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
자, 이 방에 있는 여러분들께 경고를 하고싶진 않지만,
00:20
but it's just come to my attention
1
5000
2000
방금 여러분의 오른쪽에 있는 사람이
00:22
that the person to your right is a liar.
2
7000
2000
거짓말쟁이라고 느낌이 왔어요
00:24
(Laughter)
3
9000
2000
(웃음)
00:26
Also, the person to your left is a liar.
4
11000
3000
또, 왼쪽에 있는 사람도 거짓말쟁이네요
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
그리고 여러분들 또한 거짓말쟁이에요
00:32
We're all liars.
6
17000
2000
우리 모두는 거짓말쟁입니다
00:34
What I'm going to do today
7
19000
2000
저는 오늘 여러분들께 왜 우리 모두가 거짓말쟁이인지,
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
어떻게 거짓말을 알아채는 사람이 될 수 있는지,
00:39
how you can become a liespotter
9
24000
2000
그리고 더 나아가서 왜 우리가 거짓말을 찾아내는 것에서
00:41
and why you might want to go the extra mile
10
26000
3000
한 걸음 더 나아가 진실을 찾아내려고 하는지,
00:44
and go from liespotting to truth seeking,
11
29000
3000
그리고 궁극적으로 신뢰를 형성하고자 하는지에 대한
00:47
and ultimately to trust building.
12
32000
2000
연구를 보여드리고자 합니다
00:49
Now speaking of trust,
13
34000
3000
사실대로 말씀드리자면,
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
제가 이 "거짓말을 찾아내는 법"이라는 책을 쓴 이래로,
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
아무도, 그 누구두, 단 한 명도 더이상 제게 개인적으로 찾아오지 않더라고요
00:58
They say, "It's okay, we'll email you."
16
43000
3000
다들 "괜찮아요, 이메일 보낼께요"라고 말하더라고요
01:01
(Laughter)
17
46000
2000
(웃음)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
심지어는 스타벅스에서 커피도 같이 못 마셔봤어요
01:07
My husband's like, "Honey, deception?
19
52000
2000
제 남편은 "자기야, 속임수?
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
흠, 요리에 집중해도 될 것 같은데? 프랑스 요리는 어때?"라고 했어요
01:12
So before I get started, what I'm going to do
21
57000
2000
그래서 제가 시작하기 전에,
01:14
is I'm going to clarify my goal for you,
22
59000
3000
여러분들께 제 목표를 분명히 말씀드리고 가려고요
01:17
which is not to teach a game of Gotcha.
23
62000
2000
당연히 "Gotcha"게임을 가르치는 건 아닙니다
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
거짓말을 찾아내는 사람은 그 장소의 뒷쪽에서
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
연신 "찾았다! 찾았다! 눈썹이 움직였어요!
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
콧구멍이 커졌었어요! 나 'Lie to Me' 보거든요. 거짓말 하시는거 다 알아요"를 외쳐대며
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
꼬치꼬치 캐묻는 꼬마들이 아닙니다
01:30
No, liespotters are armed
28
75000
2000
네, 거짓말을 찾아내는 사람들은
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
거짓말을 알아보는 과학적인 지식으로 무장된 사람들입니다
01:35
They use it to get to the truth,
30
80000
2000
그들은 진실에 다가가기 위해 그 방법을 사용하고,
01:37
and they do what mature leaders do everyday;
31
82000
2000
숙련된 리더들이 매일 하는 것을 합니다
01:39
they have difficult conversations with difficult people,
32
84000
3000
어려운 사람들과 어려운 대화를 하죠
01:42
sometimes during very difficult times.
33
87000
2000
가끔은 아주 힘든 시간대에요
01:44
And they start up that path
34
89000
2000
또 그들은 그 길을
01:46
by accepting a core proposition,
35
91000
2000
핵심적인 명제를 수용함으로써 시작합니다
01:48
and that proposition is the following:
36
93000
2000
그 명제는 다음과 같습니다
01:50
Lying is a cooperative act.
37
95000
3000
거짓말은 상호적인 활동이다
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
생각해 보세요, 거짓말은 단지 입 밖으로 나오는 것만으로는 아무런 힘이 없습니다
01:57
Its power emerges
39
102000
2000
거짓말의 힘은 다른 누군가가
01:59
when someone else agrees to believe the lie.
40
104000
2000
그 거짓말을 믿는 데에 동의함으로써 생기죠
02:01
So I know it may sound like tough love,
41
106000
2000
힘든 사랑처럼 들릴 수도 있다는 걸 알지만,
02:03
but look, if at some point you got lied to,
42
108000
4000
어느 순간 누군가 여러분께 거짓말을 했다면,
02:07
it's because you agreed to get lied to.
43
112000
2000
그건 여러분이 거짓말 당하는 것에 동의했기 때문이란 거죠
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
거짓말에 대한 첫 번째 진실은 '거짓말은 상호적인 활동이다'입니다
02:12
Now not all lies are harmful.
45
117000
2000
또 모든 거짓말이 나쁜 것은 아닙니다
02:14
Sometimes we're willing participants in deception
46
119000
3000
때론 환자들의 사회적인 존엄성을 위해
02:17
for the sake of social dignity,
47
122000
3000
거짓말을 하기도 하고,
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
아니면 비밀이여야만 하는 비밀을 지키기 위해서 일수도 있겠네요
02:23
We say, "Nice song."
49
128000
2000
우린 "노래 완전 좋다" 라던가
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
"자긴 그 옷 입어도 안 뚱뚱해보여, 전혀" 라고 하죠
02:28
Or we say, favorite of the digiratti,
51
133000
2000
아니면, 컴퓨터 하는 사람들이 가장 자주 쓰는,
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
"저기, 제가 방금 스팸메일함에서 그 메일을 발견했네요
02:33
So sorry."
53
138000
3000
정말 죄송합니다" 가 있겠네요
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
하지만 참여자들을 속이고 싶어하지 않는 순간도 있습니다
02:39
And that can have dramatic costs for us.
55
144000
3000
이 순간이 우리에게 엄청난 결과를 초래할 수도 있습니다
02:42
Last year saw 997 billion dollars
56
147000
3000
작년 미국에서만 9970억 달러의
02:45
in corporate fraud alone in the United States.
57
150000
4000
회계부정(분식회계)을 통해 비자금이 조성되었다는 사실이 밝혀졌습니다.
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
이 금액은 1조 달러에 약간 못 미치는 금액입니다
02:51
That's seven percent of revenues.
59
156000
2000
세금 수입의 7%에 달하는 금액이기도 하고요
02:53
Deception can cost billions.
60
158000
2000
속임수는 수 십억 달러가 될 수도 있습니다
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
엔론, 버나드 마도프, 모기지 사태를 생각해 보세요
02:58
Or in the case of double agents and traitors,
62
163000
3000
아니면 로버트 한센이나 알드리치 아메스와 같이
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
이중간첩과 배신자의 경우에는,
03:03
lies can betray our country,
64
168000
2000
거짓말이 조국을 배신하거나,
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
국가안보를 위협하고, 민주주의를 해치고,
03:08
they can cause the deaths of those that defend us.
66
173000
3000
우리를 보호하는 사람들을 죽음으로 몰고갈 수 있습니다
03:11
Deception is actually serious business.
67
176000
3000
속임수는 실제로 심각한 일입니다
03:14
This con man, Henry Oberlander,
68
179000
2000
사기꾼인 헨리 오버랜더는
03:16
he was such an effective con man
69
181000
2000
아주 효과적인 사기꾼이었습니다
03:18
British authorities say
70
183000
2000
영국 당국이 말하길
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
그는 서양의 은행 시스템 전체를 망가트릴 수 있다고 했습니다
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
그리고 그는 구글에서도 찾을 수가 없고, 어디에서도 찾을 수 없습니다
03:25
He was interviewed once, and he said the following.
73
190000
3000
그는 한 번 인터뷰를 한 적이 있는데, 거기서 다음과 같이 말했습니다
03:28
He said, "Look, I've got one rule."
74
193000
2000
그는 "보세요, 제겐 한 가지 규칙이 있어요"
03:30
And this was Henry's rule, he said,
75
195000
3000
그리고 이게 헨리의 룰이었습니다
03:33
"Look, everyone is willing to give you something.
76
198000
2000
"자, 모든 사람들이 당신에게 뭔가를 기꺼이 주려고 해요
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
그들은 자신들이 갖고 싶어하는 것이 무엇이든지 간에 그걸 위해 당신에게 뭔가를 기꺼이 줄 준비가 됐어요"
03:38
And that's the crux of it.
78
203000
2000
이게 바로 그것의 핵심입니다
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
만약에 여러분들께서 속고 싶지 않으시다면, 이것만은 기억하세요
03:42
what is it that you're hungry for?
80
207000
2000
내가 무엇을 갈망하고 있는가?
03:44
And we all kind of hate to admit it.
81
209000
3000
그리고 사람들은 그걸 인정하길 싫어합니다
03:47
We wish we were better husbands, better wives,
82
212000
3000
우리는 우리가 더 좋은 남편, 아내였으면,
03:50
smarter, more powerful,
83
215000
2000
더 똑똑했으면, 더 힘이 셌으면,
03:52
taller, richer --
84
217000
2000
키가 컸으면, 부유했으면,
03:54
the list goes on.
85
219000
2000
등등 많은 것을 바랍니다
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
거짓말은 현실과 이상의 차이를 이으려는 노력,
03:58
to connect our wishes and our fantasies
87
223000
2000
즉 어떤 사람이 되었으면 하는,
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
어떻게 되었으면 하는 우리의 바람, 환상과
04:03
with what we're really like.
89
228000
3000
우리 현재 모습을 연결하려는 노력의 일환인 것입니다
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
그리고 남자아이들은 삶에 있어서의 그런 차이를 기꺼이 거짓말로 메꿀 것입니다
04:09
On a given day, studies show that you may be lied to
91
234000
3000
어느 날, 여러 연구들이
04:12
anywhere from 10 to 200 times.
92
237000
2000
사람들이 어디에서건 10~200번 거짓말을 한다고 밝혀냈습니다
04:14
Now granted, many of those are white lies.
93
239000
3000
그 중 많은 거짓말이 선의의 거짓말은 맞습니다
04:17
But in another study,
94
242000
2000
하지만 다른 한 연구에서는,
04:19
it showed that strangers lied three times
95
244000
2000
처음 만나는 사람은 첫 10분 동안
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
3번 거짓말을 한다는 것을 알아냈습니다
04:23
(Laughter)
97
248000
2000
(웃음)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
사람들이 이 자료를 처음 들을 때, 주춤하곤 합니다
04:28
We can't believe how prevalent lying is.
99
253000
2000
거짓말이 이렇게 빈번하다고 믿지 못하니까요
04:30
We're essentially against lying.
100
255000
2000
우리는 반드시 거짓말을 반대합니다
04:32
But if you look more closely,
101
257000
2000
하지만 조금 더 자세히 들여다보면,
04:34
the plot actually thickens.
102
259000
2000
그 이야기는 사실 더욱 흥미로워집니다.
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
사람들은 동료에게 보다 낯선 사람에게 거짓말을 더 많이 합니다
04:39
Extroverts lie more than introverts.
104
264000
4000
외향적인 사람은 내향적인 사람 보다 거짓말을 더 많이 하죠
04:43
Men lie eight times more about themselves
105
268000
3000
남자들은 자신에 대한 거짓말을
04:46
than they do other people.
106
271000
2000
남에 대한 것 보다 8배 더 많이 합니다
04:48
Women lie more to protect other people.
107
273000
3000
여자들은 다른 사람들을 보호하기 위해 더 많이 거짓을 말합니다
04:51
If you're an average married couple,
108
276000
3000
만약 여러분이 일반적인 기혼자들이라면,
04:54
you're going to lie to your spouse
109
279000
2000
여러분들께서는 자신의 배우자에게
04:56
in one out of every 10 interactions.
110
281000
2000
10번의 대화 중 1번은 거짓말을 할 것입니다
04:58
Now you may think that's bad.
111
283000
2000
아마 여러분들께서는 이게 나쁘다고 생각하실 겁니다
05:00
If you're unmarried, that number drops to three.
112
285000
2000
만약 여러분이 미혼이라면, 그 숫자는 3으로 줄어듭니다
05:02
Lying's complex.
113
287000
2000
거짓말은 복잡하죠
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
거짓말은 사람들의 일상적인 생활과 일에 대한 생활의 실로 짜여져 있습니다
05:07
We're deeply ambivalent about the truth.
115
292000
2000
우리는 진실에 대해 깊게 상반되는 생각을 가지고 있죠
05:09
We parse it out on an as-needed basis,
116
294000
2000
우리는 필요에 따라
05:11
sometimes for very good reasons,
117
296000
2000
어떤 때는 아주 좋은 이유에서,
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
그리고 어떤 때는 우리 삶에서 이애할 수 없는 차이 때문에 진실을 분석합니다
05:16
That's truth number two about lying.
119
301000
2000
이게 바로 거짓말에 대한 두 번째 진실입니다
05:18
We're against lying,
120
303000
2000
우리는 거짓말을 나쁘게 생각하지만,
05:20
but we're covertly for it
121
305000
2000
수 세기에, 세기에, 세기를 거쳐
05:22
in ways that our society has sanctioned
122
307000
2000
우리 사회가 인정한 방법 안에서는
05:24
for centuries and centuries and centuries.
123
309000
2000
암암리에 거짓말을 옹호합니다
05:26
It's as old as breathing.
124
311000
2000
이것은 숨을 쉬는 것만큼 오래되었습니다
05:28
It's part of our culture, it's part of our history.
125
313000
2000
거짓말은 우리 문화의 일부이자 역사의 일부입니다
05:30
Think Dante, Shakespeare,
126
315000
3000
단테, 셰익스피어,
05:33
the Bible, News of the World.
127
318000
3000
성경, 뉴스 오브 더 월드 지(誌)를 생각해보세요
05:36
(Laughter)
128
321000
2000
(웃음)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
거짓말은 일종의 생명체로서 진화론적인 가치가 있습니다
05:40
Researchers have long known
130
325000
2000
연구자들은
05:42
that the more intelligent the species,
131
327000
2000
어떤 종이 지능이 높을 수록,
05:44
the larger the neocortex,
132
329000
2000
그리고 전두엽이 클수록,
05:46
the more likely it is to be deceptive.
133
331000
2000
기만적이었다는 것을 오랫동안 알고 있었습니다
05:48
Now you might remember Koko.
134
333000
2000
아마 여러분들께선 코코를 기억하실지도 모릅니다
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
혹시 수화를 배웠던 고릴라인 코코를 기억하시는 분 계신가요?
05:53
Koko was taught to communicate via sign language.
136
338000
3000
코코는 수화를 통해 의사소통을 하도록 훈련을 받았습니다
05:56
Here's Koko with her kitten.
137
341000
2000
여기 코코와 고양이가 있네요
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
코코의 귀엽고 작은 폭신폭신한 애완동물 고양이입니다
06:01
Koko once blamed her pet kitten
139
346000
2000
코코는 그녀의 애완용 고양이가
06:03
for ripping a sink out of the wall.
140
348000
2000
벽에서 싱크대를 뜯어냈다고 뒤집어 씌운 적이 있습니다
06:05
(Laughter)
141
350000
2000
(웃음)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
우리는 무리에서 우두머리가 되라고 각인되어 있습니다
06:09
It's starts really, really early.
143
354000
2000
이는 아주 아주 초기에 시작되죠
06:11
How early?
144
356000
2000
얼마나 일찍이냐고요?
06:13
Well babies will fake a cry,
145
358000
2000
음, 아기들은 거짓으로 울다가,
06:15
pause, wait to see who's coming
146
360000
2000
잠깐 멈췄다가 누가 오는지를 보고
06:17
and then go right back to crying.
147
362000
2000
바로 다시 울기 시작합니다
06:19
One-year-olds learn concealment.
148
364000
2000
한 살배기는 숨기는 것을 배웁니다
06:21
(Laughter)
149
366000
2000
(웃음)
06:23
Two-year-olds bluff.
150
368000
2000
두 살에는 허세를 부리죠
06:25
Five-year-olds lie outright.
151
370000
2000
다섯 살짜리는 충분히 거짓말을 합니다
06:27
They manipulate via flattery.
152
372000
2000
이 아이들은 아부를 통해 거짓말을 하죠
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
9살짜리는 숨기는 것의 귀재들입니다
06:32
By the time you enter college,
154
377000
2000
여러분이 대학에 들어갈 때 쯤,
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
여러분은 어머니께 5번의 대화 중 1번은 거짓말을 하게 될겁니다
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
그리고 우리가 사회 생활에 뛰어들고, 한 가정의 가장이 되면,
06:40
we enter a world that is just cluttered
157
385000
2000
우리는 스팸메일, 가짜 인터넷 친구들,
06:42
with spam, fake digital friends,
158
387000
2000
편향된 매체,
06:44
partisan media,
159
389000
2000
영리한 개인정보 도둑,
06:46
ingenious identity thieves,
160
391000
2000
세계적인 다단계 업자,
06:48
world-class Ponzi schemers,
161
393000
2000
그리고 속임수 전염병으로
06:50
a deception epidemic --
162
395000
2000
어수선해진 세상
06:52
in short, what one author calls
163
397000
2000
즉, 어떤 작가가 일컬은
06:54
a post-truth society.
164
399000
3000
거짓말 이후의 사회에 들어서게 됩니다
06:57
It's been very confusing
165
402000
2000
지금까지 아주 오랫동안
06:59
for a long time now.
166
404000
3000
혼란스러웠었습니다
07:03
What do you do?
167
408000
2000
뭘 해야 할까요?
07:05
Well there are steps we can take
168
410000
2000
음, 이 진구렁 같은 곳을 통과하기 위해
07:07
to navigate our way through the morass.
169
412000
2000
실행해야할 단계가 있습니다
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
잘 훈련된 거짓말 색출가는 90퍼센트 정도로 진실을 찾아냅니다
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
그 외 일반인들은, 정확도가 오직 54퍼센트 밖에 안됩니다
07:15
Why is it so easy to learn?
172
420000
2000
왜 그렇게 배우기 쉬운걸까요?
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
거짓말을 잘하는 사람도 있고 못하는 사람도 있지만 원래부터 거짓말쟁이인 사람은 없습니다
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
사람들은 다 똑같은 실수를 저지르고, 동일한 방법을 사용합니다
07:23
So what I'm going to do
175
428000
2000
제가 앞으로 여러분들께
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
속임수의 두 가지 수법을 보여드리겠습니다
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
그리고 나서 거짓말을 단번에 알아챌 수 있는 곳을 보면서, 우리도 찾아낼 수 있는지 살펴보겠습니다
07:30
We're going to start with speech.
178
435000
3000
그럼 짧은 이야기로 시작하겠습니다
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
여러분, 제 말 좀 들어보십시오
07:35
I'm going to say this again.
180
440000
2000
다시 한 번 더 말씀 드리겠습니다
07:37
I did not have sexual relations
181
442000
3000
저는 그 여자, 르윈스키 씨와
07:40
with that woman, Miss Lewinsky.
182
445000
4000
성관계를 가지지 않았습니다
07:44
I never told anybody to lie,
183
449000
2000
전 그 누구에게도 거짓말을,
07:46
not a single time, never.
184
451000
2000
단 한번도, 절대로 한 적이 없습니다
07:48
And these allegations are false.
185
453000
3000
이 혐의들은 거짓입니다
07:51
And I need to go back to work for the American people.
186
456000
2000
그리고 전 미국 국민들을 위해 일하러 돌아가야만 합니다
07:53
Thank you.
187
458000
2000
감사합니다
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
자, 거짓말을 폭로하는 신호가 어떤 게 있었나요?
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
처음으로 들린 것은 '축약되지 않은 부정'으로 알려진 것이었습니다
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
여러 연구에서 자신들의 부정에 과도한 신념을 가진 사람들은
08:08
will resort to formal rather than informal language.
191
473000
3000
구어체 보다 문어체를 사용한다는 것을 밝혀냈습니다
08:11
We also heard distancing language: "that woman."
192
476000
3000
거리감을 나타내는 말 "그 여자" 또한 들렸었죠
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
우리는 거짓말을 하는 사람들이 무의식적으로
08:16
from their subject
194
481000
2000
언어를 도구로 사용하여
08:18
using language as their tool.
195
483000
3000
자신들을 다른 대상으로부터 멀어지게 한다는 것을 알고 있습니다
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
만약 빌 클린턴이 "음, 사실을 말씀드리자면 ..."이라고 했다거나,
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
리처드 닉슨이 가장 많이 사용했던 "모든 진실로써 ..."라고 말했다면,
08:26
he would have been a dead giveaway
198
491000
2000
그 주제에 대해 더욱 신빙성을 떨어뜨린
08:28
for any liespotter than knows
199
493000
2000
그 언어는 자신들은 소위 수준높은 언어라고 생각할지 모르나
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
거짓말 전문가에게는
08:33
further discredits the subject.
201
498000
2000
꼼짝없이 제물이 되었을것입니다.
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
그리고 빌 클린턴이 그러지 않아서 정말 다행이긴 하지만,
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
만약에 그가 질문 전체를 반복 했다거나,
08:42
and we're all really glad he didn't do that --
204
507000
2000
필요 이상의 세부사항들로 자신의 말에 후춧가루를 뿌렸다면,
08:44
he would have further discredited himself.
205
509000
2000
그는 나중에 자신의 신뢰도 또한 해쳤을 것입니다
08:46
Freud had it right.
206
511000
2000
프로이트의 말이 맞았습니다
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
프로이트는 "발화 보다 훨씬 더 많은 것이 있다
08:51
"No mortal can keep a secret.
208
516000
3000
그 누구도 비밀을 유지할 순 없다
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
그의 입술이 움직이지 않는다면, 그는 손끝으로 말하고 있는 것이다"라고 했습니다
08:57
And we all do it no matter how powerful you are.
210
522000
3000
그리고 우리는 권력이 얼마나 있던지 간에 그렇게 행동합니다
09:00
We all chatter with our fingertips.
211
525000
2000
사람들은 자신들의 손 끝으로 말합니다
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
지금 도미니크 스트로스칸과
09:05
who's chattering with his fingertips.
213
530000
3000
손으로 뭔가를 의미하는 오바마의 사진을 보여드리겠습니다
09:08
(Laughter)
214
533000
3000
(웃음)
09:11
Now this brings us to our next pattern,
215
536000
3000
이 사진은 우리가 다음에 배울 패턴인
09:14
which is body language.
216
539000
3000
신체 언어를 보여줍니다
09:17
With body language, here's what you've got to do.
217
542000
3000
여러분께서는 신체 언어로 이렇게 하시면 됩니다
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
여러분들의 생각을 문 밖으로 그냥 던지십시오
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
과학이 여러분의 지식을 약간 진정시키도록 내버려 두십시오
09:25
Because we think liars fidget all the time.
220
550000
3000
왜냐하면 우리는 거짓말쟁이들이 항상 안절부절 못한다고 생각하기 때문입니다
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
하지만 사실은, 그들은 거짓말을 할 때 상체를 뻣뻣하게 만든다고 알려져 있습니다
09:31
We think liars won't look you in the eyes.
222
556000
3000
사람들은 거짓말쟁이가 상대방의 눈을 쳐다보지 못 한다고 알고 있습니다
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
그렇지만 진실은, 그들이 그 미신을 상쇄하기 위해
09:36
just to compensate for that myth.
224
561000
2000
조금 더 많이 눈을 마주친다는 것입니다
09:38
We think warmth and smiles
225
563000
2000
우리는 따뜻함과 미소가
09:40
convey honesty, sincerity.
226
565000
2000
정직과 진솔함을 나타낸다고 믿습니다
09:42
But a trained liespotter
227
567000
2000
하지만 잘 훈련된 거짓말 색출가는
09:44
can spot a fake smile a mile away.
228
569000
2000
가짜 미소를 1마일 밖에서도 찾아낼 수 있습니다
09:46
Can you all spot the fake smile here?
229
571000
3000
여기 계신 여러분들도 가짜 미소를 알아채실 수 있나요?
09:50
You can consciously contract
230
575000
2000
사람들은 의식적으로
09:52
the muscles in your cheeks.
231
577000
3000
볼에 있는 근육들을 수축할 수 있습니다
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
하지만 진짜 미소는 눈에, 눈가의 까마귀발이라는 주름에 있습니다
09:58
They cannot be consciously contracted,
233
583000
2000
그 주름은 의식적으로 만들 수 없으며,
10:00
especially if you overdid the Botox.
234
585000
2000
특히 보톡스를 많이 맞았다면 불가능합니다
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
보톡스 너무 많이 맞지 마세요; 아무도 여러분이 정직하다고 생각하지 않을 겁니다
10:05
Now we're going to look at the hot spots.
236
590000
2000
이제 핫 스팟에 대해 알아보겠습니다
10:07
Can you tell what's happening in a conversation?
237
592000
2000
대화 중에 어떤 일이 일어나는 지 말할 수 있나요?
10:09
Can you start to find the hot spots
238
594000
3000
누군가가 말하는 것과
10:12
to see the discrepancies
239
597000
2000
행동하는 것의 차이를 보여주는
10:14
between someone's words and someone's actions?
240
599000
2000
핫 스팟을 찾아낼 수 있나요?
10:16
Now I know it seems really obvious,
241
601000
2000
아주 명백해 보이지만,
10:18
but when you're having a conversation
242
603000
2000
여러분이 거짓말을 하고 있다고
10:20
with someone you suspect of deception,
243
605000
3000
의심이 가는 사람과 대화를 할 때,
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
태도는 가장 많이 관찰되지만 지시어들을 말하는 것은 그렇지 못합니다
10:26
An honest person is going to be cooperative.
245
611000
2000
진실을 말하는 사람은 아주 협력적일 것입니다
10:28
They're going to show they're on your side.
246
613000
2000
그들은 자신이 여러분의 편에 서있다는 것을 보여줄 것입니다
10:30
They're going to be enthusiastic.
247
615000
2000
그들은 아주 열정적일 것입니다
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
그들은 기꺼이 여러분들을 진실로 이끌고 도움을 줄 것입니다
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
그들은 자진해서 브레인 스토밍을 하고,
10:37
provide details.
250
622000
2000
주의 인물의 이름을 대고, 자세한 내용도 줄 것입니다
10:39
They're going to say, "Hey,
251
624000
2000
그들은 아마 "저기,
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
아마 급여주는 부서 사람들이 그 수표를 위조했을거야"라고 말할 것입니다
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
만약 그들이 짧은 순간이 아니라 인터뷰 전 과정에 걸쳐서
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
부당하게 죄를 뒤집어 썼다면, 그들은 엄청 화를 낼 것입니다
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
인터뷰 하는 내내 불 같이 화를 내겠죠
10:52
And if you ask someone honest
256
637000
2000
그리고 여러분들께서 정직한 사람에게
10:54
what should happen to whomever did forge those checks,
257
639000
3000
수표를 위조한 사람들에게 어떤 처벌을 내려야 하느냐고 묻는다면,
10:57
an honest person is much more likely
258
642000
2000
진솔한 사람은 관대한 처벌 보다는
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
엄한 처벌을 추천할 가능성이 높습니다
11:03
Now let's say you're having that exact same conversation
260
648000
2000
이와 정확히 똑같은 대화를
11:05
with someone deceptive.
261
650000
2000
거짓말을 잘 하는 사람과 한다고 가정해보죠
11:07
That person may be withdrawn,
262
652000
2000
그 사람은 아마도 물러설 것이고,
11:09
look down, lower their voice,
263
654000
2000
아래를 보면서, 목소리를 낮추고,
11:11
pause, be kind of herky-jerky.
264
656000
2000
머뭇거리면서, 약간 예상하지 못한 행동을 할 것입니다
11:13
Ask a deceptive person to tell their story,
265
658000
2000
믿을 수 없는 사람에게 그들의 이야기를 해달라고 부탁해 보십시오
11:15
they're going to pepper it with way too much detail
266
660000
3000
그들은 별 상관도 없는 장소에서 일어난
11:18
in all kinds of irrelevant places.
267
663000
3000
너무 많은 자잘한 일을 덧붙여 이야기할 것입니다
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
그리고 시간에 흐름에 정확히 딱 들어 맞게 말을 할 것입니다
11:24
And what a trained interrogator does
269
669000
2000
훈련을 받은 심문자가 하는 일은
11:26
is they come in and in very subtle ways
270
671000
2000
인터뷰에 들어와서 몇 시간에 걸친 과정에서
11:28
over the course of several hours,
271
673000
2000
아주 자잘한 방법으로
11:30
they will ask that person to tell that story backwards,
272
675000
3000
그 사람에게 이야기를 거꾸로 말하라고 하는 것입니다
11:33
and then they'll watch them squirm,
273
678000
2000
그런 다음에 심문관은 거짓말쟁이들이 당황하는 지를 보고,
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
어떤 질문이 가장 높은 정도의 거짓말을 유도했는지 찾아내는 것입니다
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
왜 그럴까요? 사실 우리 모두는 동일한 행동을 합니다
11:41
We rehearse our words,
276
686000
2000
사람들은 말은 연습을 하지만,
11:43
but we rarely rehearse our gestures.
277
688000
2000
제스쳐는 거의 안하죠
11:45
We say "yes," we shake our heads "no."
278
690000
2000
사람들은 "네"라고 말하면서 머리는 "아니오"라고 흔듭니다
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
아주 납득할 만한 이야기를 하는데 어깨를 살짝 들었다 놓기도 하고,
11:50
We commit terrible crimes,
280
695000
2000
아주 끔찍한 범죄를 저지르고,
11:52
and we smile at the delight in getting away with it.
281
697000
3000
그것을 회피하기 위해 해맑은 미소를 짓습니다
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
그 미소를 이쪽 업계에서는 "거짓 기쁨(duping delight)"이라고 합니다
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
이제 몇 개의 영상을 앞으로 돌려 보면서 이것을 살펴볼까 합니다
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
이 사람이 누군지 모르는 분들을 위해,
12:03
this is presidential candidate John Edwards
285
708000
3000
이 사람은 대선 주자였던 존 에드워드입니다
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
그는 혼외정사로 낳은 아이를 기르는 것으로 인해 미국인들을 깜짝 놀라게 했었습니다
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
이제 그가 친부 확인 검사를 받는 것에 대해 말하는 장면을 보시겠습니다
12:12
See now if you can spot him
288
717000
2000
여러분께서 그가
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
"네"라고 말하면서 머리는 "아니오"라고 흔드는 것이나
12:16
slightly shrugging his shoulders.
290
721000
2000
어깨를 살짝 움츠렸다 놓는 것을 찾아낼 수 있는지 지금 확인해 보십시오
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
검사를 할 수 있게 되어서 아주 좋습니다
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
사건의 시간 상 맞지 않기 때문에
12:23
because of the timing of events.
293
728000
2000
이 아이는 제 아이가 아닙니다
12:25
So I know it's not possible.
294
730000
2000
그래서 전 불가능 하단 걸 알고 있습니다
12:27
Happy to take a paternity test,
295
732000
2000
친자확인 검사를 하게 되어 기쁘고,
12:29
and would love to see it happen.
296
734000
2000
그 결과를 볼 수 있어서 좋습니다
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
금방 하실껀가요? 다른 사람도 있나요?
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
음, 검사는 저 혼자, 혼자만 받습니다
12:37
But I'm happy to participate in one.
299
742000
3000
그래도 할 수 있어서 기쁩니다
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
자, 머리를 흔드는 것은 여러분이 그것들을
12:42
once you know to look for them.
301
747000
2000
볼 줄만 안다면 찾아내기가 엄청 쉬워집니다
12:44
There're going to be times
302
749000
2000
가끔은
12:46
when someone makes one expression
303
751000
2000
누군가가 순간적으로 슬쩍 흘러 나오는 다른 말을 감추면서
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
어떤 표현을 하는 경우가 있을 것입니다
12:52
Murderers are known to leak sadness.
305
757000
2000
살인자는 슬픔을 흘린다고 알려져 있습니다
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
여러분의 새로운 사업 파트너가 힘차게 악수를 하고,
12:56
celebrate, go out to dinner with you
307
761000
2000
축하하고, 같이 저녁을 먹으러 나갔는데
12:58
and then leak an expression of anger.
308
763000
3000
화난 표현을 비칠 수도 있습니다
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
물론 우리가 하룻밤만에 얼굴 표정 전문가가 될 수는 없겠지만,
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
아주 위험하고, 배우기 쉬운 것 하나는 가르쳐 드릴 수는 있습니다
13:07
and that's the expression of contempt.
311
772000
3000
그것은 바로 경멸의 표현입니다
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
분노에 대해 말하자면, 여기 평평한 운동장에 두 사람이 있습니다
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
아직까지는 약간은 건전한 관계입니다
13:15
But when anger turns to contempt,
314
780000
2000
그러나 분노가 경멸로 바뀌는 순간,
13:17
you've been dismissed.
315
782000
2000
그 둘은 관계를 끊게 되죠
13:19
It's associated with moral superiority.
316
784000
2000
그것은 도덕적 우위와 관련이 있습니다
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
그러한 이유로, 이는 회복하기가 아주 아주 어렵습니다
13:24
Here's what it looks like.
318
789000
2000
바로 이런 모습입니다
13:26
It's marked by one lip corner
319
791000
2000
경멸은 한 쪽 입꼬리가 올라가고
13:28
pulled up and in.
320
793000
2000
안으로 들어가면서 만들어집니다
13:30
It's the only asymmetrical expression.
321
795000
3000
유일하게 대칭적이지 않은 표정이죠
13:33
And in the presence of contempt,
322
798000
2000
경멸감이 존재한다면,
13:35
whether or not deception follows --
323
800000
2000
이후에 항상 거짓말이 뒤따르는 것은 아니지만,
13:37
and it doesn't always follow --
324
802000
2000
이어지든 말든,
13:39
look the other way, go the other direction,
325
804000
2000
다른 곳을 보고, 다른 방향으로 가고,
13:41
reconsider the deal,
326
806000
2000
계약을 다시 생각 해보고,
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
"아뇨 괜찮습니다. 술은 더 마시지 않겠습니다. 고맙습니다"라고 말하세요
13:47
Science has surfaced
328
812000
2000
과학자들은 아주 더 많은
13:49
many, many more indicators.
329
814000
2000
척도들을 찾아냈습니다
13:51
We know, for example,
330
816000
2000
예를 들어,
13:53
we know liars will shift their blink rate,
331
818000
2000
사람들은 거짓말쟁이들은 눈을 깜빡이는 속도를 바꾼다던가,
13:55
point their feet towards an exit.
332
820000
2000
발 끝을 출구 쪽으로 향하게 한다는 사실을 알고 있습니다
13:57
They will take barrier objects
333
822000
2000
그들은 방어를 할 수 있는 것을 찾아
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
그것을 자신들과 면접을 진행하는 사람 사이에 놓을 것입니다
14:02
They'll alter their vocal tone,
335
827000
2000
가끔은 목소리 톤을 아주 낮추면서,
14:04
often making their vocal tone much lower.
336
829000
3000
자신들의 목소리 톤도 바꿉니다
14:07
Now here's the deal.
337
832000
2000
결론을 말씀 드리죠
14:09
These behaviors are just behaviors.
338
834000
3000
이 행동들은 말 그대로 행동일 뿐입니다
14:12
They're not proof of deception.
339
837000
2000
거짓을 나타내는 증거가 아닙니다
14:14
They're red flags.
340
839000
2000
경고 깃발 쯤 되겠네요
14:16
We're human beings.
341
841000
2000
우리는 인간입니다
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
인간들은 하루 종일 여기저기서 마구잡이로 거짓된 제스쳐를 보여줍니다
14:21
They don't mean anything in and of themselves.
343
846000
2000
그런 행동에서, 혹은 그런 행동으로부터 어떤 것도 의미하지 않죠
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
하지만 여러분께서 일련의 그런 행동을 보았을 때, 그게 바로 신호인 것이죠
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
보고, 듣고, 탐색하고, 어려운 질문도 던지세요
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
알아간다는 아주 편한 상태에서 나와서
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
호기심의 상태로 들어가세요 그리고 더 많은 질문을 하세요
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
약간의 존엄성을 가지시고, 대화를 하는 사람을 신뢰감을 가지고 대하세요
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
"Law & Order : 범죄전담반"이나 다른 TV 드라마에 나오는
14:41
that pummel their subjects into submission.
350
866000
2000
심문 대상자를 무자비하게 항복으로 몰아가는 사람들처럼 행동하려곤 하지 마세요
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
너무 공격적이면 안됩니다 효과가 없거든요
14:46
Now we've talked a little bit
352
871000
2000
자, 지금까지 우리는 거짓말을 하는 사람에게
14:48
about how to talk to someone who's lying
353
873000
2000
어떤 식으로 말을 해야하는지,
14:50
and how to spot a lie.
354
875000
2000
또 어떻게 거짓말을 찾아낼 수 있는지에 대해 약간 이야기 해봤습니다
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
그리고 제가 약속 드린 바와 같이, 이제 진실은 어떤 모습일 지에 대해 살펴보겠습니다
14:55
But I'm going to show you two videos,
356
880000
2000
이제 한 명은 거짓말을 하고 있고,
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
한 명은 진실을 말하고 있는 두 어머니가 나오는 영상을 보여드리겠습니다
15:00
And these were surfaced
358
885000
2000
이들은 캘리포니아에 사는
15:02
by researcher David Matsumoto in California.
359
887000
2000
데이비드 마츠모토 연구원에 의해 밝혀진 것입니다
15:04
And I think they're an excellent example
360
889000
2000
제 생각에는 그들이 진실은 어떤 모습일 지에 대한
15:06
of what the truth looks like.
361
891000
2000
완벽한 예시가 될 것 같네요
15:08
This mother, Diane Downs,
362
893000
2000
이 어머니, 다이애나 다운즈는
15:10
shot her kids at close range,
363
895000
2000
가까운 거리에서 자신의 아이들을 쏘고,
15:12
drove them to the hospital
364
897000
2000
그들이 온 자동차에 피를 흘리는 동안
15:14
while they bled all over the car,
365
899000
2000
병원으로 데려가서는
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
삐쩍 마르고 털이 많은 어떤 사람이 와서 그랬다고 이야기 했었습니다
15:18
And you'll see when you see the video,
367
903000
2000
그리고 여러분께서 영상을 보시면,
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
그녀는 화가 난 어머니인 척도 못하는 것을 알 수 있습니다
15:22
What you want to look for here
369
907000
2000
여기서 여러분께서 찾아보셔야 할 것은
15:24
is an incredible discrepancy
370
909000
2000
그녀가 묘사하는 아주 끔찍한 사건과
15:26
between horrific events that she describes
371
911000
2000
그녀의 아주 아주 차분한 행동 사이의
15:28
and her very, very cool demeanor.
372
913000
2000
말도 안되는 괴리감입니다
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
또 더 자세히 관찰하신다면, 영상 내내 거짓 기쁨을 찾으실 수 있을 겁니다
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
매일밤 눈을 감을 때 마다,
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
운전하고 있는 제게 입에서 피를 계속 흘리는 채로
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
손을 뻗는 크리스티가 보여요
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
시간이 지나면서 흐려졌을 수도 있지만,
15:43
but I don't think so.
378
928000
2000
전 절대 그렇게 생각하지 않아요
15:45
That bothers me the most.
379
930000
3000
그게 제일 괴로워요
15:55
PM: Now I'm going to show you a video
380
940000
2000
이제 정말로 비탄에 빠져있는 어머니인
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
에린 루니언이 법정에서 딸을 고문하고 살해한 사람들을
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
맞서고 있는 영상을 보여드리겠습니다
16:03
Here you're going to see no false emotion,
383
948000
2000
여기서 여러분은 거짓된 감정 하나도 없이,
16:05
just the authentic expression of a mother's agony.
384
950000
3000
단지 어머니의 분노의 진실된 표현만을 보실겁니다
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
전 당신들이 내 딸을 데리고 간
16:10
of the night you took my baby,
386
955000
2000
그 밤으로부터 3년째 되는 날 이 글을 썼습니다
16:12
and you hurt her,
387
957000
2000
당신들은 내 딸을 다치게 하고,
16:14
and you crushed her,
388
959000
2000
학대하고,
16:16
you terrified her until her heart stopped.
389
961000
4000
심장이 멎을 때까지 공포에 몰아 넣었습니다
16:20
And she fought, and I know she fought you.
390
965000
3000
그리고 그녀는 저항을 했었겠죠
16:23
But I know she looked at you
391
968000
2000
하지만 딸아이가 그 고운 갈색눈으로
16:25
with those amazing brown eyes,
392
970000
2000
당신들을 쳐다보고 있었음에도,
16:27
and you still wanted to kill her.
393
972000
3000
당신들은 여전히 그녀를 죽이고 싶어했었습니다
16:30
And I don't understand it,
394
975000
2000
난 여전히 이해가 안되고,
16:32
and I never will.
395
977000
3000
앞으로도 절대 이해하지 못할 것입니다
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
자, 이 감정에 담긴 진실성에 대해선 의심의 여지가 없습니다
16:39
Now the technology around what the truth looks like
397
984000
3000
진실이 가지고 있는 모습에 관한
16:42
is progressing on, the science of it.
398
987000
3000
기술, 과학은 점점 발전하고 있습니다
16:45
We know for example
399
990000
2000
예를 들어, 특화된 아이트래커나,
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
적외선 뇌 스캔,
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
거짓말을 하려고 할 때
16:53
when we're trying to be deceptive.
402
998000
2000
몸이 보내는 신호를 해독할 수 있는 MRI 등이 있습니다
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
그리고 이런 기술들은 거짓을 밝혀내는
16:58
as panaceas for deceit,
404
1003000
2000
만능도구로써 시장에 나올 것이고,
17:00
and they will prove incredibly useful some day.
405
1005000
3000
언젠가는 엄청나게 유용하다고 밝혀질 것입니다
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
하지만 이런 질문에 대해 한 번 생각해 보세요
17:05
Who do you want on your side of the meeting,
407
1010000
2000
미팅을 할 때, 진실을 알 수 있도록
17:07
someone who's trained in getting to the truth
408
1012000
3000
훈련을 받은 사람과
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
200kg이 넘는 뇌전도 장치를 가지고 들어오는 사람 중
17:12
through the door?
410
1017000
2000
어떤 사람을 자신의 옆에 앉히고 싶으신가요?
17:14
Liespotters rely on human tools.
411
1019000
4000
거짓말 색출가는 인간적인 도구에 의존합니다
17:18
They know, as someone once said,
412
1023000
2000
그들은, 누군가가 이전에 말했다시피
17:20
"Character's who you are in the dark."
413
1025000
2000
"성격은 어둠 속에 있는 자신이다"라는 사실을 알고 있습니다
17:22
And what's kind of interesting
414
1027000
2000
하지만 약간 흥미로운 것은
17:24
is that today we have so little darkness.
415
1029000
2000
오늘날 우리에겐 어둠이 거의 없다는 사실입니다
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
이 세계는 24시간 불이 켜져있죠
17:29
It's transparent
417
1034000
2000
이 세상은
17:31
with blogs and social networks
418
1036000
2000
자신의 삶을 다른 사람들에게 모두 공개하고자 하는
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
전혀 새로운 세대의 사람들이 가진 시시콜콜한 이야기도 전달하는
17:35
that have made a choice to live their lives in public.
420
1040000
3000
블로그와 SNS 덕분에 아주 투명해졌습니다
17:38
It's a much more noisy world.
421
1043000
4000
훨씬 더 시끄러운 세상이죠
17:42
So one challenge we have
422
1047000
2000
그래서 우리에게 주어진 한 가지 쟁점은
17:44
is to remember,
423
1049000
2000
"과도하게 공유하는 것",
17:46
oversharing, that's not honesty.
424
1051000
3000
그것이 "정직함"은 아니라는 사실을 기억하는 것입니다
17:49
Our manic tweeting and texting
425
1054000
2000
우리의 광적인 트위터와 문자의 사용은
17:51
can blind us to the fact
426
1056000
2000
사실을 보지 못하게 합니다
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
인간의 품위에 대한 통찰력, 즉 성품, 고결함,
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
이것들이 여전히 중요하고, 앞으로도 항상 중요할 것들입니다
17:59
So in this much noisier world,
429
1064000
2000
그러므로 이런 훨씬 더 시끄러워진 세상에서
18:01
it might make sense for us
430
1066000
2000
우리의 도덕적인 관념에 대해
18:03
to be just a little bit more explicit
431
1068000
2000
약간 더 명백히 하는 것이
18:05
about our moral code.
432
1070000
3000
더 이치에 맞을 지도 모르겠네요
18:08
When you combine the science of recognizing deception
433
1073000
2000
사람들이 거짓을 인지하는 과학을
18:10
with the art of looking, listening,
434
1075000
2000
보고, 듣는 기술과 결합할 때,
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
그들은 자신을 거짓말에 동조하는 것에서 제외시킵니다
18:15
You start up that path
436
1080000
2000
주변에 있는 사람들에게 알리면서
18:17
of being just a little bit more explicit,
437
1082000
2000
아주 조금만 더
18:19
because you signal to everyone around you,
438
1084000
2000
확실히 표현하는 길을 시작하세요
18:21
you say, "Hey, my world, our world,
439
1086000
3000
"이봐, 내가 사는 세상, 또 우리가 사는 세상은
18:24
it's going to be an honest one.
440
1089000
2000
정직한 세상이 될거야
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
내 세상은 진실이 강해지고,
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
거짓은 밝혀지고 무시되는 세상으로 바뀔거야
18:31
And when you do that,
443
1096000
2000
그리고 여러분이 그렇게 할 때,
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
여러분을 둘러싸고 있는 세상은 아주 살짝 바뀔 것입니다
18:36
And that's the truth. Thank you.
445
1101000
3000
그게 바로 진실입니다 감사합니다
18:39
(Applause)
446
1104000
5000
(박수)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com