TEDGlobal 2011
Pamela Meyer: How to spot a liar
Pamela Meyer: Làm thế nào để phát hiện ra kẻ nói dối
Filmed:
Readability: 3.8
28,415,176 views
Mỗi ngày chúng ta bị nói dối từ 10 đến 200 lần, và những manh mối để phát hiện ra những lời nói dối có thể rất nhẹ và khó thấy. Pamela Meyer, tác giả cuốn sách Phát hiện nói dối, cho thấy cách mà những chuyên gia sử dụng hành vi và các "điểm nổi" như công cụ để phát hiện sự dối trá - và lập luận rằng trung thực là một giá trị cần được bảo tồn.
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
Được rồi, không phải tôi muốn cảnh báo những người ngồi đây,
00:20
but it's just come to my attention
1
5000
2000
nhưng cần lưu ý rằng
00:22
that the person to your right is a liar.
2
7000
2000
người ngồi bên phải bạn là kẻ nói dối.
00:24
(Laughter)
3
9000
2000
(Tiếng cười)
00:26
Also, the person to your left is a liar.
4
11000
3000
Người ngồi bên trái bạn cũng là kẻ nói dối.
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
Và cả người ngồi sát cạnh bạn cũng là kẻ nối dối.
00:32
We're all liars.
6
17000
2000
Tất cả chúng ta đều nói dối.
00:34
What I'm going to do today
7
19000
2000
Những gì tôi làm hôm nay
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
là cho các bạn thấy những nghiên cứu giải thích tại sao tất cả chúng ta đều là kẻ nói dối,
00:39
how you can become a liespotter
9
24000
2000
và làm thế nào để trở thành người phát hiện nói dối
00:41
and why you might want to go the extra mile
10
26000
3000
và tại sao bạn lại muốn đi cả một chặng đường dài
00:44
and go from liespotting to truth seeking,
11
29000
3000
từ phát hiện nói dối tới tìm ra sự thật,
00:47
and ultimately to trust building.
12
32000
2000
và cuối cùng là xây dựng niềm tin.
00:49
Now speaking of trust,
13
34000
3000
Nói về sự tin tưởng,
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
kể từ khi tôi viết cuốn "Phát hiện nói dối,"
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
không ai muốn gặp tôi trực diện nữa, không, không, không, không, không.
00:58
They say, "It's okay, we'll email you."
16
43000
3000
Họ nói, "Được rồi mà, chúng tôi sẽ email cho cô."
01:01
(Laughter)
17
46000
2000
(Tiếng cười)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
Tôi thậm chí còn không uống được cà phê tại Starbucks.
01:07
My husband's like, "Honey, deception?
19
52000
2000
Chồng tôi thì nói, "Em yêu, sự lừa dối ư?
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
Có lẽ em nên chuyên tâm vào việc nấu nướng đi thì hơn. Món Pháp chẳng hạn?"
01:12
So before I get started, what I'm going to do
21
57000
2000
Vì vậy, trước khi bắt đầu, tôi sẽ
01:14
is I'm going to clarify my goal for you,
22
59000
3000
làm rõ mục đích của mình,
01:17
which is not to teach a game of Gotcha.
23
62000
2000
không phải là để dạy các bạn một trò chơi kiểu “Trúng rồi”.
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
Người phát hiện nói dối không phải là những đứa trẻ thích soi mói,
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
những đứa trẻ núp sau căn phòng la hét, "Trúng rồi! Trúng rồi!
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
Lông mày của cậu co giật. Lỗ mũi của cậu phập phồng.
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
Tôi đã xem chương trình “Thử nói dối đi. Tôi biết bạn đang nói dối."
01:30
No, liespotters are armed
28
75000
2000
Không, người phát hiện nói dối được trang bị
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
những kiến thức khoa học để phát hiện những lời nói dối.
01:35
They use it to get to the truth,
30
80000
2000
Họ dùng nó để đến được với sự thật,
01:37
and they do what mature leaders do everyday;
31
82000
2000
và họ làm điều mà những nhà lãnh đạo kì cựu làm mỗi ngày;
01:39
they have difficult conversations with difficult people,
32
84000
3000
có những cuộc đối thoại khó nhằn với những người khó đoán,
01:42
sometimes during very difficult times.
33
87000
2000
đôi khi còn trong những thời điểm cũng rất khó khăn.
01:44
And they start up that path
34
89000
2000
Và họ bắt đầu hành trình đó
01:46
by accepting a core proposition,
35
91000
2000
bằng cách chấp nhận một nhận định cốt lõi,
01:48
and that proposition is the following:
36
93000
2000
đó là:
01:50
Lying is a cooperative act.
37
95000
3000
Nói dối là một hành động tương hỗ.
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
Thử nghĩ xem, lời nói dối tự thân nó chỉ là một lời thốt ra từ miệng.
01:57
Its power emerges
39
102000
2000
Nó chỉ có sức nặng
01:59
when someone else agrees to believe the lie.
40
104000
2000
khi có người tin vào nó.
02:01
So I know it may sound like tough love,
41
106000
2000
Vì vậy, dù nghe giống kiểu tình yêu trái ngang,
02:03
but look, if at some point you got lied to,
42
108000
4000
nhưng nghĩ xem, nếu có lúc bạn bị lừa dối,
02:07
it's because you agreed to get lied to.
43
112000
2000
là do bạn đã đồng ý để bị gạt.
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
Sự thật số một về nói dối: Nói dối là một hành động tương hỗ.
02:12
Now not all lies are harmful.
45
117000
2000
Không phải mọi lời nói dối đều gây hại.
02:14
Sometimes we're willing participants in deception
46
119000
3000
Đôi khi ta sẵn sàng nói dối,
02:17
for the sake of social dignity,
47
122000
3000
vì các giá trị xã hội,
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
vì phải giữ kín một bí mật cần được giữ kín thật kín.
02:23
We say, "Nice song."
49
128000
2000
Ta nói, "Bài hát hay."
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
"Em yêu, trông em không hề béo trong bộ cánh đó."
02:28
Or we say, favorite of the digiratti,
51
133000
2000
Hay câu nói yêu thích của dân mạng,
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
"Bạn xem, tôi mới lục thấy nó trong đống thư rác của mình.
02:33
So sorry."
53
138000
3000
Thành thật xin lỗi."
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
Tuy nhiên, cũng có lúc chúng ta không sẵn sàng nói dối.
02:39
And that can have dramatic costs for us.
55
144000
3000
Và nó có thể khiến chúng ta phải trả giá đắt.
02:42
Last year saw 997 billion dollars
56
147000
3000
Năm ngoái 997 tỷ USD
02:45
in corporate fraud alone in the United States.
57
150000
4000
tổn thất do các vụ lừa đảo công ty tại Hoa Kỳ.
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
Đó chỉ là giọt nước so với con số hàng nghìn tỷ đô la.
02:51
That's seven percent of revenues.
59
156000
2000
Đó là bảy phần trăm doanh thu.
02:53
Deception can cost billions.
60
158000
2000
Nói dối có thể có giá tới hàng tỷ đô.
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
Hãy nhớ lại vụ Enron, Madoff, cuộc khủng hoảng cho vay thế chấp.
02:58
Or in the case of double agents and traitors,
62
163000
3000
Hoặc vụ việc về các gián điệp hai mang và những kẻ phản bội,
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
như Robert Hanssen hoặc Aldrich Ames,
03:03
lies can betray our country,
64
168000
2000
nói dối có thể đẩy đất nước vào vực thẳm,
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
làm hại đến an ninh, gây suy yếu nền dân chủ,
03:08
they can cause the deaths of those that defend us.
66
173000
3000
giết chết những người bảo vệ chúng ta.
03:11
Deception is actually serious business.
67
176000
3000
Lừa dối là một công việc hẳn hoi.
03:14
This con man, Henry Oberlander,
68
179000
2000
Tên lừa đảo Henry Oberlander,
03:16
he was such an effective con man
69
181000
2000
quả là một tay lừa có hạng.
03:18
British authorities say
70
183000
2000
Chính quyền Anh từng nói
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
ông ta gần như đã làm suy yếu toàn bộ hệ thống ngân hàng phương Tây.
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
Và bạn không thể tìm ra ông ta trên Google, hay bất cứ đâu.
03:25
He was interviewed once, and he said the following.
73
190000
3000
Ông ta từng được phỏng vấn một lần, và đã nói.
03:28
He said, "Look, I've got one rule."
74
193000
2000
"Nhìn này, tôi có một quy tắc."
03:30
And this was Henry's rule, he said,
75
195000
3000
Và đây là quy tắc của Henry, ông ta nói,
03:33
"Look, everyone is willing to give you something.
76
198000
2000
"Nhìn xem, mọi người luôn sẵn sàng cho bạn cái gì đó.
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
Họ sẵn sàng cho bạn cái gì đó để có được thứ họ đang khao khát."
03:38
And that's the crux of it.
78
203000
2000
Và đó là mấu chốt của vấn đề.
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
Nếu bạn không muốn bị lừa gạt, bạn phải biết,
03:42
what is it that you're hungry for?
80
207000
2000
bạn đang khao khát điều gì?
03:44
And we all kind of hate to admit it.
81
209000
3000
Tất cả chúng ta đều ghét phải thừa nhận điều đó.
03:47
We wish we were better husbands, better wives,
82
212000
3000
Chúng ta luôn ước rằng phải chi mình là người chồng, người vợ tốt hơn,
03:50
smarter, more powerful,
83
215000
2000
thông minh hơn, mạnh mẽ hơn,
03:52
taller, richer --
84
217000
2000
cao to hơn, giàu có hơn –
03:54
the list goes on.
85
219000
2000
và vân vân.
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
Nói dối là một nỗ lực để thu hẹp khoảng cách,
03:58
to connect our wishes and our fantasies
87
223000
2000
kết nối mong muốn và lý tưởng của chúng ta
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
về những người, những gì chúng ta muốn trở thành,
04:03
with what we're really like.
89
228000
3000
với bản thân mình thực tại.
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
Và chúng ta sẵn sàng khỏa lấp những khoảng trống cuộc đời đó bằng sự dối trá.
04:09
On a given day, studies show that you may be lied to
91
234000
3000
Vào một ngày nhất định, nghiên cứu cho thấy rằng bạn có thể nói dối
04:12
anywhere from 10 to 200 times.
92
237000
2000
ở bất cứ đâu, từ 10 đến 200 lần.
04:14
Now granted, many of those are white lies.
93
239000
3000
Tạm cho rằng hầu hết trong số đó là những lời nói dối vô hại.
04:17
But in another study,
94
242000
2000
Nhưng một nghiên cứu khác
04:19
it showed that strangers lied three times
95
244000
2000
cho thấy rằng một người lạ sẽ nói dối ba lần
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
trong 10 phút đầu tiên gặp gỡ.
04:23
(Laughter)
97
248000
2000
(Tiếng cười)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
Khi nghe thấy điều này lần đầu, chúng ta tất thảy đều giật mình.
04:28
We can't believe how prevalent lying is.
99
253000
2000
Chúng ta không thể tin rằng nói dối thịnh hành đến vậy.
04:30
We're essentially against lying.
100
255000
2000
Bản chất ta chống lại sự dối trá.
04:32
But if you look more closely,
101
257000
2000
Nhưng nếu xem xét kĩ,
04:34
the plot actually thickens.
102
259000
2000
sự thật đang ẩn sâu bên trong.
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
Ta nói dối với người lạ nhiều hơn là với đồng nghiệp.
04:39
Extroverts lie more than introverts.
104
264000
4000
Người hướng ngoại nói dối nhiều hơn người hướng nội.
04:43
Men lie eight times more about themselves
105
268000
3000
Đàn ông nói dối về mình tám lần
04:46
than they do other people.
106
271000
2000
hơn là về người khác.
04:48
Women lie more to protect other people.
107
273000
3000
Phụ nữ nói dối phần nhiều là để bảo vệ người khác.
04:51
If you're an average married couple,
108
276000
3000
Nếu bạn là một đôi vợ chồng bình thường,
04:54
you're going to lie to your spouse
109
279000
2000
bạn sẽ nói dối với bạn đời của mình
04:56
in one out of every 10 interactions.
110
281000
2000
một trong 10 lần trò chuyện.
04:58
Now you may think that's bad.
111
283000
2000
Bạn có thể nghĩ đó là điều xấu xa.
05:00
If you're unmarried, that number drops to three.
112
285000
2000
Nếu bạn chưa lập gia đình, con số đó giảm xuống còn ba.
05:02
Lying's complex.
113
287000
2000
Nói dối rất phức tạp.
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
Nó đã đan xen thành một phần cuộc sống và công việc của ta .
05:07
We're deeply ambivalent about the truth.
115
292000
2000
Chúng ta mâu thuẫn sâu sắc về sự thật.
05:09
We parse it out on an as-needed basis,
116
294000
2000
Chúng ta xem đó như một căn bản tất yếu,
05:11
sometimes for very good reasons,
117
296000
2000
đôi khi vì những lý do rất tốt,
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
khi khác chỉ vì chúng ta không thể hiểu được những khoảng trống trong cuộc đời mình.
05:16
That's truth number two about lying.
119
301000
2000
Đó là sự thật số hai về nói dối.
05:18
We're against lying,
120
303000
2000
Chúng ta chống lại sự dối trá,
05:20
but we're covertly for it
121
305000
2000
nhưng lại ngầm cho nó tự tác
05:22
in ways that our society has sanctioned
122
307000
2000
như cách mà xã hội đã từng chấp nhận
05:24
for centuries and centuries and centuries.
123
309000
2000
trong nhiều nhiều thế kỷ qua.
05:26
It's as old as breathing.
124
311000
2000
Nó tồn tại cũng lâu như hơi thở vậy.
05:28
It's part of our culture, it's part of our history.
125
313000
2000
Nó là một phần của văn hóa, của lịch sử của chúng ta.
05:30
Think Dante, Shakespeare,
126
315000
3000
Hãy nhớ đến Dante, Shakespeare,
05:33
the Bible, News of the World.
127
318000
3000
Kinh Thánh, Tin tức thế giới.
05:36
(Laughter)
128
321000
2000
(Tiếng cười)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
Dối trá có ý nghĩa tiến hóa tương đương một loài.
05:40
Researchers have long known
130
325000
2000
Các nhà nghiên cứu từ lâu đã biết rằng
05:42
that the more intelligent the species,
131
327000
2000
các loài thông minh hơn,
05:44
the larger the neocortex,
132
329000
2000
thì tân vỏ não sẽ lớn hơn,
05:46
the more likely it is to be deceptive.
133
331000
2000
và nhiều khả năng nó được sử dụng để đánh lừa.
05:48
Now you might remember Koko.
134
333000
2000
Hãy nhớ đến Koko.
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
Còn ai nhớ Koko, cô nàng gorilla từng được dạy ngôn ngữ ký hiệu?
05:53
Koko was taught to communicate via sign language.
136
338000
3000
Koko được dạy để giao tiếp thông qua ngôn ngữ ký hiệu.
05:56
Here's Koko with her kitten.
137
341000
2000
Đây là Koko với con mèo của cô nàng.
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
Chú mèo cưng lông lá nhỏ bé dễ thương của cô nàng.
06:01
Koko once blamed her pet kitten
139
346000
2000
Koko từng đổ lỗi cho thú cưng
06:03
for ripping a sink out of the wall.
140
348000
2000
làm tràn nước bể chứa.
06:05
(Laughter)
141
350000
2000
(Tiếng cười)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
Chúng ta được cài đặt để trở thành những nhà lãnh đạo hoàn hảo.
06:09
It's starts really, really early.
143
354000
2000
Việc đó bắt đầu từ rất, rất sớm.
06:11
How early?
144
356000
2000
Như thế nào?
06:13
Well babies will fake a cry,
145
358000
2000
Trẻ sơ sinh thì giả khóc,
06:15
pause, wait to see who's coming
146
360000
2000
dừng và chờ đợi xem có ai đang đến không,
06:17
and then go right back to crying.
147
362000
2000
rồi lại khóc tiếp.
06:19
One-year-olds learn concealment.
148
364000
2000
Một tuổi ta học giấu diếm.
06:21
(Laughter)
149
366000
2000
(Tiếng cười)
06:23
Two-year-olds bluff.
150
368000
2000
Hai tuổi ta lừa gạt.
06:25
Five-year-olds lie outright.
151
370000
2000
Năm tuổi ta nói dối rành rành.
06:27
They manipulate via flattery.
152
372000
2000
Phỉnh nịnh là cách giúp ta thực tập nó.
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
Chín tuổi, ta là chuyên gia bao biện.
06:32
By the time you enter college,
154
377000
2000
Lúc vào đại học,
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
ta nói dối mẹ mình một trong năm lần trò chuyện.
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
Lúc đi làm và trở thành người lao động chính,
06:40
we enter a world that is just cluttered
157
385000
2000
ta bước vào một thế giới chồng chất
06:42
with spam, fake digital friends,
158
387000
2000
những thư rác, những người bạn ảo,
06:44
partisan media,
159
389000
2000
phương tiện truyền thông đảng phái,
06:46
ingenious identity thieves,
160
391000
2000
những tên trộm ẩn danh tài tình,
06:48
world-class Ponzi schemers,
161
393000
2000
những vụ đầu tư lừa đảo đẳng cấp thế giới,
06:50
a deception epidemic --
162
395000
2000
một đại dịch của sự dối trá --
06:52
in short, what one author calls
163
397000
2000
nói ngắn gọn, như một tác giả từng gọi --
06:54
a post-truth society.
164
399000
3000
một xã hội sau sự thật.
06:57
It's been very confusing
165
402000
2000
Nó khiến chúng ta bối rối
06:59
for a long time now.
166
404000
3000
suốt một thời gian dài.
07:03
What do you do?
167
408000
2000
Bạn sẽ làm gì?
07:05
Well there are steps we can take
168
410000
2000
Chúng ta cần thực hiện vài bước
07:07
to navigate our way through the morass.
169
412000
2000
để kéo mình ra khỏi mớ hỗn độn này.
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
Người phát hiện nói dối chuyên nghiệp sẽ biết được sự thật 90% thời gian.
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
Còn chúng ta chỉ có được 54% sự thật
07:15
Why is it so easy to learn?
172
420000
2000
Sao chuyện đó lại dễ dàng học được?
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
Có người nói dối giỏi thì cũng có người nói dối kém. Không ai bẩm sinh đã nói dối .
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
Tất cả chúng ta đều mắc những sai lầm tương tự. Tất cả chúng ta đều sử dụng những kỹ xảo tương tự.
07:23
So what I'm going to do
175
428000
2000
Vì vậy, tôi sẽ
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
cho các bạn xem hai mẫu của việc nói dối.
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
Và sau đó chúng ta sẽ cùng nhìn vào các điểm nổi và xem liệu có thể tự tìm ra chúng hay không.
07:30
We're going to start with speech.
178
435000
3000
Đầu tiên là lời nói.
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
(Video) Bill Clinton: Tôi muốn bạn lắng nghe tôi.
07:35
I'm going to say this again.
180
440000
2000
Tôi sẽ lặp lại điều này một lần nữa.
07:37
I did not have sexual relations
181
442000
3000
Tôi không có quan hệ tình dục
07:40
with that woman, Miss Lewinsky.
182
445000
4000
với người phụ nữ đó, cô Lewinsky.
07:44
I never told anybody to lie,
183
449000
2000
Tôi chưa bao giờ bảo người khác nói dối,
07:46
not a single time, never.
184
451000
2000
không lúc nào, không bao giờ.
07:48
And these allegations are false.
185
453000
3000
Những cáo buộc này là sai.
07:51
And I need to go back to work for the American people.
186
456000
2000
Và tôi cần quay trở lại làm việc vì lợi ích của người dân Mỹ.
07:53
Thank you.
187
458000
2000
Cảm ơn.
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
Pamela Meyer: Được rồi, những biểu hiện lộ liễu này là gì đây?
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
Đầu tiên, những gì chúng ta nghe thấy có vẻ như một sự chối tội.
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
Nghiên cứu cho thấy rằng những người quá tập trung trong việc phủ nhận
08:08
will resort to formal rather than informal language.
191
473000
3000
sẽ sử dụng lối nói trịnh trọng thay vì lối nói thông thường.
08:11
We also heard distancing language: "that woman."
192
476000
3000
Chúng ta đã nghe những từ ngữ ám chỉ xa xôi như: "người phụ nữ đó."
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
Chúng ta biết rằng người nói dối sẽ vô thức tách mình
08:16
from their subject
194
481000
2000
ra khỏi chủ đề
08:18
using language as their tool.
195
483000
3000
sử dụng ngôn ngữ như một công cụ.
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
Bây giờ nếu Bill Clinton nói, "Vâng, nói thật là..."
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
hoặc câu nói yêu thích của Richard Nixon, "Bằng sự ngay thẳng..."
08:26
he would have been a dead giveaway
198
491000
2000
ông ta sẽ ngay lập tức bị lật tẩy
08:28
for any liespotter than knows
199
493000
2000
với bất kỳ người phát hiện nói dối nào khi biết rằng
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
cái gọi là ngôn ngữ chuẩn,
08:33
further discredits the subject.
201
498000
2000
sẽ càng phủ nhận chính người sử dụng.
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
Giờ đây nếu ông ta lặp lại toàn bộ câu hỏi,
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
hoặc thêm mắm muối vào lời khai của mình nhiều chi tiết thừa hơn --
08:42
and we're all really glad he didn't do that --
204
507000
2000
mừng là ông đã không làm điều đó --
08:44
he would have further discredited himself.
205
509000
2000
ông ta sẽ tiếp tục đánh mất uy tín của mình.
08:46
Freud had it right.
206
511000
2000
Freud đã đúng.
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
Freud nói, nhìn đi, có nhiều thứ trong đó hơn là chỉ một bài diễn văn:
08:51
"No mortal can keep a secret.
208
516000
3000
"Không một người nào có thể giữ được bí mật.
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
Nếu miệng của anh ta đóng, anh ta đang trò chuyện bằng các ngón tay."
08:57
And we all do it no matter how powerful you are.
210
522000
3000
Và tất cả chúng ta đều vậy, dù bạn có là người quyền lực đi chăng nữa.
09:00
We all chatter with our fingertips.
211
525000
2000
Tất cả chúng ta đều trò chuyện bằng các ngón tay của mình.
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
Và hãy xem Dominique Strauss-Kahn, cùng với Obama,
09:05
who's chattering with his fingertips.
213
530000
3000
những người đang trò chuyện bằng các ngón tay.
09:08
(Laughter)
214
533000
3000
(Tiếng cười)
09:11
Now this brings us to our next pattern,
215
536000
3000
Điều đó đưa chúng ta đến với mẫu kế tiếp,
09:14
which is body language.
216
539000
3000
ngôn ngữ cơ thể.
09:17
With body language, here's what you've got to do.
217
542000
3000
Với ngôn ngữ cơ thể, đây là những gì bạn cần làm.
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
Chỉ cần đưa ra những giả định.
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
Hãy để khoa học kiểm chứng lại kiến thức của bạn một chút.
09:25
Because we think liars fidget all the time.
220
550000
3000
Chúng ta nghĩ rằng người nói dối lúc nào cũng đứng ngồi không yên.
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
Và đoán xem, nửa trên cơ thể của họ lạnh đi khi nói dối.
09:31
We think liars won't look you in the eyes.
222
556000
3000
Chúng ta nghĩ rằng người nói dối sẽ không dám nhìn thẳng vào mắt ta.
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
Và đoán xem, họ nhìn thật sâu vào mắt ta
09:36
just to compensate for that myth.
224
561000
2000
để bù lại cái lời đồn đó.
09:38
We think warmth and smiles
225
563000
2000
Chúng ta nghĩ rằng sự ấm áp và nụ cười
09:40
convey honesty, sincerity.
226
565000
2000
truyền tải sự trung thực và chân thành.
09:42
But a trained liespotter
227
567000
2000
Nhưng một người phát hiện nói dối chuyên nghiệp
09:44
can spot a fake smile a mile away.
228
569000
2000
có thể phát hiện ra nụ cười giả tạo cách đó chục mét.
09:46
Can you all spot the fake smile here?
229
571000
3000
Tất cả mọi người đều có thể phát hiện ra những nụ cười giả tạo ở đây chứ?
09:50
You can consciously contract
230
575000
2000
Cơ má của bạn co lại
09:52
the muscles in your cheeks.
231
577000
3000
một cách chủ ý.
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
Nhưng nụ cười thực sự trong mắt, những nếp nhăn quanh khóe mắt.
09:58
They cannot be consciously contracted,
233
583000
2000
Chúng không thể tự ý nheo lại,
10:00
especially if you overdid the Botox.
234
585000
2000
đặc biệt là nếu bạn lạm dụng Botox (1 loại thuốc chống nếp nhăn).
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
Đừng lạm dụng Botox, sẽ không một ai nghĩ rằng bạn đang thật lòng.
10:05
Now we're going to look at the hot spots.
236
590000
2000
Bây giờ hãy nhìn vào các điểm nổi.
10:07
Can you tell what's happening in a conversation?
237
592000
2000
Bạn có thể biết chuyện gì đang diễn ra trong cuộc đối thoại không?
10:09
Can you start to find the hot spots
238
594000
3000
Các bạn có thể tìm giúp tôi các điểm nổi
10:12
to see the discrepancies
239
597000
2000
để thấy sự khác biệt
10:14
between someone's words and someone's actions?
240
599000
2000
giữa lời nói và hành động của một ai đó không?
10:16
Now I know it seems really obvious,
241
601000
2000
Tôi biết điều này nghe có vẻ hiển nhiên,
10:18
but when you're having a conversation
242
603000
2000
nhưng khi bạn trò chuyện
10:20
with someone you suspect of deception,
243
605000
3000
với một người mà bạn nghi ngờ là đang nói dối,
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
thái độ là thứ dễ nhận ra nhưng lại hay bị bỏ qua nhất.
10:26
An honest person is going to be cooperative.
245
611000
2000
Một người trung thực sẽ rất hợp tác.
10:28
They're going to show they're on your side.
246
613000
2000
Họ cho ta thấy họ đứng về phía ta.
10:30
They're going to be enthusiastic.
247
615000
2000
Họ rất nhiệt tình.
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
Họ có thiện chí và tỏ ra hữu ích trong việc tìm kiếm sự thật.
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
Họ sẵn sàng động não, nêu lên nghi ngờ,
10:37
provide details.
250
622000
2000
cung cấp thông tin.
10:39
They're going to say, "Hey,
251
624000
2000
Họ sẽ nói, "Này,
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
có thể những kẻ trong biên chế đã làm giả những hóa đơn đó."
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
Họ sẽ tức điên lên nếu có cảm giác bị buộc buộc tội sai lầm
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
trong suốt quá trình điều tra, không chỉ trong nháy mắt;
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
họ sẽ tức điên lên trong suốt quá trình thẩm vấn.
10:52
And if you ask someone honest
256
637000
2000
Và nếu bạn hỏi một người trung thực
10:54
what should happen to whomever did forge those checks,
257
639000
3000
phải xử lý thế nào với những kẻ làm giả hóa đơn,
10:57
an honest person is much more likely
258
642000
2000
họ có khuynh hướng
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
đề nghị một biện pháp nghiêm khắc thay vì một hình phạt khoan dung.
11:03
Now let's say you're having that exact same conversation
260
648000
2000
Bây giờ hãy nghĩ rằng bạn có một cuộc đối thoại y hệt
11:05
with someone deceptive.
261
650000
2000
với một người dối trá.
11:07
That person may be withdrawn,
262
652000
2000
Người đó lúc thì lùi,
11:09
look down, lower their voice,
263
654000
2000
thi thoảng lại nhìn xuống, hạ giọng.
11:11
pause, be kind of herky-jerky.
264
656000
2000
có khi bất chợt tạm dừng.
11:13
Ask a deceptive person to tell their story,
265
658000
2000
Hãy yêu cầu người dối trá nói về mình,
11:15
they're going to pepper it with way too much detail
266
660000
3000
họ sẽ thêm mắm dặm muối vô vàn chi tiết
11:18
in all kinds of irrelevant places.
267
663000
3000
đôi chỗ còn không phù hợp.
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
Và sau đó sẽ kể lại câu chuyện đó theo thứ tự thời gian nghiêm ngặt.
11:24
And what a trained interrogator does
269
669000
2000
Và những gì một người thẩm vấn chuyên nghiệp làm
11:26
is they come in and in very subtle ways
270
671000
2000
là vào đề một cách tự nhiên
11:28
over the course of several hours,
271
673000
2000
diễn tiến quá trình kéo dài hàng giờ,
11:30
they will ask that person to tell that story backwards,
272
675000
3000
họ sẽ yêu cầu người đó kể chuyện theo trình tự ngược lại,
11:33
and then they'll watch them squirm,
273
678000
2000
và xem họ xoay sở,
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
và ghi nhận các câu hỏi chứa nhiều sự dối trá nhất.
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
Tại sao lại phải làm vậy? Thực ra chúng ta cũng đã làm những việc tương tự.
11:41
We rehearse our words,
276
686000
2000
Chúng ta trau chuốt cho lời nói,
11:43
but we rarely rehearse our gestures.
277
688000
2000
nhưng hiếm khi luyện tập những cử chỉ của mình.
11:45
We say "yes," we shake our heads "no."
278
690000
2000
Chúng ta nói "có", chúng ta lắc đầu khi nói "không."
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
Chúng ta vừa kể những câu chuyện rất thuyết phục vừa hơi nhún vai.
11:50
We commit terrible crimes,
280
695000
2000
Chúng ta phạm những tội ác khủng khiếp,
11:52
and we smile at the delight in getting away with it.
281
697000
3000
và cười thỏa mãn vì đã thoát tội.
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
Bây giờ trong kinh doanh nụ cười đó được gọi là "thú vui lừa đảo."
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
Và chúng ta sẽ nhìn thấy điều đó trong những video tiếp theo đây,
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
và để bắt đầu - với những ai chưa biết về người đàn ông này,
12:03
this is presidential candidate John Edwards
285
708000
3000
ông là ứng cử viên tổng thống John Edwards,
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
người từng gây kinh ngạc toàn nước Mỹ khi có con riêng.
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
Chúng ta hãy xem ông ta nói về việc làm xét nghiệm quan hệ huyết thống.
12:12
See now if you can spot him
288
717000
2000
Hãy xem liệu bạn có thể nhận ra ông ta
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
nói "có" trong khi lắc đầu nói "không,"
12:16
slightly shrugging his shoulders.
290
721000
2000
và hơi nhún vai hay không.
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
(Video) John Edwards: Tôi rất vui khi thực hiện nó.
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
Tôi biết đứa trẻ này không thể là con của mình,
12:23
because of the timing of events.
293
728000
2000
bởi mốc thời gian của các sự kiện.
12:25
So I know it's not possible.
294
730000
2000
Vậy nên tôi biết đó là điều không thể.
12:27
Happy to take a paternity test,
295
732000
2000
Tôi rất vui khi làm xét nghiệm quan hệ huyết thống,
12:29
and would love to see it happen.
296
734000
2000
và sẽ tiến hành nó.
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
Phóng viên: Ngài sẽ sớm thực hiện nó chứ? Có ai -
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
JE: À, tôi chỉ là một bên. Tôi chỉ là một bên trong xét nghiệm.
12:37
But I'm happy to participate in one.
299
742000
3000
Nhưng tôi rất vui khi tham gia.
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
PM: Được rồi, những cái lắc đầu đó sẽ dễ phát hiện hơn
12:42
once you know to look for them.
301
747000
2000
một khi bạn đã chú ý.
12:44
There're going to be times
302
749000
2000
Đôi lúc
12:46
when someone makes one expression
303
751000
2000
một người biểu đạt một kiểu
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
trong khi khoác lên mình một nét mặt khác và chỉ bị lộ ra trong nháy mắt.
12:52
Murderers are known to leak sadness.
305
757000
2000
Kẻ giết người được xem là lộ ra nỗi buồn.
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
Đối tác liên doanh mới của bạn có thể bắt tay,
12:56
celebrate, go out to dinner with you
307
761000
2000
ăn mừng, ra ngoài ăn tối với bạn
12:58
and then leak an expression of anger.
308
763000
3000
và sau đó lộ ra sự giận dữ.
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
Và không phải tất cả chúng ta đều trở thành chuyên gia nhận diện nét mặt ở đây,
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
nhưng có một điều tôi có thể dạy các bạn, một điều rất nguy hiểm và dễ nắm bắt,
13:07
and that's the expression of contempt.
311
772000
3000
và đó là biểu hiện khinh thường.
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
Với sự tức giận, ta có hai đối thủ ngang sức trên sàn đấu.
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
Đó vẫn còn là mối quan hệ lành mạnh.
13:15
But when anger turns to contempt,
314
780000
2000
Nhưng khi cơn giận chuyển thành sự khinh thường,
13:17
you've been dismissed.
315
782000
2000
bạn đã bị loại.
13:19
It's associated with moral superiority.
316
784000
2000
Nó gắn liền với sự vượt trội đạo đức.
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
Với lý do đó, rất, rất khó khôi phục lại như cũ.
13:24
Here's what it looks like.
318
789000
2000
Thế này đây.
13:26
It's marked by one lip corner
319
791000
2000
Nó đánh dấu bằng việc môi
13:28
pulled up and in.
320
793000
2000
cong vểnh lên trên.
13:30
It's the only asymmetrical expression.
321
795000
3000
Đó là biểu hiện bất đối xứng duy nhất.
13:33
And in the presence of contempt,
322
798000
2000
Và khi tồn tại sự khinh thường,
13:35
whether or not deception follows --
323
800000
2000
dù có đi kèm theo với sự lừa dối hay không --
13:37
and it doesn't always follow --
324
802000
2000
và không phải lúc nào cũng kèm theo --
13:39
look the other way, go the other direction,
325
804000
2000
nghĩ một cách khác, đi một hướng khác,
13:41
reconsider the deal,
326
806000
2000
xem xét lại vấn đề,
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
và nói, "Không, cảm ơn. Tôi không tìm ra điều này chỉ để ngủ ngon hơn vào ban đêm. Cám ơn."
13:47
Science has surfaced
328
812000
2000
Khoa học đã tìm ra
13:49
many, many more indicators.
329
814000
2000
nhiều nhiều hơn nữa những dấu hiệu.
13:51
We know, for example,
330
816000
2000
Chúng ta biết, ví dụ,
13:53
we know liars will shift their blink rate,
331
818000
2000
người nói dối sẽ có tỷ lệ chớp mắt thay đổi,
13:55
point their feet towards an exit.
332
820000
2000
hướng đôi chân của mình về phía lối ra.
13:57
They will take barrier objects
333
822000
2000
Họ sẽ đặt rào chắn
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
giữa bản thân mình với người phỏng vấn họ.
14:02
They'll alter their vocal tone,
335
827000
2000
Họ thay đổi âm vực,
14:04
often making their vocal tone much lower.
336
829000
3000
thường làm cho nó thấp đi nhiều.
14:07
Now here's the deal.
337
832000
2000
Đây chính là điểm cần bàn.
14:09
These behaviors are just behaviors.
338
834000
3000
Hành vi chỉ đơn thuần là hành vi.
14:12
They're not proof of deception.
339
837000
2000
Không thể là bằng chứng cho sự dối trá.
14:14
They're red flags.
340
839000
2000
Đó là những cảnh báo nguy hiểm.
14:16
We're human beings.
341
841000
2000
Chúng ta là con người.
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
Chúng ta hành xử dối trá khắp nơi trong cả ngày .
14:21
They don't mean anything in and of themselves.
343
846000
2000
Những hành vi đó tự thân chúng vô nghĩa khi đứng đơn lẻ.
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
Nhưng khi bạn nhìn thấy hàng tá trong số chúng, đó là tín hiệu cảnh báo.
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
Nhìn, nghe, thăm dò, hỏi một số câu khó,
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
vứt bỏ cái vẻ biết tuốt thong thả đó,
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
nhập cuộc trong tư thế tò mò, đặt nhiều câu hỏi hơn,
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
giữ lại chút tự trọng, hòa nhã với người mình đang nói chuyện.
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
Đừng cố bắt chước những người trong chương trình "An ninh & Trật tự" và những chương trình khác,
14:41
that pummel their subjects into submission.
350
866000
2000
dùng vũ lực khiến đối phương phải phục tùng.
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
Đừng quá hung hãn, không hiệu quả đâu.
14:46
Now we've talked a little bit
352
871000
2000
Bây giờ chúng ta sẽ nói rõ hơn
14:48
about how to talk to someone who's lying
353
873000
2000
về việc làm thế nào để nói chuyện với một người đang nói dối
14:50
and how to spot a lie.
354
875000
2000
và làm thế nào để phát hiện ra một lời nói dối.
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
Và như đã hứa, chúng ta sẽ cùng xem xét xem sự thật trông như thế nào.
14:55
But I'm going to show you two videos,
356
880000
2000
Tôi sẽ cho các bạn xem hai video
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
về hai bà mẹ - một nói dối ,một nói thật.
15:00
And these were surfaced
358
885000
2000
Đây là những phương diện được thực hiện
15:02
by researcher David Matsumoto in California.
359
887000
2000
bởi nhà nghiên cứu David Matsumoto ở California.
15:04
And I think they're an excellent example
360
889000
2000
Và tôi thấy rằng chúng là những ví dụ tuyệt vời
15:06
of what the truth looks like.
361
891000
2000
minh họa cho việc sự thật trông như thế nào.
15:08
This mother, Diane Downs,
362
893000
2000
Người mẹ này, Diane Downs,
15:10
shot her kids at close range,
363
895000
2000
bắn những đứa con của mình ở cự ly gần,
15:12
drove them to the hospital
364
897000
2000
lái xe đến bệnh viện
15:14
while they bled all over the car,
365
899000
2000
trong khi máu lũ trẻ chảy vương khắp xe,
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
khẳng định rằng một người lạ râu tóc bờm xờm đã làm chuyện đó.
15:18
And you'll see when you see the video,
367
903000
2000
Và bạn sẽ thấy khi xem video,
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
cô ta thậm chí không thể giả vờ là một người mẹ đang đau đớn.
15:22
What you want to look for here
369
907000
2000
Những gì mà bạn sẽ thấy
15:24
is an incredible discrepancy
370
909000
2000
là một sự khác biệt đáng kinh ngạc
15:26
between horrific events that she describes
371
911000
2000
giữa các sự kiện khủng khiếp mà cô ta mô tả
15:28
and her very, very cool demeanor.
372
913000
2000
với thái độ rất, rất bình thản của cô ta.
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
Và nếu nhìn kỹ, bạn sẽ phát hiện thấy thú vui lừa đảo trong suốt video này.
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
(Video) Diane Downs: Ban đêm khi nhắm mắt lại,
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
tôi có thể nhìn thấy Christie đang với tay về phía mình khi tôi đang lái xe,
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
và máu cứ chảy ra liên tục từ miệng nó.
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
Và điều đó -- có thể nó sẽ phai mờ theo thời gian --
15:43
but I don't think so.
378
928000
2000
nhưng tôi không nghĩ vậy.
15:45
That bothers me the most.
379
930000
3000
Đó là điều khiến tôi phiền muộn nhất.
15:55
PM: Now I'm going to show you a video
380
940000
2000
PM: Bây giờ tôi sẽ cho các bạn xem video
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
của Erin Runnion -- một người mẹ đau khổ thực sự,
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
khi đối mặt với kẻ đã tra tấn và giết chết con gái mình tại tòa án.
16:03
Here you're going to see no false emotion,
383
948000
2000
Ở đây không hề thấy chút cảm xúc giả tạo nào,
16:05
just the authentic expression of a mother's agony.
384
950000
3000
chỉ đơn thuần là biểu hiện sự đau đớn tột cùng của một người mẹ.
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
(Video) Erin Runnion: Tôi viết những lời này vào kỷ niệm lần thứ ba
16:10
of the night you took my baby,
386
955000
2000
cái đêm mà ông đã mang con bé đi,
16:12
and you hurt her,
387
957000
2000
và ông làm tổn thương con bé,
16:14
and you crushed her,
388
959000
2000
và ông đã nghiền nát nó,
16:16
you terrified her until her heart stopped.
389
961000
4000
ông đã làm nó sợ hãi đến khi tim ngừng đập.
16:20
And she fought, and I know she fought you.
390
965000
3000
Và con bé đã chống trả, tôi biết con bé đã chống trả lại ông.
16:23
But I know she looked at you
391
968000
2000
Nhưng tôi biết con bé đã nhìn ông
16:25
with those amazing brown eyes,
392
970000
2000
với đôi mắt nâu xinh đẹp đó,
16:27
and you still wanted to kill her.
393
972000
3000
vậy mà ông vẫn muốn giết nó.
16:30
And I don't understand it,
394
975000
2000
Tôi không thể hiểu được,
16:32
and I never will.
395
977000
3000
và sẽ không bao giờ hiểu.
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
PM: Được rồi, không còn gì phải bàn cãi về tính chân thực của những cảm xúc đó.
16:39
Now the technology around what the truth looks like
397
984000
3000
Bây giờ công nghệ xoay quanh việc xem xét sự thật
16:42
is progressing on, the science of it.
398
987000
3000
đang trên đà phát triển, cả một ngành khoa học về nó.
16:45
We know for example
399
990000
2000
Chúng ta biết, ví dụ như
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
hiện đã có các thiết bị chuyên ngành theo dõi chuyển động mắt, chụp quét não hồng ngoại,
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
MRI giải mã các tín hiệu cơ thể truyền đi
16:53
when we're trying to be deceptive.
402
998000
2000
khi chúng ta đang cố nói dối.
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
Và các công nghệ này sẽ được bày bán trên thị trường cho tất cả mọi người
16:58
as panaceas for deceit,
404
1003000
2000
như một liều thuốc chữa căn bệnh dối trá,
17:00
and they will prove incredibly useful some day.
405
1005000
3000
chúng sẽ vô cùng hữu ích sau này.
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
Nhưng trong lúc đó bạn hãy tự hỏi bản thân:
17:05
Who do you want on your side of the meeting,
407
1010000
2000
Bạn muốn ai đứng về phía mình trong cuộc họp,
17:07
someone who's trained in getting to the truth
408
1012000
3000
những người được đào tạo tìm ra sự thật
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
hay những người sẽ kéo theo một cái máy điện não đồ nặng 400 pound
17:12
through the door?
410
1017000
2000
bước vào phòng?
17:14
Liespotters rely on human tools.
411
1019000
4000
Người phát hiện nói dối sử dụng các công cụ của con người.
17:18
They know, as someone once said,
412
1023000
2000
Như một câu nói, họ biết rằng
17:20
"Character's who you are in the dark."
413
1025000
2000
"Tính cách thực sự của bạn đang lẩn khuất trong bóng tối."
17:22
And what's kind of interesting
414
1027000
2000
Và điều thú vị
17:24
is that today we have so little darkness.
415
1029000
2000
là ngày nay chúng ta có quá ít góc tối.
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
Thế giới của chúng ta được thắp sáng 24 giờ một ngày.
17:29
It's transparent
417
1034000
2000
Nó sáng rành rành
17:31
with blogs and social networks
418
1036000
2000
với blog và các mạng xã hội
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
đưa tin về sự trỗi dậy của một lớp thế hệ hoàn toàn mới với những người
17:35
that have made a choice to live their lives in public.
420
1040000
3000
lựa chọn cách sống công khai.
17:38
It's a much more noisy world.
421
1043000
4000
Nó trở thành một thế giới khá ồn ào.
17:42
So one challenge we have
422
1047000
2000
Thế nên có một thách thức
17:44
is to remember,
423
1049000
2000
mà ta cần nhớ, đó là
17:46
oversharing, that's not honesty.
424
1051000
3000
chia sẻ quá mức không phải là chân thành.
17:49
Our manic tweeting and texting
425
1054000
2000
Những lời tweet và tin nhắn vô độ
17:51
can blind us to the fact
426
1056000
2000
có thể khiến chúng ta mù quáng đến mức tin rằng
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
sự khéo léo trong ứng xử -- tính cách toàn diện --
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
là những gì quan trọng, và luôn luôn quan trọng.
17:59
So in this much noisier world,
429
1064000
2000
Vì vậy, trong cái thế giới ồn ào này,
18:01
it might make sense for us
430
1066000
2000
chúng ta nên hiểu
18:03
to be just a little bit more explicit
431
1068000
2000
và rõ ràng hơn
18:05
about our moral code.
432
1070000
3000
trong tiêu chuẩn đạo đức của chính mình.
18:08
When you combine the science of recognizing deception
433
1073000
2000
Khi bạn kết hợp khoa học phát diện nói dối
18:10
with the art of looking, listening,
434
1075000
2000
với nghệ thuật tìm kiếm và lắng nghe,
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
bạn sẽ tránh được việc phải hợp tác nói dối.
18:15
You start up that path
436
1080000
2000
Bạn chỉ việc bắt đầu hành trình của mình
18:17
of being just a little bit more explicit,
437
1082000
2000
bằng cách dứt khoát hơn một chút,
18:19
because you signal to everyone around you,
438
1084000
2000
bởi bạn đang ra tín hiệu cho những người xung quanh,
18:21
you say, "Hey, my world, our world,
439
1086000
3000
bạn nói, "Này, thế giới của tôi, thế giới của chúng ta,
18:24
it's going to be an honest one.
440
1089000
2000
sẽ là một thế giới trung thực.
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
Thế giới mà tôi hướng tới là một nơi sự thật được coi trọng
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
và dối trá bị nhận diện và loại thải."
18:31
And when you do that,
443
1096000
2000
Và khi làm điều đó,
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
mặt đất nơi bạn đang đứng đã bắt đầu chuyển động một chút.
18:36
And that's the truth. Thank you.
445
1101000
3000
Và đó là sự thật. Xin cảm ơn.
18:39
(Applause)
446
1104000
5000
(Vỗ tay)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com