TEDGlobal 2011
Pamela Meyer: How to spot a liar
پاملا مِیر: چگونه یک دروغگو را تشخیص بدهیم
Filmed:
Readability: 3.8
28,415,176 views
در هر روز مشخص ،از 10 تا 200 باربه ما دروغ گفته میشود، و سرنخ برای تشخیص این دروغ می تواند ظریف و مشکل باشد. پاملا مایر ، نویسنده " کتاب تشخیص دروغ Liespotting"، به ما منش و "نقاط مهم" استفاده شده توسط افراد آموزش دیده به تشخیص فریب را نشان میدهد -- و او استدلال می کند صداقت، ارزش حفاظت شدن دارد.
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
بسیار خوب، نمیخوام اینجا باعث نگرانی کسی بشوم،
00:20
but it's just come to my attention
1
5000
2000
اما همین الان توجهام جلب شد که فرد سمت راستی تو یک دروغگوست.
00:22
that the person to your right is a liar.
2
7000
2000
اما همین الان توجهام جلب شد که فرد سمت راستی تو یک دروغگوست.
00:24
(Laughter)
3
9000
2000
( خنده تماشاگران)
00:26
Also, the person to your left is a liar.
4
11000
3000
همچنین، فرد سمتی چپی تو هم یک دورغگوست.
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
همچنین فردی که دقیقا" روی صندلی های شما نشسته یک دروغگوست.
00:32
We're all liars.
6
17000
2000
ما همه درغگو هستیم.
00:34
What I'm going to do today
7
19000
2000
کاری که امروز میخواهم بکنم
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
اینه که میخوام بهتون نشون بدم تحقیقات چه چیزی، درباره اینکه چرا همه ما دروغگو هستیم میگه،
00:39
how you can become a liespotter
9
24000
2000
و چگونه میتونیم تبدیل به یک "تشخیص دهنده دروغ" شویم
00:41
and why you might want to go the extra mile
10
26000
3000
و به همین دلیل ممکنه شما بخواهید از"تشخیص دهنده دروغ" فراتر رفته و جویای حقیقت باشید، و در نهایت اعتماد ایجاد کنید.
00:44
and go from liespotting to truth seeking,
11
29000
3000
و به همین دلیل ممکنه شما بخواهید از"تشخیص دهنده دروغ" فراتر رفته و جویای حقیقت باشید، و در نهایت اعتماد ایجاد کنید.
00:47
and ultimately to trust building.
12
32000
2000
و به همین دلیل ممکنه شما بخواهید از"تشخیص دهنده دروغ" فراتر رفته و جویای حقیقت باشید، و در نهایت اعتماد ایجاد کنید.
00:49
Now speaking of trust,
13
34000
3000
حالا که صحبت از اعتماد شد،
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
از زمانی که من کتاب "تشخیص دهند دروغ" را نوشتم، دیگر هیچ کس نمیخواد مرا شخصا" ببینه ، نه، نه، نه، نه، نه،
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
از زمانی که من کتاب "تشخیص دهند دروغ" را نوشتم، دیگر هیچ کس نمیخواد مرا شخصا" ببینه ، نه، نه، نه، نه، نه،
00:58
They say, "It's okay, we'll email you."
16
43000
3000
آنها میگن، "بسیار خوب، بهت ایمل میزنم"
01:01
(Laughter)
17
46000
2000
( خنده تماشاگران)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
حتی نمیتونم یک دیدار در قهوه خانه استارباکس داشته باشم.
01:07
My husband's like, "Honey, deception?
19
52000
2000
همسرم بهم میگه، "عزیزم، حالا چرا فریبکاری؟
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
شاید بتونی روی آشپزی متمرکز بشی. آشپزی فرانسوی چطوره؟"
01:12
So before I get started, what I'm going to do
21
57000
2000
خُب قبل از اینکه شروع کنم، قصد دارم هدفم را برای شما روشن کنم،
01:14
is I'm going to clarify my goal for you,
22
59000
3000
خُب قبل از اینکه شروع کنم، قصد دارم هدفم را برای شما روشن کنم،
01:17
which is not to teach a game of Gotcha.
23
62000
2000
هدف من آموزش بازی 'دستت رو شد' نیست.
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
"تشخیص دهنده های دروغ" بچههای نق نقو عیبجویی نیستند،
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
بجههایی که در پشت اتاق فریاد میزنند، "دستت رو شد! دستت رو شد!
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
ابروهات گره خورد، سوراخ دماغت گشاد شد.
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
من اون شوی تلویزیونی 'به من دروغ بگو، میدونم داری دروغ میگی' رو میبینم
01:30
No, liespotters are armed
28
75000
2000
نه، "تشخیص دهندگان دروغ" مجهز به دانش علمی تشخیص دادن فریب هستند.
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
نه، "تشخیص دهندگان دروغ" مجهز به دانش علمی تشخیص دادن فریب هستند.
01:35
They use it to get to the truth,
30
80000
2000
آنها از اون استفاده میکنن تا به حقیقت برسن،
01:37
and they do what mature leaders do everyday;
31
82000
2000
و کاری را میکنن که رهبران باتجربه میکنن؛
01:39
they have difficult conversations with difficult people,
32
84000
3000
گفتگو های دشواری را با افراد دشواری دارند، و گاهی در زمان بسیار دشوار.
01:42
sometimes during very difficult times.
33
87000
2000
گفتگو های دشواری را با افراد دشواری دارند، و گاهی در زمان بسیار دشوار.
01:44
And they start up that path
34
89000
2000
اونا با پذیرش یک گزاره اصلی یک راهی را شروع کردند،
01:46
by accepting a core proposition,
35
91000
2000
اونا با پذیرش یک گزاره اصلی یک راهی را شروع کردند،
01:48
and that proposition is the following:
36
93000
2000
و آن گزاره به شرح زیر است :
01:50
Lying is a cooperative act.
37
95000
3000
دروغ یک رفتار تعاونی است .
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
در این باره فکر کنید، خود دروغ به هیچ وجه قدرتی از خودش نداره.
01:57
Its power emerges
39
102000
2000
قدرت او هنگامی پدیدار میشه که شخص دیگری موافقت می کند که دروغ را باور کند.
01:59
when someone else agrees to believe the lie.
40
104000
2000
قدرت او هنگامی پدیدار میشه که شخص دیگری موافقت می کند که دروغ را باور کند.
02:01
So I know it may sound like tough love,
41
106000
2000
خُب میدونم مثل عشق های سخت میمونه،
02:03
but look, if at some point you got lied to,
42
108000
4000
اما توجه کنید، اگر هم در همان شرایط به شما دروغ گفته شود،
02:07
it's because you agreed to get lied to.
43
112000
2000
به دلیل اینکه که شما موافقت کردید که بهتان دروغ گفته شود.
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
تعدادی حقیقت در مورد یک دروغ : دروغ یک رفتار تعاونیست.
02:12
Now not all lies are harmful.
45
117000
2000
نه اینکه همه دروغ ها مضر هستند.
02:14
Sometimes we're willing participants in deception
46
119000
3000
گاهی اوقات ما تمایل داریم به شرکت در یک فریب به خاطرٍ شـأن و منزلت اجتماعی ،
02:17
for the sake of social dignity,
47
122000
3000
گاهی اوقات ما تمایل داریم به شرکت در یک فریب به خاطرٍ شـأن و منزلت اجتماعی ،
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
شاید برای نگه داشتن یک راز که باید مخفی، مخفی نگه داشته شود.
02:23
We say, "Nice song."
49
128000
2000
ما میگیم،" آهنگ خوبیه."
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
" عزیزم، تو با این اصلا چاق به نظر نمیایی، به هیچ وجه."
02:28
Or we say, favorite of the digiratti,
51
133000
2000
یا میگیم، مورد علاقه digiratti،
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
"میدونی، من الان این ایمیل را در پوشه اِسپم یافتم.
02:33
So sorry."
53
138000
3000
" خیلی متاسفم."
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
اما آن وقت که ما تمایلی به مشارکت در فریب نداریم.
02:39
And that can have dramatic costs for us.
55
144000
3000
و این هزینه زیادی برای ما دارد.
02:42
Last year saw 997 billion dollars
56
147000
3000
سال گذشته 997 میلیارد دلار کلاهبرداری شرکتی به تنهائی درایالات متحده دیدیم.
02:45
in corporate fraud alone in the United States.
57
150000
4000
سال گذشته 997 میلیارد دلار کلاهبرداری شرکتی به تنهائی درایالات متحده دیدیم.
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
این یک کمی کمتر از یک تریلون دلار است.
02:51
That's seven percent of revenues.
59
156000
2000
و هفت درصد درآمد است.
02:53
Deception can cost billions.
60
158000
2000
تقلب میتواند میلیاردها دلار هزینه داشته باشد.
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
به اِنرون ، مادوف ، بحران وام مسکن فکر کنید.
02:58
Or in the case of double agents and traitors,
62
163000
3000
و یا در مورد دو عامل و خائن، مانند رابرت هانسن یا آلدریچ ایمز ،
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
و یا در مورد دو عامل و خائن، مانند رابرت هانسن یا آلدریچ ایمز ،
03:03
lies can betray our country,
64
168000
2000
دروغ گفتن میتواند خیانت به کشورمان باشه،
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
می تونن امنیت شما را تحت تأثیر قرار بدن، میتونن دموکراسی را تضعیف کنن،
03:08
they can cause the deaths of those that defend us.
66
173000
3000
اونها میتونن باعث مرگ کسانی شوند که از ما دفاع میکنند.
03:11
Deception is actually serious business.
67
176000
3000
فریبکاری موضوع بسیار جدی است.
03:14
This con man, Henry Oberlander,
68
179000
2000
این مرد فریبکار هنری آبرلندر مرد بسیار فریبکاری بود
03:16
he was such an effective con man
69
181000
2000
این مرد فریبکار هنری آبرلندر مرد بسیار فریبکاری بود
03:18
British authorities say
70
183000
2000
و مقامات انگلیسی میگویند او میتواند در همه سیستمهای بانکی دنیای غرب را تضعیف کند.
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
و مقامات انگلیسی میگویند او میتواند در همه سیستمهای بانکی دنیای غرب را تضعیف کند.
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
و شما نمیتونید این مرد را در گوگل پیدا کنید؛ نمیتونید هیچ کجا پیداش کنید.
03:25
He was interviewed once, and he said the following.
73
190000
3000
یکبار با او مصاحبه کردند ، و مطالب زیر را گفت.
03:28
He said, "Look, I've got one rule."
74
193000
2000
گفت، "ببین، من یک قانون را فهمیدم."
03:30
And this was Henry's rule, he said,
75
195000
3000
و این قاعده هنری بود او گفت،
03:33
"Look, everyone is willing to give you something.
76
198000
2000
"ببینید هر کسی میخواد چیزی به تو بده.
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
اونها آماده اند چیزی را به تو بدهند، برای هرچیزی که اونها براش حریص اند."
03:38
And that's the crux of it.
78
203000
2000
و این یک معما است.
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
اگر نمیخواهی فریب بخوری باید بدونی که این چیه که تو براش حریصی ؟
03:42
what is it that you're hungry for?
80
207000
2000
اگر نمیخواهی فریب بخوری باید بدونی که این چیه که تو براش حریصی ؟
03:44
And we all kind of hate to admit it.
81
209000
3000
و همه ما از اقرار اون متنفریم.
03:47
We wish we were better husbands, better wives,
82
212000
3000
ما آرزو میکنیم که شوهر بهتر و یا زن بهتری داشته باشیم،
03:50
smarter, more powerful,
83
215000
2000
باهوش تر، قدرتمندتر، بلندقدتر، ثروتمندتر---این لیست میتونه ادامه داشته باشه.
03:52
taller, richer --
84
217000
2000
باهوش تر، قدرتمندتر، بلندقدتر، ثروتمندتر---این لیست میتونه ادامه داشته باشه.
03:54
the list goes on.
85
219000
2000
باهوش تر، قدرتمندتر، بلندقدتر، ثروتمندتر---این لیست میتونه ادامه داشته باشه.
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
دروغ تلاشی است برای ایجاد پلی بین این فاصله ها،
03:58
to connect our wishes and our fantasies
87
223000
2000
برای متصل کردن آرزوهای و تمایلات ما درباره اون چیزی که آرزو داریم که باشیم، و اون چیزی که میشد باشیم،
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
برای متصل کردن آرزوهای و تمایلات ما درباره اون چیزی که آرزو داریم که باشیم، و اون چیزی که میشد باشیم،
04:03
with what we're really like.
89
228000
3000
به اون چیزی که واقعا هستیم.
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
و پسر، ما خیلی تمایل داریم که این فاصله را در زندگیمان با دروغ پر کنیم.
04:09
On a given day, studies show that you may be lied to
91
234000
3000
هر روزی معین، مطالعات نشان میدهد که احتمالا به شما از ده تا دویست مرتبه دروغ گفته میشود.
04:12
anywhere from 10 to 200 times.
92
237000
2000
هر روزی معین، مطالعات نشان میدهد که احتمالا به شما از ده تا دویست مرتبه دروغ گفته میشود.
04:14
Now granted, many of those are white lies.
93
239000
3000
حالا با این فرض، خیلی از اینها دروغ سفید هستند.
04:17
But in another study,
94
242000
2000
اما مطالعه دیگری،
04:19
it showed that strangers lied three times
95
244000
2000
نشان میدهد که غریبه ها در ظرف ده دقیقه اول که همدیگر را میبینید، سه برابر بیشتر دروغ میگویند.
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
نشان میدهد که غریبه ها در ظرف ده دقیقه اول که همدیگر را میبینید، سه برابر بیشتر دروغ میگویند.
04:23
(Laughter)
97
248000
2000
( خنده تماشاگران)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
هنگامی که ما برای اولین باراین داده ها را میشنویم، آن را پس میزنیم.
04:28
We can't believe how prevalent lying is.
99
253000
2000
نمتونیم باور کنیم دروغ چقدر شایع است.
04:30
We're essentially against lying.
100
255000
2000
ما ذاتاً مخالف آن هستیم.
04:32
But if you look more closely,
101
257000
2000
اما اگر دقیق تر به موضوع نگاه کنید، در واقع موضوع وخیم تر است.
04:34
the plot actually thickens.
102
259000
2000
اما اگر دقیق تر به موضوع نگاه کنید، در واقع موضوع وخیم تر است.
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
ما به غریبه ها بیشتر دروغ میگوئیم تا به همکارانمان.
04:39
Extroverts lie more than introverts.
104
264000
4000
بیرونگرایان بیشتر از درونگرایان دروغ میگویند.
04:43
Men lie eight times more about themselves
105
268000
3000
مردها هشت بار درباره خودشان بیشتراز دروغ میگن تا در مورد دیگران.
04:46
than they do other people.
106
271000
2000
مردها هشت بار درباره خودشان بیشتراز دروغ میگن تا در مورد دیگران.
04:48
Women lie more to protect other people.
107
273000
3000
زنان بیشتر دروغ برای محافظت از دیگران میگویند.
04:51
If you're an average married couple,
108
276000
3000
اگر یک متاهل با روابط متوسط باشید، از هر ده ارتباطی که دارید یکی را دروغ میگوئید.
04:54
you're going to lie to your spouse
109
279000
2000
اگر یک متاهل با روابط متوسط باشید، از هر ده ارتباطی که دارید یکی را دروغ میگوئید.
04:56
in one out of every 10 interactions.
110
281000
2000
اگر یک متاهل با روابط متوسط باشید، از هر ده ارتباطی که دارید یکی را دروغ میگوئید.
04:58
Now you may think that's bad.
111
283000
2000
شاید فکر کنید که این بدهِ.
05:00
If you're unmarried, that number drops to three.
112
285000
2000
اگر مجرد هستی، این تعداد به سه کاهش می یابد.
05:02
Lying's complex.
113
287000
2000
دروغ پیچیده است.
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
اون در تارو پود زندگی و کار روزمره ما بافته شده.
05:07
We're deeply ambivalent about the truth.
115
292000
2000
ما عمیقا درباره صداقت در تناقض هستیم.
05:09
We parse it out on an as-needed basis,
116
294000
2000
گاهی اوقات بخاطر دلایلی خوب، اون رو به عنوان یک اصل لازم تفسیر میکنیم،
05:11
sometimes for very good reasons,
117
296000
2000
گاهی اوقات بخاطر دلایلی خوب، اون رو به عنوان یک اصل لازم تفسیر میکنیم،
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
بار دیگر فقط به خاطر اینکه ما شکاف ها در زندگیمان را درک نمی کنیم.
05:16
That's truth number two about lying.
119
301000
2000
و این حقیقت شماره دو درمورد دروغگوئیست.
05:18
We're against lying,
120
303000
2000
ما مخالف دروغگوئی هستیم،
05:20
but we're covertly for it
121
305000
2000
اما به روش هایی که جامعه ما طی قرن ها و قرن ها و قرن ها اونها رو تایید و تصویب کرده، اون رو بصورت محرمانه و در خفا بکار میبریم.
05:22
in ways that our society has sanctioned
122
307000
2000
اما به روش هایی که جامعه ما طی قرن ها و قرن ها و قرن ها اونها رو تایید و تصویب کرده، اون رو بصورت محرمانه و در خفا بکار میبریم.
05:24
for centuries and centuries and centuries.
123
309000
2000
اما به روش هایی که جامعه ما طی قرن ها و قرن ها و قرن ها اونها رو تایید و تصویب کرده، اون رو بصورت محرمانه و در خفا بکار میبریم.
05:26
It's as old as breathing.
124
311000
2000
این به قدمت نفس کشیدن ماست.
05:28
It's part of our culture, it's part of our history.
125
313000
2000
این بخشی از فرهنگ ماست، و بخشی از تاریخ ما.
05:30
Think Dante, Shakespeare,
126
315000
3000
به دانته، شکسپیر، انجیل ،به اخبار جهان فکر کنید.
05:33
the Bible, News of the World.
127
318000
3000
به دانته، شکسپیر، انجیل ،به اخبار جهان فکر کنید.
05:36
(Laughter)
128
321000
2000
(خنده تماشاگران)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
دروغ برای ما به عنوان یک گونه، ارزش تکاملی دارد.
05:40
Researchers have long known
130
325000
2000
محققین از خیلی قبل میدانستند که هرچه گونه ای با هوشتر باشد،
05:42
that the more intelligent the species,
131
327000
2000
محققین از خیلی قبل میدانستند که هرچه گونه ای با هوشتر باشد،
05:44
the larger the neocortex,
132
329000
2000
محققین از خیلی قبل میدانستند که هرچه گونه ای با هوشتر باشد،
05:46
the more likely it is to be deceptive.
133
331000
2000
نئوکرتکس بیشتر ، و احتمال بیشتر برای فریبکار بودن.
05:48
Now you might remember Koko.
134
333000
2000
شاید شما کوکو را به خاطر بیاورید.
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
آیا کسی کوکو، گوریلی که زبان اشاره بهش آموخته بود را به خاطر میآره.
05:53
Koko was taught to communicate via sign language.
136
338000
3000
به کوکو آموخته شده بود که برای برقراری ارتباط از زبان اشاره استفاده کنه.
05:56
Here's Koko with her kitten.
137
341000
2000
این کوکو با بچه گربه اش .
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
این پیشی بامزه موفرفری کوکو است.
06:01
Koko once blamed her pet kitten
139
346000
2000
کوکو یکبار بچه گربه اش رو بخاطر کندن یه لگن دستشویی از دیوار سرزنش کرده بود.
06:03
for ripping a sink out of the wall.
140
348000
2000
کوکو یکبار بچه گربه اش رو بخاطر کندن یه لگن دستشویی از دیوار سرزنش کرده بود.
06:05
(Laughter)
141
350000
2000
( خنده تماشاگران)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
مداربندی مغزی ما بطوریست که رهبران گروه باشیم.
06:09
It's starts really, really early.
143
354000
2000
این از ابتدای ،ابتدای، ابتدا، شروع میشود.
06:11
How early?
144
356000
2000
چقدر ابتدا
06:13
Well babies will fake a cry,
145
358000
2000
خوب نوزادان گریه الکی میکنند،
06:15
pause, wait to see who's coming
146
360000
2000
مکث میکنند، صبر میکنند ببینن چه کسی داره میآید و سپس دقیقا شروع به گریه کردن میکنند.
06:17
and then go right back to crying.
147
362000
2000
مکث میکنند، صبر میکنند ببینن چه کسی داره میآید و سپس دقیقا شروع به گریه کردن میکنند.
06:19
One-year-olds learn concealment.
148
364000
2000
یک ساله ها پنهان کاری رو یاد می گیرند.
06:21
(Laughter)
149
366000
2000
( خنده تماشاگران)
06:23
Two-year-olds bluff.
150
368000
2000
دو ساله ها، خالی بندی میکنن.
06:25
Five-year-olds lie outright.
151
370000
2000
پنج ساله ها آشکارا دروغ میگویند.
06:27
They manipulate via flattery.
152
372000
2000
آنها از طریق چاپلوسی به مهارت آنجام میدن.
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
استاد سر پوش گذاشتن. نه ساله ها هستند.
06:32
By the time you enter college,
154
377000
2000
و تا زمانی که به کالج وارد میشوید، شما از هر پنج ارتباطی که با مادرتون دارید یکی را دروغ میگین.
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
و تا زمانی که به کالج وارد میشوید، شما از هر پنج ارتباطی که با مادرتون دارید یکی را دروغ میگین.
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
و تا زمانی که وارد دنیای کاری میشیم و نان آورخانه میشوید،
06:40
we enter a world that is just cluttered
157
385000
2000
وارد دنیایی میشویم که پر از ایمیل ناخواسته جعلی، دوستان ساختگی دیجیتالی، رسانه های حزبی،
06:42
with spam, fake digital friends,
158
387000
2000
وارد دنیایی میشویم که پر از ایمیل ناخواسته جعلی، دوستان ساختگی دیجیتالی، رسانه های حزبی،
06:44
partisan media,
159
389000
2000
وارد دنیایی میشویم که پر از ایمیل ناخواسته جعلی، دوستان ساختگی دیجیتالی، رسانه های حزبی،
06:46
ingenious identity thieves,
160
391000
2000
سارقان هویت دارای قوه ابتکار،
06:48
world-class Ponzi schemers,
161
393000
2000
طرح پانزی( نوعی سرمایه گذاری جعلی) در سطح جهانی،
06:50
a deception epidemic --
162
395000
2000
و یک فریبکاری همه گیر است--
06:52
in short, what one author calls
163
397000
2000
خلاصه ، آنچه که یک نویسنده آن را یک جامعه بعد از حقیقت خواند.
06:54
a post-truth society.
164
399000
3000
خلاصه ، آنچه که یک نویسنده آن را یک جامعه بعد از حقیقت خواند.
06:57
It's been very confusing
165
402000
2000
این برای مدت زمان طولانی بسیار گیج کننده بود.
06:59
for a long time now.
166
404000
3000
این برای مدت زمان طولانی بسیار گیج کننده بود.
07:03
What do you do?
167
408000
2000
چکار باید کرد؟
07:05
Well there are steps we can take
168
410000
2000
خب، راه هایی برای رد شدن از این باتلاق وجود داره که میتونیم ازشون استفاده کنیم.
07:07
to navigate our way through the morass.
169
412000
2000
خب، راه هایی برای رد شدن از این باتلاق وجود داره که میتونیم ازشون استفاده کنیم.
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
"تشخیص دهند دروغ" آموزش دیده 90 درصد از اوقات حقیقت را درمییابد.
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
بقیه ما فقط 54 درصد را تشخیص میدهیم.
07:15
Why is it so easy to learn?
172
420000
2000
چرا یاد گرفتن این، خیلی آسونه؟
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
دروغگو خوب و دروغگو بد وجود دارد. و دروغگو به ذات وجود نداره.
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
همه ما اشتباهات مشابه داریم. خوب همه ما از تکنیک مشابه استفاده میکنیم.
07:23
So what I'm going to do
175
428000
2000
خُب چیزی که قصد دارم انجام دهم اینه که به شما دو الگوی فریبکاری را به شما نشان دهم.
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
خُب چیزی که قصد دارم انجام دهم اینه که به شما دو الگوی فریبکاری را به شما نشان دهم.
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
پس از آن، ما قصد داریم به نقاط اصلی توجه کنیم و ببینیم، اگر می توانیم آنها را در خودمان پیدا کنیم.
07:30
We're going to start with speech.
178
435000
3000
میخواهیم با سخنرانی شروع میکنیم.
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
(ویدئو) بیل کلینتون: میخواهم به من گوش کنید.
07:35
I'm going to say this again.
180
440000
2000
قصد دارم این را دوباره بگویم.
07:37
I did not have sexual relations
181
442000
3000
من روابط جنسی با این زن، خانم لوینسکی نداشتم.
07:40
with that woman, Miss Lewinsky.
182
445000
4000
من روابط جنسی با این زن، خانم لوینسکی نداشتم.
07:44
I never told anybody to lie,
183
449000
2000
من هرگز به کسی نگفتم که دروغ بگوید، حتی یکبار هم ، هرگز.
07:46
not a single time, never.
184
451000
2000
من هرگز به کسی نگفتم که دروغ بگوید، حتی یکبار هم ، هرگز.
07:48
And these allegations are false.
185
453000
3000
و این اتهامات، اشتباه است.
07:51
And I need to go back to work for the American people.
186
456000
2000
و من نیاز دارم برگردم و برای مردم آمریکا کار کنم.
07:53
Thank you.
187
458000
2000
متشکرم.
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
بسیار خوب ، علايم نشان دهنده چه بودند؟
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
خوب ، چیزی که اول ما شنیدیم به عنوان انکار غیر قراردادی شناخته شده .
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
مطالعات نشان می دهد که این افراد که بیش از حد در انکارشان مصم هستند،
08:08
will resort to formal rather than informal language.
191
473000
3000
به زبان رسمی به جای زبان غیررسمی توسل میشوند.
08:11
We also heard distancing language: "that woman."
192
476000
3000
ما همچنین در زبان فاصله شنیدیم:"این زن"
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
میدانیم که دروغگویان بطور ناخودآگاه با استفاده از ابزار زبان خود را از موضوعشان دور نگه میدارند.
08:16
from their subject
194
481000
2000
میدانیم که دروغگویان بطور ناخودآگاه با استفاده از ابزار زبان خود را از موضوعشان دور نگه میدارند.
08:18
using language as their tool.
195
483000
3000
میدانیم که دروغگویان بطور ناخودآگاه با استفاده از ابزار زبان خود را از موضوعشان دور نگه میدارند.
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
خوب حالا اگر بیل کلینتون گفته بود،"خوب، حقیقت را به شما بگویم ..."
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
و یا اصطلاح مورد علاقه ریچارد نیکسون، با همه خلوث نیت ... "
08:26
he would have been a dead giveaway
198
491000
2000
دستش برای هر تشخیص دهند دروغ که به زبان مقدماتی آن آشناست، رو میشه
08:28
for any liespotter than knows
199
493000
2000
دستش برای هر تشخیص دهند دروغ که به زبان مقدماتی آن آشناست، رو میشه
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
زبان مقدماتی مثل این بیشتر موضوع را بی اعتبار میکنند.
08:33
further discredits the subject.
201
498000
2000
بیشتر موضوع را بی اعتبار میکند.
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
حالا اگر او این سوال رابا تمامیت آن تکرار کرده بود،
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
و یا اگر او کمی بیشتر وارد جزئیات آن میشد --
08:42
and we're all really glad he didn't do that --
204
507000
2000
و ما همه خوشحالم که او اینکار را نکرد--
08:44
he would have further discredited himself.
205
509000
2000
خودش را بیشتر بی اعتبار میکرد.
08:46
Freud had it right.
206
511000
2000
فروید درست میگفت.
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
او گفت، اینجا خیلی بیشتر از اونه که در سخنرانی هست:
08:51
"No mortal can keep a secret.
208
516000
3000
"هیچ انسانی نمیتوانه رازی را نگه دارد. اگر لبهای او ساکتند، انگشتانش پچ پچ میکنند."
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
"هیچ انسانی نمیتوانه رازی را نگه دارد. اگر لبهای او ساکتند، انگشتانش پچ پچ میکنند."
08:57
And we all do it no matter how powerful you are.
210
522000
3000
و ما هما این کار را میکنیم و مهم نیست که چقدر شما قوی باشید.
09:00
We all chatter with our fingertips.
211
525000
2000
ما همه با انگشتانمان پچ پچ میکنیم.
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
میخواهم دومینیک استراوس کان همراه با اُباما، کسی که با انگشتانش پچ پچ میکند را به شما نشان دهم.
09:05
who's chattering with his fingertips.
213
530000
3000
میخواهم دومینیک استراوس کان همراه با اُباما، کسی که با انگشتانش پچ پچ میکند را به شما نشان دهم.
09:08
(Laughter)
214
533000
3000
( خنده تماشاگران)
09:11
Now this brings us to our next pattern,
215
536000
3000
این ما را به الگوی بعدی که زبان بدن است ، میبرد.
09:14
which is body language.
216
539000
3000
این ما را به الگوی بعدی که زبان بدن است ، میبرد.
09:17
With body language, here's what you've got to do.
217
542000
3000
با زبان بدن، اینکار ها رو میتونید بکنید.
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
شما واقعا یادگرفتید فقط مفروضات خود را از در به بیرون پرتاب کنید.
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
اجازه دهید یه کمی علم دانش شما را آبدیده کنه.
09:25
Because we think liars fidget all the time.
220
550000
3000
چونکه دروغگو همواره بیقراره و ناراحته.
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
بسیار خوب حدس بزنید، آنها مشهورند که بالا تنه خودشون را هنگامی که دروغ میگن، منقبص میکنند.
09:31
We think liars won't look you in the eyes.
222
556000
3000
ما معتقدیم که دروغگو به چشمهای شما نگاه نمی کنه.
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
بسیار خوب حدس بزنید، که اونا کمی بیشتر از حد به چشمهای شما نگاه کنند فقط به خاطر جبران این افسانه.
09:36
just to compensate for that myth.
224
561000
2000
بسیار خوب حدس بزنید، که اونا کمی بیشتر از حد به چشمهای شما نگاه کنند فقط به خاطر جبران این افسانه.
09:38
We think warmth and smiles
225
563000
2000
ما معتقدیم گرمی و لبخند ، صداقت و اخلاص را انتقال میدهد.
09:40
convey honesty, sincerity.
226
565000
2000
ما معتقدیم گرمی و لبخند ، صداقت و اخلاص را انتقال میدهد.
09:42
But a trained liespotter
227
567000
2000
اما "تشخیص دهند دروغ" آموزش دیده میتواند لبخند دروغی را از یک مایل دورتر تشخیص دهد.
09:44
can spot a fake smile a mile away.
228
569000
2000
اما "تشخیص دهند دروغ" آموزش دیده میتواند لبخند دروغی را از یک مایل دورتر تشخیص دهد.
09:46
Can you all spot the fake smile here?
229
571000
3000
آیا همه شما میتونید لبخند دروغی را تشخیص دهید؟
09:50
You can consciously contract
230
575000
2000
همه شما میتونید عضلات گونه هایتان را جمع کنید.
09:52
the muscles in your cheeks.
231
577000
3000
همه شما میتونید عضلات گونه هایتان را جمع کنید.
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
اما لبخند واقعی در چشمان است و جای پای آن در چشمها پیدااست.
09:58
They cannot be consciously contracted,
233
583000
2000
آنها آگاهانه نمیتوانند منقبض شوند، به خصوص اگر شما چند با بُتاکس کرده باشید.
10:00
especially if you overdid the Botox.
234
585000
2000
آنها آگاهانه نمیتوانند منقبض شوند، به خصوص اگر شما چند با بُتاکس کرده باشید.
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
بیش از حد بُتاکس نکنید؛ کسی باور نمیکنه که شما صادق هستید.
10:05
Now we're going to look at the hot spots.
236
590000
2000
حالا قصد داریم که به نکات اصلی بپردازیم.
10:07
Can you tell what's happening in a conversation?
237
592000
2000
شما میتوانید بگوئید که در این این گفتگو چه اتفاقی رخ میدهد؟
10:09
Can you start to find the hot spots
238
594000
3000
آیا میتونید نکات اصلی را برای دیدن اختلاف بین گفته ها و اعمال شخصی پیدا کنید؟
10:12
to see the discrepancies
239
597000
2000
آیا میتونید نکات اصلی را برای دیدن اختلاف بین گفته ها و اعمال شخصی پیدا کنید؟
10:14
between someone's words and someone's actions?
240
599000
2000
آیا میتونید نکات اصلی را برای دیدن اختلاف بین گفته ها و اعمال شخصی پیدا کنید؟
10:16
Now I know it seems really obvious,
241
601000
2000
میدونم این به نظر خیلی واضح است،
10:18
but when you're having a conversation
242
603000
2000
اما هنگامی که شما با کسی که مشکوک به فریبکاری است گفتگو میکنید،
10:20
with someone you suspect of deception,
243
605000
3000
اما هنگامی که شما با کسی که مشکوک به فریبکاری است گفتگو میکنید،
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
تا حد زیادی گرایش به نادیده گرفتن است اما مقیاس اونا میگه.
10:26
An honest person is going to be cooperative.
245
611000
2000
یک فرد صادق همکاری و مشارکت میکند.
10:28
They're going to show they're on your side.
246
613000
2000
اونا نشان میدن که در طرف شما هستند.
10:30
They're going to be enthusiastic.
247
615000
2000
و مشتاق هستند.
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
تمایل دارند که به شما کمک کنند تا به حقیقت برسید.
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
تمایل دارند نام مضنونها و جزئیات را به خاطر بیاورند.
10:37
provide details.
250
622000
2000
تمایل دارند نام مضنونها و جزئیات را به خاطر بیاورند.
10:39
They're going to say, "Hey,
251
624000
2000
اونا میگن، شاید کارمندای حسابداری اون چک ها رو جعل کردن.
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
اونا میگن، شاید کارمندای حسابداری اون چک ها رو جعل کردن.
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
اونها اگر احساس کنند که به اشتباه در طول تمام مصاحبه متهم شده اند، خشمگین میشوند، نه فقط در یک لحظه؛
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
اونها اگر احساس کنند که به اشتباه در طول تمام مصاحبه متهم شده اند، خشمگین میشوند، نه فقط در یک لحظه؛
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
اونها کل طول دوره مصاحبه خشمگین میشوند.
10:52
And if you ask someone honest
256
637000
2000
و اگر از یک فرد صادق بپرسید که با یک فردی که چک جعل کرده چه باید کرد،
10:54
what should happen to whomever did forge those checks,
257
639000
3000
و اگر از یک فرد صادق بپرسید که با یک فردی که چک جعل کرده چه باید کرد،
10:57
an honest person is much more likely
258
642000
2000
خیلی بیشتر احتمال دارد فرد صادق توصیه به تنبیه شدید به جای تنبیه ملایم کند.
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
خیلی بیشتر احتمال دارد فرد صادق توصیه به تنبیه شدید به جای تنبیه ملایم کند.
11:03
Now let's say you're having that exact same conversation
260
648000
2000
اجازه دهید بگوئیم شما گفتگوی مشابهی با فردی فریبکار دارید.
11:05
with someone deceptive.
261
650000
2000
اجازه دهید بگوئیم شما گفتگوی مشابهی با فردی فریبکار دارید.
11:07
That person may be withdrawn,
262
652000
2000
این فرد ممکنه به گفتگو علاقه نشون نده، نگاهش را بدزده، صداش را پائین بیاره، مکث کنه، وبه نوعی متشنج بشه.
11:09
look down, lower their voice,
263
654000
2000
این فرد ممکنه به گفتگو علاقه نشون نده، نگاهش را بدزده، صداش را پائین بیاره، مکث کنه، وبه نوعی متشنج بشه.
11:11
pause, be kind of herky-jerky.
264
656000
2000
این فرد ممکنه به گفتگو علاقه نشون نده، نگاهش را بدزده، صداش را پائین بیاره، مکث کنه، وبه نوعی متشنج بشه.
11:13
Ask a deceptive person to tell their story,
265
658000
2000
از فرد فریبکار بخواه که داستان را تعریف کنه،
11:15
they're going to pepper it with way too much detail
266
660000
3000
اونا نمکش را زیاد میکنند و به شیوه ای که وارد جزئیات زیادی درانواع مکانهای بی ربط میشوند.
11:18
in all kinds of irrelevant places.
267
663000
3000
اونا نمکش را زیاد میکنند و به شیوه ای که وارد جزئیات زیادی درانواع مکانهای بی ربط میشوند.
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
و سپس اونها داستانشان را با ترتیب زمانی سختگیرانه بیان میکنند.
11:24
And what a trained interrogator does
269
669000
2000
و کاری که بازجوی آموزش دیده میکنه این است که اونها با میان ودر طول چندین ساعت با روش بسیار ظریفی ،
11:26
is they come in and in very subtle ways
270
671000
2000
و کاری که بازجوی آموزش دیده میکنه این است که اونها با میان ودر طول چندین ساعت با روش بسیار ظریفی ،
11:28
over the course of several hours,
271
673000
2000
و کاری که بازجوی آموزش دیده میکنه این است که اونها با میان ودر طول چندین ساعت با روش بسیار ظریفی ،
11:30
they will ask that person to tell that story backwards,
272
675000
3000
آنها از فرد میخواهند که داستان را از آخر دوباره تعریف کنند،
11:33
and then they'll watch them squirm,
273
678000
2000
و سپس به پیچ وتاب خوردن و ناراحتی اونها نگاه میکنند،
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
و پرسش هایی که بالاترین حجم از فریبنده تولید میکنند را دنبال میکنند.
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
چرا که آنها این را انجام میدهند؟ خوب ما همه همین کار را میکنیم.
11:41
We rehearse our words,
276
686000
2000
ما کلماتمان را تمرین و مرور ذهنی میکنیم ، اما ما به ندرت حرکاتمان را تمرین و مرور ذهنی میکنیم.
11:43
but we rarely rehearse our gestures.
277
688000
2000
ما کلماتمان را تمرین و مرور ذهنی میکنیم ، اما ما به ندرت حرکاتمان را تمرین و مرور ذهنی میکنیم.
11:45
We say "yes," we shake our heads "no."
278
690000
2000
ما میگويبم "بله" و سرمان را "نه" تکان میدهیم.
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
ما داستان بسیار متقاعد کننده ای را میگوئیم ،و کمی شانه هایمان را بالا میاندازیم.
11:50
We commit terrible crimes,
280
695000
2000
ما جنایات هولناکی مرتکب میشویم، لبخند میزنیم توام با لذتی از آن دور میشویم.
11:52
and we smile at the delight in getting away with it.
281
697000
3000
ما جنایات هولناکی مرتکب میشویم، لبخند میزنیم توام با لذتی از آن دور میشویم.
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
این لبخند به عنوان "لذت فریب" در تجارت شناخته شده است.
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
قصد داریم چند فیلم ببینیم واما ما با این شروع میکنیم-- برای بعضی از شما که او را نمیشناسید،
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
قصد داریم چند فیلم ببینیم واما ما با این شروع میکنیم-- برای بعضی از شما که او را نمیشناسید،
12:03
this is presidential candidate John Edwards
285
708000
3000
این کاندیدای ریاست جمهوری جان ادوارد است کسی که دارای یک فرزند نامشروع بود و آمریکا را شوک زده کرد.
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
این کاندیدای ریاست جمهوری جان ادوارد است کسی که دارای یک فرزند نامشروع بود و آمریکا را شوک زده کرد.
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
ما او را خواهیم دید که درباره آزمایش تشخیص پدر بودن صحبت میکند میکند.
12:12
See now if you can spot him
288
717000
2000
او را ببینید و اگر میتونید او تشخیص دهید که میگوید "بله" درحالی که سرش "نه" را تکان میدهد
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
او را ببینید و اگر میتونید او تشخیص دهید که میگوید "بله" درحالی که سرش "نه" را تکان میدهد
12:16
slightly shrugging his shoulders.
290
721000
2000
و شانه هایش را کمی بالا میاندازد.
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
(ویدئو) جان ادواردز: خوشحال می شوم که دراین موضوع شرکت کنم.
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
من میدانم که این ممکن نیست که فرزند من باشد، به خاطر زمان حادثه.
12:23
because of the timing of events.
293
728000
2000
من میدانم که این ممکن نیست که فرزند من باشد، به خاطر زمان حادثه.
12:25
So I know it's not possible.
294
730000
2000
خُب من میدانم این ممکن نیست.
12:27
Happy to take a paternity test,
295
732000
2000
خوشحال خواهم شد که آزمایش پدر بودن را بدهم.
12:29
and would love to see it happen.
296
734000
2000
و عاشق دیدن این واقعه هستم.
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
آیا قصد دارید این آزمایش را به زودی انجام دهی؟ آیا انجا کسی هست--
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
ج.ا: من فقط یک طرف قضیه هستم. من تنها طرف آزمایش نیستم.
12:37
But I'm happy to participate in one.
299
742000
3000
اما من خوشحال میشوم که در این موضوع شرکت کنم.
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
پ.ام: بسیار خوب، این سر تکان دادنها خیلی آسان تر تشخیص داده میشوند
12:42
once you know to look for them.
301
747000
2000
تا هنگامی که شما می دانید که به دنبال آنها هستید.
12:44
There're going to be times
302
749000
2000
زمانی فرا میرسد که وقتس که یک نفر موضوعی را بیان میکند
12:46
when someone makes one expression
303
751000
2000
زمانی فرا میرسد که وقتس که یک نفر موضوعی را بیان میکند
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
در حالی که نقاب دیگری دارد به نوعی این در یک لحظه فاش می شود.
12:52
Murderers are known to leak sadness.
305
757000
2000
قاتلان مشهورند که غم و اندوه از خودشان بروز میدهند.
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
شریک جدید سرمایگذاری شما ممکن با شما دست بده،
12:56
celebrate, go out to dinner with you
307
761000
2000
جشن بگیره، و برای شام با شما بیرون بره و سپس خشم او بُروز کند.
12:58
and then leak an expression of anger.
308
763000
3000
جشن بگیره، و برای شام با شما بیرون بره و سپس خشم او بُروز کند.
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
همه ما قصد نداریم که یک شبه اینجا کارشناسان خٍبره بیان صورت شویم،
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
اما یک چیزی هست که من میتوانم به شما یاد دهم که خیلی خطرناکه، و یادگرفتنش آسونه،
13:07
and that's the expression of contempt.
311
772000
3000
و این بیان اهانت و تحقیر است.
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
با خشم ، شما دو نفر در میدان بازی میبینید.
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
هنوز روابطشان به شکلی مناسب و سالم است.
13:15
But when anger turns to contempt,
314
780000
2000
اما هنگامی که خشم به تحقیر مبدل میشود، شما مرخص میشوید.
13:17
you've been dismissed.
315
782000
2000
اما هنگامی که خشم به تحقیر مبدل میشود، شما مرخص میشوید.
13:19
It's associated with moral superiority.
316
784000
2000
این با برتری اخلاقی همراه است.
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
و به همین دلیل، بهبودی شکل بسیار بسیار مشکله.
13:24
Here's what it looks like.
318
789000
2000
شبیه اینه.
13:26
It's marked by one lip corner
319
791000
2000
با یک کج دهنی او تابلو شده.
13:28
pulled up and in.
320
793000
2000
با یک کج دهنی او تابلو شده.
13:30
It's the only asymmetrical expression.
321
795000
3000
و این بیان تنها نامناسبه.
13:33
And in the presence of contempt,
322
798000
2000
و در حضور تحقیر، فریب دنبال کنه یا نکنه--
13:35
whether or not deception follows --
323
800000
2000
و در حضور تحقیر، فریب دنبال کنه یا نکنه--
13:37
and it doesn't always follow --
324
802000
2000
این همیشه دنبال نمیشه--
13:39
look the other way, go the other direction,
325
804000
2000
به شیوه دیگری نگاه کند، بر مسیر دیگری برود ، به موضوع تجدید نظر کند،
13:41
reconsider the deal,
326
806000
2000
به شیوه دیگری نگاه کند، بر مسیر دیگری برود ، به موضوع تجدید نظر کند،
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
و بگوید، "نه متشکرم. من برای گرفتن یک چشم بند دیگه اینجا نیومدم".
13:47
Science has surfaced
328
812000
2000
علم خیلی خیلی از شاخص ها را ظاهر نموده.
13:49
many, many more indicators.
329
814000
2000
علم خیلی خیلی از شاخص ها را ظاهر نموده.
13:51
We know, for example,
330
816000
2000
برای مثال ما میدانیم،
13:53
we know liars will shift their blink rate,
331
818000
2000
که دروغگوها تعداد پلک زدنشان افزایش مییابد، پا هایشان را به جهت خروج نشانه گیری میکنند.
13:55
point their feet towards an exit.
332
820000
2000
که دروغگوها تعداد پلک زدنشان افزایش مییابد، پا هایشان را به جهت خروج نشانه گیری میکنند.
13:57
They will take barrier objects
333
822000
2000
آونها موانعی را به شکل اشیاء برمیدارند و بین خودشان و شخصی که با آنها مصاحبه میکند قرار میدهند.
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
آونها موانعی را به شکل اشیاء برمیدارند و بین خودشان و شخصی که با آنها مصاحبه میکند قرار میدهند.
14:02
They'll alter their vocal tone,
335
827000
2000
آنها لحن ضدای خود، تغییر دهد و اغلب لحن صدای خود را بسیار پایین می آورند.
14:04
often making their vocal tone much lower.
336
829000
3000
آنها لحن ضدای خود، تغییر دهد و اغلب لحن صدای خود را بسیار پایین می آورند.
14:07
Now here's the deal.
337
832000
2000
قرارداد در اینجاست. این رفتارها فقط رفتارها هستند.
14:09
These behaviors are just behaviors.
338
834000
3000
قرارداد در اینجاست. این رفتارها فقط رفتارها هستند.
14:12
They're not proof of deception.
339
837000
2000
اینها تائید فریبکاری نیستند. اینها پرچمهای قرمزند.
14:14
They're red flags.
340
839000
2000
اینها تائید فریبکاری نیستند. اینها پرچمهای قرمزند.
14:16
We're human beings.
341
841000
2000
ما انسان هستیم.
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
ما در همه جا و در تمام طول روز ژست های فریبنده میگیریم.
14:21
They don't mean anything in and of themselves.
343
846000
2000
اونها به خودی خود هیچ معنایی ندارند.
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
اما هنگامی که چندتا از آن ها را میبینید، این سیگنال توست.
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
نگاه کنید، بشنوید، معاینه کنید، سوالات مشکل کنید، از حالت دانستن بسیار راحت خارج شوید،
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
نگاه کنید، بشنوید، معاینه کنید، سوالات مشکل کنید، از حالت دانستن بسیار راحت خارج شوید،
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
به حالت کنجکاوی بروید، سوال بیشتری بپرسید، کمی کرامت داشته باشید، با فرد با تفاهم صحبت کنید.
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
به حالت کنجکاوی بروید، سوال بیشتری بپرسید، کمی کرامت داشته باشید، با فرد با تفاهم صحبت کنید.
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
سعی نکنید مانند افراد در "قانون و نظم" ( سریال تلوزیونی) باشید و اونهایی را که درشو تلوزیونی نشان میدن
14:41
that pummel their subjects into submission.
350
866000
2000
که با له کردن افراد خود را به تسلیم مییکنند.
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
پرخاشگر نباشید، این جواب نمیده.
14:46
Now we've talked a little bit
352
871000
2000
ما کمی درباره چگونگی گفتگو با فردی که دروغ میگوید و چگونگی تشخیص دروغ ، صحبت کردیم.
14:48
about how to talk to someone who's lying
353
873000
2000
ما کمی درباره چگونگی گفتگو با فردی که دروغ میگوید و چگونگی تشخیص دروغ ، صحبت کردیم.
14:50
and how to spot a lie.
354
875000
2000
ما کمی درباره چگونگی گفتگو با فردی که دروغ میگوید و چگونگی تشخیص دروغ ، صحبت کردیم.
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
همانطور که وعده داده بودم ، الان ما قصد داریم ببینیم حقیقت چگونه است.
14:55
But I'm going to show you two videos,
356
880000
2000
اما قصد دارم دو تا ویدئو نشان تان بدهم، دو تا مادر- یکی دروغ میگوید ، و دیگری حقیقت را میگوید.
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
اما قصد دارم دو تا ویدئو نشان تان بدهم، دو تا مادر- یکی دروغ میگوید ، و دیگری حقیقت را میگوید.
15:00
And these were surfaced
358
885000
2000
موضوع آنها توسط محقق، دیوید ماتساموت در کالیفرنیا آشکار شدند.
15:02
by researcher David Matsumoto in California.
359
887000
2000
موضوع آنها توسط محقق، دیوید ماتساموت در کالیفرنیا آشکار شدند.
15:04
And I think they're an excellent example
360
889000
2000
فکر میکنم که آنها مثال عالی هستند که نشان میدهد حقیقت چگونه است.
15:06
of what the truth looks like.
361
891000
2000
فکر میکنم که آنها مثال عالی هستند که نشان میدهد حقیقت چگونه است.
15:08
This mother, Diane Downs,
362
893000
2000
این مادر، دایان دانز، به فرزندش از فاصله نزدیک شلیک کرد است، و به بیمارستان او را منتقل کرده ،
15:10
shot her kids at close range,
363
895000
2000
این مادر، دایان دانز، به فرزندش از فاصله نزدیک شلیک کرد است، و به بیمارستان او را منتقل کرده ،
15:12
drove them to the hospital
364
897000
2000
این مادر، دایان دانز، به فرزندش از فاصله نزدیک شلیک کرد است، و به بیمارستان او را منتقل کرده ،
15:14
while they bled all over the car,
365
899000
2000
در حالی خون در همه خودرو را پوشانده بوده، ادعا نموده یک غریبه با موهای زبر و خشن این کار را کرده.
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
در حالی خون در همه خودرو را پوشانده بوده، ادعا نموده یک غریبه با موهای زبر و خشن این کار را کرده.
15:18
And you'll see when you see the video,
367
903000
2000
هنگامی که ویدئو را تماشا می کنید خواهید دید که او حتی نمیتونه وانمود کنه که مادر رنج دیده ای است.
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
هنگامی که ویدئو را تماشا می کنید خواهید دید که او حتی نمیتونه وانمود کنه که مادر رنج دیده ای است.
15:22
What you want to look for here
369
907000
2000
آنچه که شما به دنبالش هستید
15:24
is an incredible discrepancy
370
909000
2000
تفاوت باورنکردنی بین وقایعی که او توصیف میکند و رفتار بسیار بسیار سرد اوست.
15:26
between horrific events that she describes
371
911000
2000
تفاوت باورنکردنی بین وقایعی که او توصیف میکند و رفتار بسیار بسیار سرد اوست.
15:28
and her very, very cool demeanor.
372
913000
2000
تفاوت باورنکردنی بین وقایعی که او توصیف میکند و رفتار بسیار بسیار سرد اوست.
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
و اگر از نزدیکتر نگاه کنید، نیرنگی توام با لذت در سراسر این ویدئو را میبینید.
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
(ویدئو) دیان داونز: در شب هنگامی که چشمهایم را بستم،
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
من میتونستم ببینم که دستهای کریستی به طرف من دراز شده را ببینم که در حالی که من رانندگی میکردم.
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
و خون ریزی از دهان او ادامه داشت.
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
و این -- شاید با گدشت زمان این کم رنگتر بشود-- اما فکر نمیکنم اینطور بود.
15:43
but I don't think so.
378
928000
2000
و این -- شاید با گدشت زمان این کم رنگتر بشود-- اما فکر نمیکنم اینطور بود.
15:45
That bothers me the most.
379
930000
3000
این مرا بیشتر از همه اذیت می کنه.
15:55
PM: Now I'm going to show you a video
380
940000
2000
پ.ام: حالا قصد دارم که ویدئویی از یک مادر که عزادار واقعی، ارین راننون
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
پ.ام: حالا قصد دارم که ویدئویی از یک مادر که عزادار واقعی، ارین راننون
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
در مقابل قاتل و شکنجه گر دخترش در دادگاه را به شما نشان دهم.
16:03
Here you're going to see no false emotion,
383
948000
2000
در اینجا شما هیچ احساسی کاذب را نمیبینید ، تنها بیان معتبری از عذاب یک مادر است.
16:05
just the authentic expression of a mother's agony.
384
950000
3000
در اینجا شما هیچ احساسی کاذب را نمیبینید ، تنها بیان معتبری از عذاب یک مادر است.
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
(ویدئو) ارین راننون: من این را برای سومین سالگرد
16:10
of the night you took my baby,
386
955000
2000
آن شبی که تو کودک مرا بردی و او را آزار دادی و او را خُرد کردی نوشتم،
16:12
and you hurt her,
387
957000
2000
آن شبی که تو کودک مرا بردی و او را آزار دادی و او را خُرد کردی نوشتم،
16:14
and you crushed her,
388
959000
2000
آن شبی که تو کودک مرا بردی و او را آزار دادی و او را خُرد کردی نوشتم،
16:16
you terrified her until her heart stopped.
389
961000
4000
تو در او وحشت ایجاد کردی تا زمانی که قلب او ایستاد.
16:20
And she fought, and I know she fought you.
390
965000
3000
او جنگید و من میدانم او با تو جنگید.
16:23
But I know she looked at you
391
968000
2000
اما او با این چشمان قهوه ای باورنکردنی به تو نگاه کرد، و هنوز تو خواستی که او را بکشی.
16:25
with those amazing brown eyes,
392
970000
2000
اما او با این چشمان قهوه ای باورنکردنی به تو نگاه کرد، و هنوز تو خواستی که او را بکشی.
16:27
and you still wanted to kill her.
393
972000
3000
اما او با این چشمان قهوه ای باورنکردنی به تو نگاه کرد، و هنوز تو خواستی که او را بکشی.
16:30
And I don't understand it,
394
975000
2000
من اینرا نمیفهمم و هرگز هم نخواهم فهمید.
16:32
and I never will.
395
977000
3000
من اینرا نمیفهمم و هرگز هم نخواهم فهمید.
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
بسیار خوب، هیچ شکی در صحت آن احساسات نیست.
16:39
Now the technology around what the truth looks like
397
984000
3000
تکنولوژی موجود در حال پییشرفت برای آنچه که از لحاظ علمی حقیقت به نظر می رسد، است.
16:42
is progressing on, the science of it.
398
987000
3000
تکنولوژی موجود در حال پییشرفت برای آنچه که از لحاظ علمی حقیقت به نظر می رسد، است.
16:45
We know for example
399
990000
2000
برای مثال ، ما میدانیم که امروزه ما متخصصین دنبال کردن چشم و اسکنهای مادون قرمز مغز را داریم،
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
برای مثال ، ما میدانیم که امروزه ما متخصصین دنبال کردن چشم و اسکنهای مادون قرمز مغز را داریم،
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
که این اسکن مغزی میتواند سیگنال هایی که بدن ما هنگامی که تلاش می کنیم فریبکار باشیم را رمز گشائی می کند.
16:53
when we're trying to be deceptive.
402
998000
2000
که این اسکن مغزی میتواند سیگنال هایی که بدن ما هنگامی که تلاش می کنیم فریبکار باشیم را رمز گشائی می کند.
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
و این فن آوری به عنوان نوش دارو فریب برای همه ، به بازار عرضه خواهد شد،
16:58
as panaceas for deceit,
404
1003000
2000
و این فن آوری به عنوان نوش دارو فریب برای همه ، به بازار عرضه خواهد شد،
17:00
and they will prove incredibly useful some day.
405
1005000
3000
و روزی آنها ثابت خواهند کرد که بسیار مفید خواهند بود.
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
اما در این میان شما باید از خود بپرسید:
17:05
Who do you want on your side of the meeting,
407
1010000
2000
میخواهید چه کسی طرف شما در جلسه باشد،
17:07
someone who's trained in getting to the truth
408
1012000
3000
کسی که آموزش دیده تا حقیقت را بیابد یا کسانی که ۴۰۰ پوند الکتروسفالوگرام را از در بیرون بکشند؟
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
کسی که آموزش دیده تا حقیقت را بیابد یا کسانی که ۴۰۰ پوند الکتروسفالوگرام را از در بیرون بکشند؟
17:12
through the door?
410
1017000
2000
کسی که آموزش دیده تا حقیقت را بیابد یا کسانی که ۴۰۰ پوند الکتروسفالوگرام را از در بیرون بکشند؟
17:14
Liespotters rely on human tools.
411
1019000
4000
"تشخیص دهندگان دروغ" به ابزار انسانها تکیه میکنند.
17:18
They know, as someone once said,
412
1023000
2000
آنها میدانند، همانطور که یک نفر یکبار گفت، "کسی که در خفا و تاریکی هست، سیرت شماست."
17:20
"Character's who you are in the dark."
413
1025000
2000
آنها میدانند، همانطور که یک نفر یکبار گفت، "کسی که در خفا و تاریکی هست، سیرت شماست."
17:22
And what's kind of interesting
414
1027000
2000
و چیز جالب توجه این است که امروزه ما تاریکی کمی داریم.
17:24
is that today we have so little darkness.
415
1029000
2000
و چیز جالب توجه این است که امروزه ما تاریکی کمی داریم.
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
دنیای ما در طول 24 ساعت شبانه روز روشن است.
17:29
It's transparent
417
1034000
2000
دنیای ما، با این وبلاگ ها و شبکه های اجتماعی
17:31
with blogs and social networks
418
1036000
2000
دنیای ما، با این وبلاگ ها و شبکه های اجتماعی
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
که در حال انتشار همهمه یک نسل جدید، که زندگی خود را در ملاء عام قرار داده هستند، روشن و شفاف است.
17:35
that have made a choice to live their lives in public.
420
1040000
3000
که در حال انتشار همهمه یک نسل جدید، که زندگی خود را در ملاء عام قرار داده هستند، روشن و شفاف است.
17:38
It's a much more noisy world.
421
1043000
4000
این دنیای پر سر وصدا تریست.
17:42
So one challenge we have
422
1047000
2000
همین دلیل یکی از چالش هایی که ما داریم این است که به یاد داشته باشیم،
17:44
is to remember,
423
1049000
2000
همین دلیل یکی از چالش هایی که ما داریم این است که به یاد داشته باشیم،
17:46
oversharing, that's not honesty.
424
1051000
3000
که مطرح کردن و به اشتراک گذاشتن زیادی مسائل، صداقت نیست.
17:49
Our manic tweeting and texting
425
1054000
2000
صدای تویتینگ و پیام کوتاه ما می تواند ما را بر حقیقت پیچیدگی های خاص از نجابت انسانی ، کور کند-- یکپارچگی شخصیت --
17:51
can blind us to the fact
426
1056000
2000
صدای تویتینگ و پیام کوتاه ما می تواند ما را بر حقیقت پیچیدگی های خاص از نجابت انسانی ، کور کند-- یکپارچگی شخصیت --
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
صدای تویتینگ و پیام کوتاه ما می تواند ما را بر حقیقت پیچیدگی های خاص از نجابت انسانی ، کور کند-- یکپارچگی شخصیت --
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
که هنوز هم مهمه ، که همواره مهم خواهد بود.
17:59
So in this much noisier world,
429
1064000
2000
خب، در این دنیای پر سر و صدا،
18:01
it might make sense for us
430
1066000
2000
ممکن است که این برای قابل لمس باشد که در مورد کد اخلاقیمان تنها کمی صریح تر و روشن تر باشیم.
18:03
to be just a little bit more explicit
431
1068000
2000
ممکن است که این برای قابل لمس باشد که در مورد کد اخلاقیمان تنها کمی صریح تر و روشن تر باشیم.
18:05
about our moral code.
432
1070000
3000
ممکن است که این برای قابل لمس باشد که در مورد کد اخلاقیمان تنها کمی صریح تر و روشن تر باشیم.
18:08
When you combine the science of recognizing deception
433
1073000
2000
هنگامی که شما علم شناخت فریبکاری را با هنر دیدن، شنیدن با هم ترکیب میکنید،
18:10
with the art of looking, listening,
434
1075000
2000
هنگامی که شما علم شناخت فریبکاری را با هنر دیدن، شنیدن با هم ترکیب میکنید،
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
شما خود را از همکاری با دروغ معاف میکنید.
18:15
You start up that path
436
1080000
2000
شما شروع به ایجاد راهی برای کمی صریح و روشنتر شدن میکنید،
18:17
of being just a little bit more explicit,
437
1082000
2000
شما شروع به ایجاد راهی برای کمی صریح و روشنتر شدن میکنید،
18:19
because you signal to everyone around you,
438
1084000
2000
زیرا شما به افراد پیرامونتان سیگنال میدهید ، شما می گوئید، "هی، دنیای من، دنیای ما، به سوی صداقت میرود.
18:21
you say, "Hey, my world, our world,
439
1086000
3000
زیرا شما به افراد پیرامونتان سیگنال میدهید ، شما می گوئید، "هی، دنیای من، دنیای ما، به سوی صداقت میرود.
18:24
it's going to be an honest one.
440
1089000
2000
زیرا شما به افراد پیرامونتان سیگنال میدهید ، شما می گوئید، "هی، دنیای من، دنیای ما، به سوی صداقت میرود.
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
دنیای من جایی خواهد بود که حقیقت و درستی تقویت و تشدید خواهد شد
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
و دروغگوئی و نادرستی تشخیص و به حاشیه رانده خواهد شد "
18:31
And when you do that,
443
1096000
2000
و وقتی که این کار را انجام بدهی،
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
و محیط پیرامون تو کمی تغییر خواهند کرد.
18:36
And that's the truth. Thank you.
445
1101000
3000
و این حقیقت است. سپاسگزارم.
18:39
(Applause)
446
1104000
5000
( تشویق تماشاگران)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com