TEDGlobal 2011
Pamela Meyer: How to spot a liar
باميلا ميير: كيف نكتشف الكذاب
Filmed:
Readability: 3.8
28,415,176 views
نكذب من 10 إلى 200 مرة في أي يوم محدد، والقرائن لكشف أولئك الكاذبين يمكن أن تكون بمهارة وطريقة بديهية . باميلا ميير، مؤلفة كتاب إكتشاف الكذب، تبين الأخلاقيات و "النقاط الرئيسة" التي يستخدمها المتمرسين للتعرف على الخداع -- وهي تقول بصدق أنها قيم جديرة بالمحافظة عليها.
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
حسنا، الآن لآ أود تنيبه أي شخص في هذه الغرفة،
00:20
but it's just come to my attention
1
5000
2000
لكنه أسترعى إنتباهي
00:22
that the person to your right is a liar.
2
7000
2000
ذلك الشخص الذي على يمينك كذاب.
00:24
(Laughter)
3
9000
2000
(ضحك)
00:26
Also, the person to your left is a liar.
4
11000
3000
أيضا، الشخص الذي على يسارك كذاب.
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
وأيضا الشخص الذي يجلس في مقاعدك الخاصة كذاب.
00:32
We're all liars.
6
17000
2000
جميعنا كذابون.
00:34
What I'm going to do today
7
19000
2000
ما سأقوم بعمله اليوم
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
هو سأعرض عليكم ما تقوله الدراسة لماذا جميعا كذابون،
00:39
how you can become a liespotter
9
24000
2000
كيف يمكنك أن تصبح مكتشفا للكذب
00:41
and why you might want to go the extra mile
10
26000
3000
ولماذا ربما ترغب في الذهاب إلى أبعد من ذلك
00:44
and go from liespotting to truth seeking,
11
29000
3000
وتتحول من مكتشف للكذب إلى باحث عن الحقيقة،
00:47
and ultimately to trust building.
12
32000
2000
وبصورة جوهرية لبناء الثقة.
00:49
Now speaking of trust,
13
34000
3000
الآن الحديث عن الثقة،
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
منذ كتابتي لهذا الكتاب، "إكشاف الكذب"،
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
لا أحد يرغب في مقابلتي شخصيا نهائيا، لا، لا، لا، لا، لا.
00:58
They say, "It's okay, we'll email you."
16
43000
3000
إنهم يقولون، " حسنا، سنرسل لك بريد إلكتروني".
01:01
(Laughter)
17
46000
2000
(ضحك)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
لايمكنني حتى الحصول على موعد لتناول القهوة بمقهى ستاربكس.
01:07
My husband's like, "Honey, deception?
19
52000
2000
أيمكن أن مثل زوجي، "حبيبتي، نوع من الخداع؟
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
ربما كان من الأفضل لك التركيز على الطبخ. ماذا عن الطبخ الفرنسي؟"
01:12
So before I get started, what I'm going to do
21
57000
2000
لذا قبل أن أبدأ، ما سأفعله
01:14
is I'm going to clarify my goal for you,
22
59000
3000
هو أنني سأوضح لكم هدفي،
01:17
which is not to teach a game of Gotcha.
23
62000
2000
الذي ليس هو لتعليم لعبة زورو.
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
مكتشفي الكذب ليسوا مثل لعب هؤلاء الأطفال،
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
أولئك الأطفال في خلف الغرفة الذين يصيحون، "أمسك! أمسك!
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
تتعجب رافعا حاجبيك. وفاغرا فاك واسعا.
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
أشاهد عرض التلفزيون "أكذب علي". أعرف بأنك تكذب".
01:30
No, liespotters are armed
28
75000
2000
لا، مكتشفي الكذب مسلحين
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
بالمعرفة العلمية عن كيف تكتشف الخداع.
01:35
They use it to get to the truth,
30
80000
2000
إنهم يستعملونها للحصول على الحقيقية،
01:37
and they do what mature leaders do everyday;
31
82000
2000
ويقومون بما تفعله القيادات الرشيدة يوميا;
01:39
they have difficult conversations with difficult people,
32
84000
3000
لديها محادثات عسيرة مع أشخاص صعبة المراس،
01:42
sometimes during very difficult times.
33
87000
2000
أحيانا في أوقات عصيبة.
01:44
And they start up that path
34
89000
2000
إنهم بدأوا ذلك الطريق
01:46
by accepting a core proposition,
35
91000
2000
بقبول الافتراض الأساسي،
01:48
and that proposition is the following:
36
93000
2000
وذلك الافتراض كما يلي:
01:50
Lying is a cooperative act.
37
95000
3000
الكذب هو عمل تعاوني.
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
فكر فيه،الكذبة ليست لديها سلطة أيا كانت بمجرد أنها كلام.
01:57
Its power emerges
39
102000
2000
وتتنامى قوتها
01:59
when someone else agrees to believe the lie.
40
104000
2000
عندما يتفق شخص آخر لتصديق الكذبة.
02:01
So I know it may sound like tough love,
41
106000
2000
أعرف أنها ربما تبدو كالحب القاسي،
02:03
but look, if at some point you got lied to,
42
108000
4000
لكن أنظر،إذا في نقطة ما كذبت،
02:07
it's because you agreed to get lied to.
43
112000
2000
إن ذلك بسبب موافقتك على الكذب.
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
الحقيقة رقم واحد عن الكذب: الكذب عمل تعاوني.
02:12
Now not all lies are harmful.
45
117000
2000
ليس جميع الكذب مؤذي.
02:14
Sometimes we're willing participants in deception
46
119000
3000
أحيانا نُعد المشاركين في الخداع
02:17
for the sake of social dignity,
47
122000
3000
من أجل المكانة الاجتماعية،
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
ربما للحفاظ على السر الذي يجب أن يبقى مكتوم، سر.
02:23
We say, "Nice song."
49
128000
2000
نقول، "أغنية جميلة".
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
" حبيبتي، لا تبدين بدينة في ذلك الشيء، لا".
02:28
Or we say, favorite of the digiratti,
51
133000
2000
أو نقول،بمظهر من له دراية بالكمبيوتر،
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
"تعرف، لقد أزلت ذلك البريد الإلكتروني من مجلد الرسائل غير المرغوب فيها.
02:33
So sorry."
53
138000
3000
آسف جدا".
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
لكن هناك أوقات لا نرغب فيها المشاركين بالخداع.
02:39
And that can have dramatic costs for us.
55
144000
3000
وذلك يمكن أن يكلفنا كثيرا.
02:42
Last year saw 997 billion dollars
56
147000
3000
شهد العام المنصرم مبلغ 997 بليون دولار
02:45
in corporate fraud alone in the United States.
57
150000
4000
في نصب واحتيال الشركات في الولايات المتحدة لوحدها.
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
ويقل ذلك المبلغ عن الترليون دولار بقليل.
02:51
That's seven percent of revenues.
59
156000
2000
إنه يمثل نسة سبعة بالمائة من العائدات.
02:53
Deception can cost billions.
60
158000
2000
النصب والاحتيال يمكن ان يكلف بلايين الدولارات.
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
تأمل في أزمات مؤسسة أنرون، شركة مادوف، والرهن العقاري.
02:58
Or in the case of double agents and traitors,
62
163000
3000
أو في حالات العمالة المزدوجة والخيانات،
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
مثل روبرت هانسن أو الدريتش آدمز،
03:03
lies can betray our country,
64
168000
2000
الكذب يمكن أن يتسبب في خيانة بلادنا،
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
يمكنهم تسوية أمننا، يمكنهم تقويض الديمقراطية،
03:08
they can cause the deaths of those that defend us.
66
173000
3000
يمكنهم أن يتسببوا في موت أولئك المدافيعن عنا.
03:11
Deception is actually serious business.
67
176000
3000
النصب والاحتيال هو في الواقع عمل تجاري خطير.
03:14
This con man, Henry Oberlander,
68
179000
2000
هذا الرجل المحتال، هينري أوبرلاندر،
03:16
he was such an effective con man
69
181000
2000
لقد كان رجلا بارعا في الاحتيال
03:18
British authorities say
70
183000
2000
كما ذكرت السلطات البريطانية
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
بأن لديه القدرة على تقويض النظام المصرفي للعالم الغربي بأكمله.
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
ولا يمكنك العثور على هذا الشخص في محرك بحث الغوغل، ولا يمكنك العثور عليه في أي مكان.
03:25
He was interviewed once, and he said the following.
73
190000
3000
لقد تم اجراء مقابلة معه مرة واحدة، وقال ما يلي.
03:28
He said, "Look, I've got one rule."
74
193000
2000
قال، "لدي قاعدة واحدة".
03:30
And this was Henry's rule, he said,
75
195000
3000
وهذه هي قاعدة هنري، قال ذلك،
03:33
"Look, everyone is willing to give you something.
76
198000
2000
"كل شخص يرغب في منحك شيئ.
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
إنهم على استعداد لمنحك الشئ لأجل أي شئ متعطشون له".
03:38
And that's the crux of it.
78
203000
2000
وذلك هو جوهر موضوعه.
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
وإذا أردت ألا تُخدع، عليك معرفة،
03:42
what is it that you're hungry for?
80
207000
2000
ما الذي أنت مُتعطش إليه؟
03:44
And we all kind of hate to admit it.
81
209000
3000
وجميعنا نكره الاقرار به.
03:47
We wish we were better husbands, better wives,
82
212000
3000
ونود لو كنا أزواج صالحين، وزوجات صالحات،
03:50
smarter, more powerful,
83
215000
2000
أذكياء، أكثر قوة،
03:52
taller, richer --
84
217000
2000
أطول قامة ، أكثر مالا --
03:54
the list goes on.
85
219000
2000
وتطول القائمة.
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
الكذب هو محاولة لتجسير تلك الهوة،
03:58
to connect our wishes and our fantasies
87
223000
2000
للربط بين أمانينا وتخيلاتنا
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
وما كنا نرغب فيه، وكيف نود أن نكون،
04:03
with what we're really like.
89
228000
3000
مع ما نحن فيه على أرض الواقع.
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
وهل نرغب في سد هذه الفراغات في حياتنا باكاذيب.
04:09
On a given day, studies show that you may be lied to
91
234000
3000
ففي يوم ما، تظهر الدراسات بأنك ربما كذبت
04:12
anywhere from 10 to 200 times.
92
237000
2000
في أي مكان من 10 إلى 200 مرة.
04:14
Now granted, many of those are white lies.
93
239000
3000
الآن أمنت الدراسة، بأن العديد منها هي أكاذيب بيضاء.
04:17
But in another study,
94
242000
2000
لكن في دراسة أخرى،
04:19
it showed that strangers lied three times
95
244000
2000
أظهرت بأن الغرباء يكذبون ثلاث أضعاف
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
خلال ال 10 دقائق الأولى من لقاء بعضهم البعض.
04:23
(Laughter)
97
248000
2000
(ضحك)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
عندما نسمع بهذه المعلومات للمرة الأولى، يصيبنا الاشمئزاز.
04:28
We can't believe how prevalent lying is.
99
253000
2000
لا نصدق كيف أن الكذب هو السائد.
04:30
We're essentially against lying.
100
255000
2000
كما أننا أساسا ضد الكذب.
04:32
But if you look more closely,
101
257000
2000
لكن إذا نظرت بصورة أكثر تمعناً،
04:34
the plot actually thickens.
102
259000
2000
تلاحظ أن المؤامرة تتضخم.
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
نكذب على الغرباء أكثر مما نكذب على زملاء العمل.
04:39
Extroverts lie more than introverts.
104
264000
4000
المنفتحون يكذبون أكثر من المنغلقين.
04:43
Men lie eight times more about themselves
105
268000
3000
كما أن الرجال يكذبون عن أنفسهم أكثر بثمانية مرات
04:46
than they do other people.
106
271000
2000
عما يفعلون للأشخاص الآخرين.
04:48
Women lie more to protect other people.
107
273000
3000
النساء أكثر كذبهن لحماية الأشخاص الآخرين.
04:51
If you're an average married couple,
108
276000
3000
إذا كنتما زوجين عاديين،
04:54
you're going to lie to your spouse
109
279000
2000
ستكذب على زوجتك
04:56
in one out of every 10 interactions.
110
281000
2000
في كل واحد من بين كل 10 أحداث.
04:58
Now you may think that's bad.
111
283000
2000
ربما تعتقد بأن ذلك سيئا.
05:00
If you're unmarried, that number drops to three.
112
285000
2000
وإذا لم تكن متزوجا، يتراجع الرقم إلى ثلاثة.
05:02
Lying's complex.
113
287000
2000
تعقيدات الكذب.
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
إنها منسوجة في نسيج حياتنا اليومية، وحياتنا العملية.
05:07
We're deeply ambivalent about the truth.
115
292000
2000
نتناقض بشدة حول الحقيقة.
05:09
We parse it out on an as-needed basis,
116
294000
2000
نحللها على أساس الحاجة،
05:11
sometimes for very good reasons,
117
296000
2000
أحيانا لأسباب جيدة جدا،
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
وأحيانا أخرى لآننا لا نفهم الفراغ في حياتنا.
05:16
That's truth number two about lying.
119
301000
2000
تلك هي الحقيقة رقم اثنين عن الكذب.
05:18
We're against lying,
120
303000
2000
نحن ضد الكذب،
05:20
but we're covertly for it
121
305000
2000
لكننا نفعل ذلك سراً
05:22
in ways that our society has sanctioned
122
307000
2000
بالطرق التي تقبلها مجتمعنا
05:24
for centuries and centuries and centuries.
123
309000
2000
لقرون وقرون وقرون.
05:26
It's as old as breathing.
124
311000
2000
إنه قديم مثل التنفس.
05:28
It's part of our culture, it's part of our history.
125
313000
2000
أنه جوء من الثقافة، وجزء من التاريخ.
05:30
Think Dante, Shakespeare,
126
315000
3000
تأمل في دانتي، شكسبير،
05:33
the Bible, News of the World.
127
318000
3000
الإنجيل، أخبار العالم.
05:36
(Laughter)
128
321000
2000
(ضحك)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
الكذب له قيمة تطورية بالنسبة لنا مثل النوع.
05:40
Researchers have long known
130
325000
2000
الباحثون ادركوا منذ زمن بعيد
05:42
that the more intelligent the species,
131
327000
2000
بأن النوع الأكثر ذكاء،
05:44
the larger the neocortex,
132
329000
2000
ذات قشرة مخية حديثة أكبر،
05:46
the more likely it is to be deceptive.
133
331000
2000
والاحتمال الأكثر بأن تكون مخادعة.
05:48
Now you might remember Koko.
134
333000
2000
ربما تتذكر كوكو.
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
هل هناك أي شخص يتذكر الغوريلا كوكو التي تعلمت لغة الاشارة؟
05:53
Koko was taught to communicate via sign language.
136
338000
3000
لقد تم تعليم كوكو للتواصل بلغة الاشارة.
05:56
Here's Koko with her kitten.
137
341000
2000
كوكو هنا مع صغيرتها.
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
إنها صغيرتها الجميلة، الزغبة الصغيرة الرقيقة.
06:01
Koko once blamed her pet kitten
139
346000
2000
لقد لامت كوكو مرة صغيرتها
06:03
for ripping a sink out of the wall.
140
348000
2000
لقيامها بخلع حوض غسيل من الجدار.
06:05
(Laughter)
141
350000
2000
(ضحك)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
نحن نصلح أن تكون قيادات للمجموعة.
06:09
It's starts really, really early.
143
354000
2000
بالفعل إنها بدأت، حقا مبكرا.
06:11
How early?
144
356000
2000
كيف مبكرا؟
06:13
Well babies will fake a cry,
145
358000
2000
حسنا سيقوم الاطفال ببكاء مصطنع،
06:15
pause, wait to see who's coming
146
360000
2000
يتوقفون، في انتظار رؤية من الذي سيأتي
06:17
and then go right back to crying.
147
362000
2000
ومن ثم يعودون للبكاء.
06:19
One-year-olds learn concealment.
148
364000
2000
في عمر سنة واحدة يتعلم الطفل عملية التستر والاخفاء.
06:21
(Laughter)
149
366000
2000
(ضحك)
06:23
Two-year-olds bluff.
150
368000
2000
وفي عمر عامين يمارس الخداع.
06:25
Five-year-olds lie outright.
151
370000
2000
وعند سن الخامسة يكذب مباشرة.
06:27
They manipulate via flattery.
152
372000
2000
إنهم يتلاعبون من خلال التملق.
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
وفي سن التاسعة يكون قد برع في ممارسة الكذب.
06:32
By the time you enter college,
154
377000
2000
بحلول وقت دخولك الكلية،
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
ستكذب على والدتك في واحدة من كل خمس تفاعلات.
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
بحلول الوقت لتدخل هذا العمل للعالم ونحن معولون،
06:40
we enter a world that is just cluttered
157
385000
2000
ندخل عالما مشوشا
06:42
with spam, fake digital friends,
158
387000
2000
مع أصدقاء غير مرغوببن ، وأرقام وهمية ،
06:44
partisan media,
159
389000
2000
وسائل الاعلام الحزبية ،
06:46
ingenious identity thieves,
160
391000
2000
هوية بارعة للصوص ،
06:48
world-class Ponzi schemers,
161
393000
2000
بونزي من المخططين على الطراز العالمي ،
06:50
a deception epidemic --
162
395000
2000
وباء الخداع --
06:52
in short, what one author calls
163
397000
2000
وباختصار ، فإن ما يدعو مؤلف واحد
06:54
a post-truth society.
164
399000
3000
مجتمع ما بعد الحقيقة.
06:57
It's been very confusing
165
402000
2000
لقد كان مربكا للغاية
06:59
for a long time now.
166
404000
3000
لفترة طويلة الآن.
07:03
What do you do?
167
408000
2000
ماذا تفعل؟
07:05
Well there are steps we can take
168
410000
2000
كذلك هناك خطوات يمكن أن نتخذها
07:07
to navigate our way through the morass.
169
412000
2000
للتنقل في طريقنا من خلال المستنقع.
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
المتدرب على اكتشاف الكذب يمكنه الوصول الى الحقيقة بنسبة 90 في المئة من الوقت.
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
البقية الباقية منا، نمثل نسبة 54 في المئة من الدقة.
07:15
Why is it so easy to learn?
172
420000
2000
لماذا هو سهل جدا للتعلم؟
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
يوجد كذابون جيدون وآخرون سيئون. ليس هناك كذابون أصليون حقيقيون.
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
جميعنا لدينا نفس الاخطاء. جميعنا نستخدم ذات التقنيات.
07:23
So what I'm going to do
175
428000
2000
لذا ما سأفعله
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
هو أنني سأعرض عليكم نموذجين من الخداع.
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
ومن ثم نحن في طريقنا للبحث في النقاط الساخنة ونرى اذا كنا نستطيع العثور عليها بأنفسنا.
07:30
We're going to start with speech.
178
435000
3000
ونحن في طريقنا لتبدأ الكلام.
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
(فيديو) بيل كلينتون : أريدك أن تسمعني.
07:35
I'm going to say this again.
180
440000
2000
سأقول هذا مرة أخرى.
07:37
I did not have sexual relations
181
442000
3000
لم يكن لدي علاقات جنسية
07:40
with that woman, Miss Lewinsky.
182
445000
4000
مع تلك المرأة ، الآنسة لوينسكي.
07:44
I never told anybody to lie,
183
449000
2000
لم أخبر أحدا بأن يكذب،
07:46
not a single time, never.
184
451000
2000
ليس مرة واحدة ، ابدا.
07:48
And these allegations are false.
185
453000
3000
وهذه الادعاءات ليست صحيحة.
07:51
And I need to go back to work for the American people.
186
456000
2000
وأنا في حاجة للعودة للعمل من أجل الشعب الأامريكي.
07:53
Thank you.
187
458000
2000
شكرا.
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
باميلا ماير : حسنا ، ما هي المؤشرات التي تدل على ذلك ؟
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
حسنا أولا سمعنا ما يعرف بالانكار غير المذكور في الخطاب.
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
تبين الدراسات بأن الناس الذين يبالغون في إنكارهم
08:08
will resort to formal rather than informal language.
191
473000
3000
سيلجأون إلى اللغة الرسمية بدلا عن اللغة غير الرسمية.
08:11
We also heard distancing language: "that woman."
192
476000
3000
لقد سمعنا لغة النأي بالنفس : "تلك المرأة".
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
نعرف بأن الكذابين سينأون بنفسهم دون وعي
08:16
from their subject
194
481000
2000
من أمورهم
08:18
using language as their tool.
195
483000
3000
باستخدام اللغة كأداة لهم.
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
الآن إذا قال بيل كلينتون: "حسنا، أقول لكم الحقيقة..."
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
أو مقولة ريتشارد نيكسون المفضلة، "بكل صراحة..."
08:26
he would have been a dead giveaway
198
491000
2000
ربما لم يكن ليفسح المجال
08:28
for any liespotter than knows
199
493000
2000
لآي من مكتشفي الكذب بدلا عن إدراك
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
أن لغة التصفية، كما يطلق عليها، واللغة التي من هذا القبيل،
08:33
further discredits the subject.
201
498000
2000
ستؤدي إلى المزيد من السوء في هذا الأمر.
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
الآن إذا قام بتكرار هذه المسألة في مجملها ،
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
أو إذا كان شذّب موقفه بتفاصيل أكثر من اللازم --
08:42
and we're all really glad he didn't do that --
204
507000
2000
ونحن في الواقع سعداء أنه لم يفعل ذلك --
08:44
he would have further discredited himself.
205
509000
2000
ربما أدى إلى المزيد من الإساءة لنفسه.
08:46
Freud had it right.
206
511000
2000
لقد كان فرويد صائبا.
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
قال فرويد، النظرة أبلغ من الكلام :
08:51
"No mortal can keep a secret.
208
516000
3000
"لا يمكن للبشر حفظ السر.
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
اذا صمتت الشفاه، سيثرثر بأصابع يديه".
08:57
And we all do it no matter how powerful you are.
210
522000
3000
وجميعنا نقوم بذلك مهما كانت سلطتك.
09:00
We all chatter with our fingertips.
211
525000
2000
جميعنا نثرثر بأصابع اليد.
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
سأعرض عليكم دومينيك ستراوس خان عندما كان مع أوباما
09:05
who's chattering with his fingertips.
213
530000
3000
الذي يثرثر بأصابعه.
09:08
(Laughter)
214
533000
3000
(ضحك)
09:11
Now this brings us to our next pattern,
215
536000
3000
الآن هذا يقودنا إلى النمط المقبل،
09:14
which is body language.
216
539000
3000
ألا وهي لغة الجسد.
09:17
With body language, here's what you've got to do.
217
542000
3000
بلغة الجسد، هنا ما عليك القيام به.
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
إنك في الواقع تكون قد حصلت على دحض لافتراضاتك.
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
دع العلم يوجه معرفتك قليلا.
09:25
Because we think liars fidget all the time.
220
550000
3000
لأننا نعتقد أن الكذابين يتململون طوال الوقت.
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
حسنا ماذا يُعتقد، إنهم يعرفون بتجميد الجزء العلوي من أجسادهم عندما يكذبون.
09:31
We think liars won't look you in the eyes.
222
556000
3000
نعتقد بأن الكذابين لاينظرون إلى عيونكم.
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
حسنا ماذا يُعتقد، إنهم ينظرون قليلا جد ا إلى عيونكم
09:36
just to compensate for that myth.
224
561000
2000
فقط للتعويض عن تلك الأسطورة.
09:38
We think warmth and smiles
225
563000
2000
نعتقد أن حرارة الاستقبال والابتسامات
09:40
convey honesty, sincerity.
226
565000
2000
تعبر عن الصدق، والاخلاص.
09:42
But a trained liespotter
227
567000
2000
لكن مكتشف الكذب المتدرب
09:44
can spot a fake smile a mile away.
228
569000
2000
يمكنه اكتشاف الابتسامة الزائفة من على البعد.
09:46
Can you all spot the fake smile here?
229
571000
3000
هل يمكنم جميعا اكتشاف الابتسامة الزائفة هنا؟
09:50
You can consciously contract
230
575000
2000
يمكنك أن تنكمش باستمرار
09:52
the muscles in your cheeks.
231
577000
3000
عضلات خدك.
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
لكن الابتسامة الحقيقية هي في العيون، التجاعيد حول العيون.
09:58
They cannot be consciously contracted,
233
583000
2000
إنها لا يمكن أن تنكمش باستمرار،
10:00
especially if you overdid the Botox.
234
585000
2000
خاصة إذا أفرطت في استخدام علاج "البوتوكس".
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
لا تفرط في البوتوكس; لا أحد يعتقد بأنك صادق.
10:05
Now we're going to look at the hot spots.
236
590000
2000
الآن سننظر إلى النقاط الساخنة.
10:07
Can you tell what's happening in a conversation?
237
592000
2000
هل يمكنك أن تتحدث عما سيحدث في المحادثة؟
10:09
Can you start to find the hot spots
238
594000
3000
هل يمكنك البدء بالحصول على النقاط الساخنة
10:12
to see the discrepancies
239
597000
2000
لترى التناقضات
10:14
between someone's words and someone's actions?
240
599000
2000
بين كلمات الشخص وأفعاله؟
10:16
Now I know it seems really obvious,
241
601000
2000
الآن أدرك بأنها تبدو واضحة،
10:18
but when you're having a conversation
242
603000
2000
لكن عندما تدخل في حديث
10:20
with someone you suspect of deception,
243
605000
3000
مع شخص تشتبه بأنه مخادع،
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
فإن الموقف إلى حد بعيد هو التغاضي لكن القول عن المؤشرات.
10:26
An honest person is going to be cooperative.
245
611000
2000
الشخص الصادق سيكون متعاونا.
10:28
They're going to show they're on your side.
246
613000
2000
إنهم سيظهرون أنهم إلى جانبك.
10:30
They're going to be enthusiastic.
247
615000
2000
إنهم سيكونون متحمسين.
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
إنهم سيرغبون ويأملون في حصولك على الحقيقة.
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
إنهم سيرغبون في طرح الافكار، الأسماء المشتبه بها،
10:37
provide details.
250
622000
2000
وتقديم التفاصيل.
10:39
They're going to say, "Hey,
251
624000
2000
إنهم سيقولون، "مهلا،
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
ربما هؤلاء الرجال الذين في كشف الرواتب هم من قام بتزوير هذه الشيكات".
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
إنهم سيغضبون إذا شعروا بأنهم اتهموا خطأ
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
خلال الدورة الكاملة للمقابلة، وليس لفترات قصيرة;
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
سيغضبون خلال الدورة الكاملة للمقابلة.
10:52
And if you ask someone honest
256
637000
2000
إذا سألت شخصا صادقا
10:54
what should happen to whomever did forge those checks,
257
639000
3000
ما الذي يجب فعله تجاه من قام بتزوير هذه الشيكات،
10:57
an honest person is much more likely
258
642000
2000
الشخص الصادق على الأرجح
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
سيوصي بتوقيع عقوبة صارمة أكثر من التسامح.
11:03
Now let's say you're having that exact same conversation
260
648000
2000
والآن دعنا نقول بأنك أجريت نفس ذلك الحديث
11:05
with someone deceptive.
261
650000
2000
مع شخص مخادع.
11:07
That person may be withdrawn,
262
652000
2000
ذلك الشخص ربما ينسحب،
11:09
look down, lower their voice,
263
654000
2000
ينظر إلى الأسفل، يخفض من صوته،
11:11
pause, be kind of herky-jerky.
264
656000
2000
يتوقف، سيكون نوعا من عدم الانتظام.
11:13
Ask a deceptive person to tell their story,
265
658000
2000
أسأل شخصا مخادعا ليخبرك قصتهم،
11:15
they're going to pepper it with way too much detail
266
660000
3000
إنهم سيعدونها بطريقة أكثر تفصيلا
11:18
in all kinds of irrelevant places.
267
663000
3000
تحوي جميع أنواع الامور التي لا صلة لها بالموضوع.
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
ومن ثم سيروون قصتهم بتسلسل زمني دقيق.
11:24
And what a trained interrogator does
269
669000
2000
وما يقوم به المحقق المتدرب
11:26
is they come in and in very subtle ways
270
671000
2000
هو أنهم يأتون وبطريقة خفية جدا
11:28
over the course of several hours,
271
673000
2000
على مدى عدة ساعات،
11:30
they will ask that person to tell that story backwards,
272
675000
3000
إنهم سيسألون ذلك الشخص ليروي تلك القصة بتردد،
11:33
and then they'll watch them squirm,
273
678000
2000
ثم سيراقبون ارتباكهم،
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
ويبحثون عن السؤال الذي سينتج عنه أعلى حجم من الحديث المخادع.
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
لماذا يفعلون ذلك؟ جميعنا نفعل نفس الشئ.
11:41
We rehearse our words,
276
686000
2000
نكرر كلماتنا،
11:43
but we rarely rehearse our gestures.
277
688000
2000
لكننا نادرا ما نكرر اشاراتنا أو إيماءاتنا.
11:45
We say "yes," we shake our heads "no."
278
690000
2000
نقول "نعم"، نهز رؤوسنا "لا".
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
نقول قصصا مقنعة جدا، ونهز أكتافنا قليلا.
11:50
We commit terrible crimes,
280
695000
2000
نرتكب جرائم فظيعة،
11:52
and we smile at the delight in getting away with it.
281
697000
3000
ونبتسم بفرحة في القيام بها.
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
تلك الابتسامة تعرف في التجارة ب "فرحة الخدعة".
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
وسنرى ذلك في العديد من الفيدوهات القادمة،
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
لكننا سنبدأ-- لأولئك بعضا منكم لا يعرفونه،
12:03
this is presidential candidate John Edwards
285
708000
3000
إنه مرشح الرئاسة جون إدواردز
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
الذي هز أمريكا بإنجاب طفل خارج إطار الزوجية.
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
سنراه يتحدث عن إختبار الأبوه.
12:12
See now if you can spot him
288
717000
2000
شاهد الآن إذا كنت تستطيع إكتشافه
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
يقول، "نعم" بينما يهز رأسه "لا".
12:16
slightly shrugging his shoulders.
290
721000
2000
يهز كتفيه قليلا.
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
(فيديو) جون إدواردز: سأكون سعيدا بالمشاركة في واحد منها.
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
أدرك بأنه من المستحيل أن هذا الطفل ربما يكون ابني،
12:23
because of the timing of events.
293
728000
2000
نتيجة لتوقيت الأحداث.
12:25
So I know it's not possible.
294
730000
2000
لذا أدرك بأنه ليس من الممكن.
12:27
Happy to take a paternity test,
295
732000
2000
سعيد بأن أجري إختبار الأبوة،
12:29
and would love to see it happen.
296
734000
2000
وأحبُ أن أرى ذلك يحدث.
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
المذيع: هل ستفعل ذلك قريبا؟ هل هناك شخصا --
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
جون إدواردز: حسنا، أنا طرف واحد. أنا طرف واحد من هذا الإختبار.
12:37
But I'm happy to participate in one.
299
742000
3000
لكنني سيعد بالمشاركة في واحد منها.
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
باميلا ميير: حسنا، هزات الرأس هذه أكثر سهولة لاكتشافها
12:42
once you know to look for them.
301
747000
2000
بمجرد معرفتك للنظر إليها.
12:44
There're going to be times
302
749000
2000
ستكون هناك أوقات
12:46
when someone makes one expression
303
751000
2000
عندما يفعل الشخص تعبيرا
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
بينما يخفي الآخر الذي يمثل نوعا من التسريبات عبر الفلاش.
12:52
Murderers are known to leak sadness.
305
757000
2000
يعرف القتلة بأنهم يتسببون في الأحزان.
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
شريكك الجديد ربما يصافحك،
12:56
celebrate, go out to dinner with you
307
761000
2000
يحتفل، يذهب معك إلى الخارج لتناول وجبة العشاء
12:58
and then leak an expression of anger.
308
763000
3000
ومن ثم يظهر منه تعبير عن الغضب.
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
وليس جميعنا سنصبح خبراء في تعابير الوجه بين عشية وضحاها،
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
لكن هناك سيء واحد سأعلمكم له أنه خطير جداً، وهو سهل التعلم،
13:07
and that's the expression of contempt.
311
772000
3000
ألا وهو تعبير الاحتقار أو الازدراء.
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
الآن وبغضب، لقد حصلت على شخصين في ميدان متساو.
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
إنها لا تزال نوعا ما من العلاقة الصحية.
13:15
But when anger turns to contempt,
314
780000
2000
لكن عندما يتحول الغضب إلى إزدراء،
13:17
you've been dismissed.
315
782000
2000
لقد تم فصلك.
13:19
It's associated with moral superiority.
316
784000
2000
إنه مرتبط بالترفع الأخلاقي.
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
ولذلك السبب، إنه صعب جدا التعافي منه.
13:24
Here's what it looks like.
318
789000
2000
هنا كيف يبدو.
13:26
It's marked by one lip corner
319
791000
2000
إنه يتسم بجانبية الشفه الواحدة
13:28
pulled up and in.
320
793000
2000
تسحب إلى أعلى وإلى الداخل.
13:30
It's the only asymmetrical expression.
321
795000
3000
أنه التعبير الوحيد غير المتماثل.
13:33
And in the presence of contempt,
322
798000
2000
وفي وجود الأزدراء ،
13:35
whether or not deception follows --
323
800000
2000
سواء تبعه خداع أم لا --
13:37
and it doesn't always follow --
324
802000
2000
وفي الغالب لا يتبعه --
13:39
look the other way, go the other direction,
325
804000
2000
أبحث طريقة اخرى، اذهب إل الإتجاه الآخر،
13:41
reconsider the deal,
326
806000
2000
قم بإعادة النظر في الإتفاق،
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
قل، "لا شكرا. لم آتي من أجل المزيد من تجرع الكأس الأخيرة. شكرا".
13:47
Science has surfaced
328
812000
2000
لقد ظهرت العديد من العلوم،
13:49
many, many more indicators.
329
814000
2000
ولعديد من الإتجهات.
13:51
We know, for example,
330
816000
2000
نعرف، مثلاً،
13:53
we know liars will shift their blink rate,
331
818000
2000
نعرف بأن الكذابين سيغيرون طريقة غمز اعينهم،
13:55
point their feet towards an exit.
332
820000
2000
والتوجه لإيجاد مخرج.
13:57
They will take barrier objects
333
822000
2000
إنهم سيتخذون حواجز مادية
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
ويضعونها بين أنفسهم والشخص الذي يجري معهم المقابلة.
14:02
They'll alter their vocal tone,
335
827000
2000
سيغيرون من لهجتهم الصوتية،
14:04
often making their vocal tone much lower.
336
829000
3000
دائما ما يجعلون اصواتهم منخفضة.
14:07
Now here's the deal.
337
832000
2000
الآن هنا جوهر الأمر .
14:09
These behaviors are just behaviors.
338
834000
3000
هذه السلوكيات مجرد سلوكيات.
14:12
They're not proof of deception.
339
837000
2000
إنها ليست دليلا على الخداع.
14:14
They're red flags.
340
839000
2000
إنها أعلام حمراء.
14:16
We're human beings.
341
841000
2000
إننا بشر.
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
نقوم بعمل إيماءات خادعة في كل مكان طوال اليوم.
14:21
They don't mean anything in and of themselves.
343
846000
2000
إنها لاتعني أي شيئا داخل أو خارج أنفسهم.
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
لكن عندما ترى إيماءاتهم، تلك هي إشارتك.
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
أنظر، استمع، أسأل بعض الأسئلة،
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
تخلص من ذلك الأسلوب المريح جدا للمعرفة،
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
أدخل في الأسلوب الفضولي، أسأل المزيد من الأسئلة،
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
امتلك قليلا من الكرامة، عامل الشخص الذي تتحدث معه بود.
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
لا تحاول أن تكون مثل أولئك الناس في برنامج "النظام والقانون" وأولئك في برامج التلفزيون الاخرى
14:41
that pummel their subjects into submission.
350
866000
2000
الذين يضربون رعاياهم لإخضاعهم.
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
ولا تكن عنيفا جدا، فأنه لا يجدي نفعا.
14:46
Now we've talked a little bit
352
871000
2000
لقد تحدثنا قليلا
14:48
about how to talk to someone who's lying
353
873000
2000
عن كيف تتحدث إلى شخص يكذب
14:50
and how to spot a lie.
354
875000
2000
وكيف تكتشف الكذبة.
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
وكما وعدتكم، والآن سنذهب للنظر في كيف تبدو الحقيقة.
14:55
But I'm going to show you two videos,
356
880000
2000
لكن سأعرض عليكم فيديوهان (2 فيديو)،
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
شهرين -- احداهما كذاب، والآخر هو الحقيقة.
15:00
And these were surfaced
358
885000
2000
وهذه دراسات قُدمت
15:02
by researcher David Matsumoto in California.
359
887000
2000
بواسطة الباحث ديفيد ماتسوموتو في كالفورنيا.
15:04
And I think they're an excellent example
360
889000
2000
وأعتقد إنهما مثالا ممتازا
15:06
of what the truth looks like.
361
891000
2000
عن كيف تبدو الحقيقة.
15:08
This mother, Diane Downs,
362
893000
2000
هذه الأم، ديان داونز،
15:10
shot her kids at close range,
363
895000
2000
قتلت أطفالها من مسافة قريبة،
15:12
drove them to the hospital
364
897000
2000
اقتادتهم إلى المستشفى
15:14
while they bled all over the car,
365
899000
2000
بينما هم ينزفون في جميع أنحاء السيارة،
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
وادعت بأن شخصا غريبا أشعث الشعر فعل ذلك.
15:18
And you'll see when you see the video,
367
903000
2000
وسترون عندما تشاهدون الفيديو،
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
وهي لا تستطيع حتى التظاهر بأنها أم متألمة.
15:22
What you want to look for here
369
907000
2000
ما ترغب في بحثه هنا
15:24
is an incredible discrepancy
370
909000
2000
هو تناقض لا يصدق
15:26
between horrific events that she describes
371
911000
2000
بين الأحداث المروعة التي تصفها
15:28
and her very, very cool demeanor.
372
913000
2000
وتصرفاتها الباردة جدا.
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
وإذا نظرت عن كثب، سترى فرحة الخدعة خلال هذا الفيديو.
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
(فيديو) ديان داونز: في الليل عندما أغمض عيني،
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
يمكنني أن أرى أن يد كريستي تصلني بينما أنا أقود السيارة،
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
والدم يسيل من فمها.
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
ذلك المنظر -- ربما يتلاشى مع مرور الوقت --
15:43
but I don't think so.
378
928000
2000
لكنني لا أعتقد ذلك.
15:45
That bothers me the most.
379
930000
3000
إن ذلك أكثر ما يزعجني.
15:55
PM: Now I'm going to show you a video
380
940000
2000
باميلا ميير: الآن سأعرض عليكم فيديو
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
الأم الثكلى الفعلية، إرين رنين،
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
تواجه قاتل ومعذب ابنتها في المحكمة.
16:03
Here you're going to see no false emotion,
383
948000
2000
هنا سترى عدم وجود عاطفة كاذبة،
16:05
just the authentic expression of a mother's agony.
384
950000
3000
التعبير الحقيقي لمعاناة الأم.
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
(فيديو) إرين رنين: لقد كتبت هذا البيان في الذكرى السنوية الثالثة
16:10
of the night you took my baby,
386
955000
2000
لليلة أنت أخذت طفلي،
16:12
and you hurt her,
387
957000
2000
وقمت بايذائها،
16:14
and you crushed her,
388
959000
2000
وسحقتها،
16:16
you terrified her until her heart stopped.
389
961000
4000
وارعبتها حتى توقف قبلها.
16:20
And she fought, and I know she fought you.
390
965000
3000
وهي قاومت، أدرك بأنها قاومتك.
16:23
But I know she looked at you
391
968000
2000
لكنني أعرف أنها نظرت إليك
16:25
with those amazing brown eyes,
392
970000
2000
بهذه العيون العسلية الساحرة،
16:27
and you still wanted to kill her.
393
972000
3000
وأنت لا تزال ترغب في قتلها.
16:30
And I don't understand it,
394
975000
2000
ذلك هو ما لم أفهمه،
16:32
and I never will.
395
977000
3000
ولن أفهمه أبدا.
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
باميلا ميير: حسنا، ليس هناك شك في صحة تلك العواطف.
16:39
Now the technology around what the truth looks like
397
984000
3000
التقنية والعلوم حول كيف تبدو الحقيقة
16:42
is progressing on, the science of it.
398
987000
3000
في تقدم.
16:45
We know for example
399
990000
2000
نعرف على سبيل المثال
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
لدينا الآن عيون مختصصة في التعقب والأشعة تحت الحمراء لفحص الدماغ،
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
التصوير بالرنين المغنطيسي الذي يستطيع فك الاشارات التي ترسلها اجسادنا للخارج
16:53
when we're trying to be deceptive.
402
998000
2000
عندما نحاول أن نكون مخادعين.
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
وهذه التقنيات سيتم تسويقها لنا جميعا
16:58
as panaceas for deceit,
404
1003000
2000
كحل سحري للخداع،
17:00
and they will prove incredibly useful some day.
405
1005000
3000
وسيثبتون صدق استخدامها يوم ما.
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
لكن يجب عليك أن تسأل نفسك في ذات الوقت:
17:05
Who do you want on your side of the meeting,
407
1010000
2000
من الذي ترغب بجلوسه إلى جانبك في الاجتماع،
17:07
someone who's trained in getting to the truth
408
1012000
3000
شخص متدرب على الحصول على الحقيقة
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
أو شخص سيسحب مايعادل 400 رطلا من تخطيط الكهربائي للدماغ
17:12
through the door?
410
1017000
2000
عبر الباب؟
17:14
Liespotters rely on human tools.
411
1019000
4000
يعتمد مكتشفوا الكذب على الأدوات البشرية.
17:18
They know, as someone once said,
412
1023000
2000
إنهم يعرفون، كما قال أحد الأشخاص،
17:20
"Character's who you are in the dark."
413
1025000
2000
"أسلوب من أنت في العتمة".
17:22
And what's kind of interesting
414
1027000
2000
وأما النوع المثير للاهتمام
17:24
is that today we have so little darkness.
415
1029000
2000
هو أن لدينا في الوقت الحاضر القليل من العتمة.
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
عالمنا هو مضيء 24 ساعة في اليوم.
17:29
It's transparent
417
1034000
2000
إنها الشفافية
17:31
with blogs and social networks
418
1036000
2000
مع المدونات والشبكات الاجتماعية
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
تبث شائعات جيل جديد كامل من الناس
17:35
that have made a choice to live their lives in public.
420
1040000
3000
الذين لديهم الخيار لعيش حياتهم على الملأ.
17:38
It's a much more noisy world.
421
1043000
4000
إنه عالم به الكثير من الضوضاء .
17:42
So one challenge we have
422
1047000
2000
لذا لدينا أحد التحديات
17:44
is to remember,
423
1049000
2000
وهو أن نتذكر،
17:46
oversharing, that's not honesty.
424
1051000
3000
تدفق المعلومات، إن ذلك ليس بصدق.
17:49
Our manic tweeting and texting
425
1054000
2000
هوسنا بالكتابة على التوتير والرسائل القصيرة
17:51
can blind us to the fact
426
1056000
2000
يمكن أن يعمي بصيرتنا عن الحقيقية
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
التي تخدع شخصية البشر -- الشخصية النزيهة --
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
وهذا لا يزال ما يهُم، وسيظل دائما الشئ المهم .
17:59
So in this much noisier world,
429
1064000
2000
ففي هذا العالم الأكثر ضوضاء،
18:01
it might make sense for us
430
1066000
2000
ربما يكون له معنى بالنسبة لنا
18:03
to be just a little bit more explicit
431
1068000
2000
ليكون أكثر وضوحا قليلا
18:05
about our moral code.
432
1070000
3000
عن ميثاقنا الاخلاقي.
18:08
When you combine the science of recognizing deception
433
1073000
2000
عندما تتمازج علوم كشف الخداع
18:10
with the art of looking, listening,
434
1075000
2000
مع فنون المظهر، الاستماع،
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
ستستثني نفسك من المشاركة في الكذب.
18:15
You start up that path
436
1080000
2000
فأنت تبدأ ذلك الطريق
18:17
of being just a little bit more explicit,
437
1082000
2000
بأن تكون أكثر وضوحا قليلا،
18:19
because you signal to everyone around you,
438
1084000
2000
لانك تشير لكل من هم حولك،
18:21
you say, "Hey, my world, our world,
439
1086000
3000
وتقول ، "مهلا، عالمي، عالمك،
18:24
it's going to be an honest one.
440
1089000
2000
سيكون عالما صادقا.
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
عالمي سيكون واحدا أينما قويت الحقيقة
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
وتم كشف الكذب وتهميشه ".
18:31
And when you do that,
443
1096000
2000
وعندما تفعل ذلك،
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
تبدأ القاعدة الأساسية من حولك في التغير قليلا.
18:36
And that's the truth. Thank you.
445
1101000
3000
وتلك هي الحقيقة. شكرا.
18:39
(Applause)
446
1104000
5000
(تصفيق)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com