TEDGlobal 2011
Pamela Meyer: How to spot a liar
پامێلا مییەر: چۆن درۆزنێک بناسیتەوە
Filmed:
Readability: 3.8
28,415,176 views
لە هەر رۆژێکدا لە ١٠ بۆ ٢٠٠ جار درۆمان لەگەڵ دەکرێت، و سەرەداوەکان بۆ دۆزینەوەی ئەو درۆیانە دەکرێت کەم بن. پامێلا مییەر، نوسەری "دۆزینەوەی درۆ،" هەڵسوکەوتەکان و خاڵە یەکلاکەرەوەکان نیشان دەدات کە کەسە ڕاهێنانپێکراوەکان بەکاری دەهێنن بۆ ناسینەوەی هەڵخەڵەتاندن -- و دەڵێت کە ڕاستگۆیی بەهایەکە شایەنی پاراستنە.
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
باشە، ئێستا نامەوێت هەمووان
بەئاگا بێنمەوە لەم ژوورەیا،
بەئاگا بێنمەوە لەم ژوورەیا،
00:20
but it's just come to my attention
1
5000
2000
بەڵام سەرنجمدا کە کەسەکەی
لای ڕاستت درۆزنە.
لای ڕاستت درۆزنە.
00:22
that the person to your right is a liar.
2
7000
2000
00:24
(Laughter)
3
9000
2000
(پێکەنین)
00:26
Also, the person to your left is a liar.
4
11000
3000
کەسەکەی لای چەپیشت درۆزنە.
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
هەروەها تەنانەت کەسەکەی لەسەر
کورسییەکەت دانیشتووە درۆزنە.
کورسییەکەت دانیشتووە درۆزنە.
00:32
We're all liars.
6
17000
2000
هەموومان درۆزنین.
00:34
What I'm going to do today
7
19000
2000
ئەوەی ئەمڕۆ ئەیکەم ئەوەیە
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
نیشانتان ئەیەم توێژینەوەکە چی دەڵێت
دەربارەی ئەوەی بۆچی هەموو درۆزنین،
دەربارەی ئەوەی بۆچی هەموو درۆزنین،
00:39
how you can become a liespotter
9
24000
2000
چۆن ببیت بە دۆزەرەوەی درۆ و
00:41
and why you might want to go the extra mile
10
26000
3000
بۆچی لەوانەیە بتەوێت
میلێکی زیادەش بڕۆیت و
میلێکی زیادەش بڕۆیت و
00:44
and go from liespotting to truth seeking,
11
29000
3000
لە دۆزینەوەی درۆوە بچیت
بۆ گەڕان بۆ ڕاستی، و
بۆ گەڕان بۆ ڕاستی، و
00:47
and ultimately to trust building.
12
32000
2000
لە ئاکامیشدا بنیاتنانی متمانە.
00:49
Now speaking of trust,
13
34000
3000
ئێستا، بە باسکردنی متمانە،
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
لەوەتەی ئەم کتێبەم نوسیوە،
"دۆزینەوەی درۆ،"
"دۆزینەوەی درۆ،"
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
چیتر کەس نایەوێت ڕووبەڕوو
چاوی پێم بکەوێت، نا، نا، نەخێر.
چاوی پێم بکەوێت، نا، نا، نەخێر.
00:58
They say, "It's okay, we'll email you."
16
43000
3000
هەمووجارێ دەڵێن، "باشە، ئیمەیڵ بۆ دەنێرین."
01:01
(Laughter)
17
46000
2000
(پێکەنین)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
تەنانەت ناشتوانم ژوانێکی قاوە
خواردنەوەم هەبێت لە ستاربەکس.
خواردنەوەم هەبێت لە ستاربەکس.
01:07
My husband's like, "Honey, deception?
19
52000
2000
مێردەکەم دەڵێ،
"ئازیزەکەم، هەڵخەڵەتاندن؟
"ئازیزەکەم، هەڵخەڵەتاندن؟
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
بۆچی زیاتر تیشک نەخستە سەر چێشتلێنان.
لێنانی خواردنی فەڕەنسیت پێچۆنە؟"
لێنانی خواردنی فەڕەنسیت پێچۆنە؟"
01:12
So before I get started, what I'm going to do
21
57000
2000
کەواتە پێش ئەوەی دەستپێکەم،
ئەوەی کە ئەیکەم
ئەوەی کە ئەیکەم
01:14
is I'm going to clarify my goal for you,
22
59000
3000
ئەوەیە کە ئامانجەکەمتان بۆ ڕووندەکەمەوە،
01:17
which is not to teach a game of Gotcha.
23
62000
2000
کە ئەویش فێرکردنی
یاری دۆزینەوە و گرتن نییە.
یاری دۆزینەوە و گرتن نییە.
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
درۆدۆزەرەوەکان ئەو مناڵە بە قێزوبێزانە نین،
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
ئەوانەی لە پشتەوەی ژوورەکەیان و
هاوار دەکەن، "گرتمیت! گرتمیت!
هاوار دەکەن، "گرتمیت! گرتمیت!
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
برۆت ڕاتەکی.
کڕکڕاگەی لوت جوڵاند.
کڕکڕاگەی لوت جوڵاند.
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
سەیری ئەو بەرنەما تەلەفزیۆنییەم کردووە
'درۆم لەگەڵ بکە.' دەزانم درۆ ئەکەیت.
'درۆم لەگەڵ بکە.' دەزانم درۆ ئەکەیت.
01:30
No, liespotters are armed
28
75000
2000
نەخێر، درۆدۆزەرەوەکان
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
چەکێکی زانستییان پێیە
بۆ دۆزینەوەی هەڵخەڵەتاندن.
بۆ دۆزینەوەی هەڵخەڵەتاندن.
01:35
They use it to get to the truth,
30
80000
2000
بەکاریدەهێنن بۆ گەشتن بە ڕاستییەکە، و
01:37
and they do what mature leaders do everyday;
31
82000
2000
ئەوە دەکەن کە سەرکردە
پێگەشتووەکان ڕۆژانە دەیکەن؛
پێگەشتووەکان ڕۆژانە دەیکەن؛
01:39
they have difficult conversations with difficult people,
32
84000
3000
گفتوگۆی قورسیان دەبێت لەگەڵ
کەسانی قورسدا،
کەسانی قورسدا،
01:42
sometimes during very difficult times.
33
87000
2000
هەندێک جار لە کاتی زۆر قورسدا.
01:44
And they start up that path
34
89000
2000
بە قبوڵکردنی گریمانەیەکی ناوەکیش
دەست بەو ڕێڕەوە دەکەن، و
دەست بەو ڕێڕەوە دەکەن، و
01:46
by accepting a core proposition,
35
91000
2000
01:48
and that proposition is the following:
36
93000
2000
ئەو گریمانەیەش ئەمەی خوارەوەیە:
01:50
Lying is a cooperative act.
37
95000
3000
درۆکردن کردەوەیەکی دوولایەنەیە.
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
بیری لێکەنەوە، درۆ هیچ
هێزێکی نییە تەنیا بە درکاندنی.
هێزێکی نییە تەنیا بە درکاندنی.
01:57
Its power emerges
39
102000
2000
ئەوکاتە هێزی دەبێت
01:59
when someone else agrees to believe the lie.
40
104000
2000
کاتێک کەسێکی تر قبوڵی ئەوە دەکات
باوەڕ بە درۆکە بکات.
باوەڕ بە درۆکە بکات.
02:01
So I know it may sound like tough love,
41
106000
2000
کەواتە ئەزانم لەوانەیە لە
خۆشەویستی قورس بچێت،
خۆشەویستی قورس بچێت،
02:03
but look, if at some point you got lied to,
42
108000
4000
بەڵام سەیرکەن، ئەگەر لە خاڵێکدا
درۆتان لەگەڵ بکرێت،
درۆتان لەگەڵ بکرێت،
02:07
it's because you agreed to get lied to.
43
112000
2000
لەبەر ئەوەیە قبوڵتان کردووە
درۆتان لەگەڵ بکرێت.
درۆتان لەگەڵ بکرێت.
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
ڕاستی ژمارە یەک لەسەر درۆکردن:
درۆکردن کارێکی دوولایەنەیە.
درۆکردن کارێکی دوولایەنەیە.
02:12
Now not all lies are harmful.
45
117000
2000
ئینجا، هەموو درۆکان زیانبەخش نین.
02:14
Sometimes we're willing participants in deception
46
119000
3000
هەندێک جار خۆمان ئەمانەوێت
کەسەکە بکەوێتە درۆکەوە
کەسەکە بکەوێتە درۆکەوە
02:17
for the sake of social dignity,
47
122000
3000
لەبەر خاتری ڕەوشتی کۆمەڵایەتی،
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
لەوانەیە بمانەوێت نهێنییەک بپارێزین
کە پێویستە بە نهێنی بمێنێتەوە.
کە پێویستە بە نهێنی بمێنێتەوە.
02:23
We say, "Nice song."
49
128000
2000
دەڵێین، "گۆرانییەکی خۆشە."
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
"ئازیزەکەم، قەڵەو نیت بەوەوە، نەخێر."
02:28
Or we say, favorite of the digiratti,
51
133000
2000
یان دەڵێین، ئەوەی لە ئەلیکترۆنیاتدا زۆر باوە،
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
"ئەزانیت چۆنە، ئیمەیڵەکەم بۆیە نەدیبوو
چونکە چووبووە ناو فۆڵدەری زبڵەکەوە.
چونکە چووبووە ناو فۆڵدەری زبڵەکەوە.
02:33
So sorry."
53
138000
3000
زۆر داوای لێبوردن ئەکەم."
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
بەڵام هەندێک جاریش هەیە
خۆمان هەڵیان دەخەڵەتێنین.
خۆمان هەڵیان دەخەڵەتێنین.
02:39
And that can have dramatic costs for us.
55
144000
3000
ئەوەش دەکرێت باجێکی قورسی هەبێت لەسەرمان.
02:42
Last year saw 997 billion dollars
56
147000
3000
ساڵی پار ٩٩٧ ملیار دۆلار
02:45
in corporate fraud alone in the United States.
57
150000
4000
بە شێوەی فێڵ و نایاسایی لەدەستچووە
لە ویلایەتە یەکگرتووەکان.
لە ویلایەتە یەکگرتووەکان.
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
ئەوە کەمێکی لە یەک
تریلیۆن دۆلار کەمترە.
تریلیۆن دۆلار کەمترە.
02:51
That's seven percent of revenues.
59
156000
2000
ئەوە لە سەدا حەوتی داهاتی ساڵانەیە.
02:53
Deception can cost billions.
60
158000
2000
هەڵخەڵەتاندن زیانی ملیارەهای لێدەکەوێتەوە.
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
بیر لە ئینرۆن، و مادۆف بکەنەوە،
قەیرانی کەفیلەکان.
قەیرانی کەفیلەکان.
02:58
Or in the case of double agents and traitors,
62
163000
3000
یان لە دۆسیەی کاربەدەستە دوولایەنی و
ناپاکەکان،
ناپاکەکان،
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
وەک رۆبێرت هانسین یان
ئاڵدریچ ئەیمس،
ئاڵدریچ ئەیمس،
03:03
lies can betray our country,
64
168000
2000
درۆکان دەکرێ ناپاکی لە
وڵاتەکەمان بکات،
وڵاتەکەمان بکات،
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
دەکرێت زیان بە ئاسایشمان بگەیەنێت،
دەکرێت زیان بە دیموکراسییەت بگەیەنێ،
دەکرێت زیان بە دیموکراسییەت بگەیەنێ،
03:08
they can cause the deaths of those that defend us.
66
173000
3000
لەوانەیە ببێتە هۆی مردنی
ئەوانەی بەرگریمان لێدەکەن.
ئەوانەی بەرگریمان لێدەکەن.
03:11
Deception is actually serious business.
67
176000
3000
هەڵخەڵەتاندن مەسەلەیەکی قورسە.
03:14
This con man, Henry Oberlander,
68
179000
2000
ئەم پیاوە جامبازە، هێنری ئۆبەرلاندەر،
جامبازێکی گەورە بوو،
جامبازێکی گەورە بوو،
03:16
he was such an effective con man
69
181000
2000
03:18
British authorities say
70
183000
2000
دەسەڵاتدارانی بەریتانی دەڵێن
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
دەیتوانی هەموو سیستمی بانقی
جیهانی خۆرئاوا ببڕێت. و
جیهانی خۆرئاوا ببڕێت. و
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
ناشتوانی ئەم پیاوە لەسەر گوگڵ بدۆزیتەوە؛
ناتوانی لە هیچ کوێیەک بیدۆزیتەوە.
ناتوانی لە هیچ کوێیەک بیدۆزیتەوە.
03:25
He was interviewed once, and he said the following.
73
190000
3000
جارێک چاوپێکەوتنی لەگەڵ کرا، و
ئەم قسانەی کرد.
ئەم قسانەی کرد.
03:28
He said, "Look, I've got one rule."
74
193000
2000
وتی، "سەیرکەن، یەک یاسام هەیە."
03:30
And this was Henry's rule, he said,
75
195000
3000
ئەمەش یاساکەی هێنری بوو، وتی،
03:33
"Look, everyone is willing to give you something.
76
198000
2000
"سەیرکەن، هەمووان ئامادەن
شتێک بەنێ.
شتێک بەنێ.
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
ئامادەن شتێک بدەنێ لە بەرامبەر
هەر شتێکدا کە برسین بۆی."
هەر شتێکدا کە برسین بۆی."
03:38
And that's the crux of it.
78
203000
2000
ئەوەش ناو کرۆکەکەیەتی.
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
ئەگەر ناتەوێت هەڵبخەڵەتێنرێیت،
پێویستە بزانیت،
پێویستە بزانیت،
03:42
what is it that you're hungry for?
80
207000
2000
ئەو شتە چییە کە برسیت بۆی؟
03:44
And we all kind of hate to admit it.
81
209000
3000
هەمووشمان بەجۆرێک
نامانەوێ دانی پیانێین.
نامانەوێ دانی پیانێین.
03:47
We wish we were better husbands, better wives,
82
212000
3000
حەزمان دەکرد مێردێکی باشتر،
ژنێکی باشتر بووینایە،
ژنێکی باشتر بووینایە،
03:50
smarter, more powerful,
83
215000
2000
زیرەکتر، بەهێزتر، باڵا بەرزتر،
دەوڵەمەنتر بووینایە -- و
دەوڵەمەنتر بووینایە -- و
03:52
taller, richer --
84
217000
2000
03:54
the list goes on.
85
219000
2000
زۆر شتی تریش.
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
درۆکردن هەوڵێکە بۆ
پەڕینەوە بەو بۆشاییەدا،
پەڕینەوە بەو بۆشاییەدا،
03:58
to connect our wishes and our fantasies
87
223000
2000
بۆ بەستنەوەی خواستەکانمان و خەیاڵەکانمان
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
دەربارەی ئەوەی ئاواتمان دەخواست
کێ بوینایە و چۆن بوینایە،
کێ بوینایە و چۆن بوینایە،
04:03
with what we're really like.
89
228000
3000
وەک لەوەی خۆمان چۆنین.
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
هەمووشمان ئامادەین ئەو بۆشاییانەی
ژیانمان بە درۆ پڕ بکەینەوە.
ژیانمان بە درۆ پڕ بکەینەوە.
04:09
On a given day, studies show that you may be lied to
91
234000
3000
لە ڕۆژێکدا، بەپێی توێژینەوەکان
لەوانەیە هێندەی
لەوانەیە هێندەی
04:12
anywhere from 10 to 200 times.
92
237000
2000
١٠-٢٠٠ جار درۆت لەگەڵ بکرێت.
04:14
Now granted, many of those are white lies.
93
239000
3000
بەشێکی زۆری ئەوانە درۆی سپین.
04:17
But in another study,
94
242000
2000
بەڵام بەپێی توێژینەوەیەکی تر،
04:19
it showed that strangers lied three times
95
244000
2000
نیشانیداوە ئەوانەی یەکتر ناناسن
سێ جار درۆ دەکەن
سێ جار درۆ دەکەن
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
لە دە خوولەکی یەکەمی یەکتر ناسیندا.
04:23
(Laughter)
97
248000
2000
(پێکەنین)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
ئێستا کە ئەم زانیارییە دەبیستین،
بیردەکەینەوە.
بیردەکەینەوە.
04:28
We can't believe how prevalent lying is.
99
253000
2000
ناتوانین باوەڕ بەوە بکەین
درۆکردن چەندێک بڵاوە.
درۆکردن چەندێک بڵاوە.
04:30
We're essentially against lying.
100
255000
2000
خۆمان لە بنچینەدا دژی درۆکردنین.
04:32
But if you look more closely,
101
257000
2000
بەڵام ئەگەر لە نزیکترەوە سەیرکەین،
مەسەلەکە لەوە قوڵتریشە.
مەسەلەکە لەوە قوڵتریشە.
04:34
the plot actually thickens.
102
259000
2000
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
زیاتر درۆ لەگەڵ خەڵکی نەناسراودا دەکەیت
وەک لە هاوپیشەکانمان.
وەک لە هاوپیشەکانمان.
04:39
Extroverts lie more than introverts.
104
264000
4000
ڕووکراوەکان زیاتر درۆ دەکەن
وەک لە داخراوەکان.
وەک لە داخراوەکان.
04:43
Men lie eight times more about themselves
105
268000
3000
پیاوان هەشت هێندە زیاتر درۆ
لەبارەی خۆیانەوە دەکەن وەک لە خەڵکی تر.
لەبارەی خۆیانەوە دەکەن وەک لە خەڵکی تر.
04:46
than they do other people.
106
271000
2000
04:48
Women lie more to protect other people.
107
273000
3000
ژنان زیاتر بۆ پاراستنی
خەڵکی تر درۆ دەکەن.
خەڵکی تر درۆ دەکەن.
04:51
If you're an average married couple,
108
276000
3000
ئەگەر ژن و مێردێکی ئاسایی بن،
04:54
you're going to lie to your spouse
109
279000
2000
لە دە یەکتر بینین جارێک
درۆ لەگەڵ یەکتر دەکەن.
درۆ لەگەڵ یەکتر دەکەن.
04:56
in one out of every 10 interactions.
110
281000
2000
04:58
Now you may think that's bad.
111
283000
2000
ئێستا، لەوانەیە وا بیرکەنەوە
ئەوە خراپ بێت.
ئەوە خراپ بێت.
05:00
If you're unmarried, that number drops to three.
112
285000
2000
ئەگەر هاوسەرگیریتان نەکردبێت
ئەو ڕێژەیە زیاد دەکات بۆ سێ جار.
ئەو ڕێژەیە زیاد دەکات بۆ سێ جار.
05:02
Lying's complex.
113
287000
2000
درۆکردن ئاڵۆزە.
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
چنراوەتە ناو کوتاڵی ژیانی ڕۆژانەمان و
ژیانی کارکردنمانەوە.
ژیانی کارکردنمانەوە.
05:07
We're deeply ambivalent about the truth.
115
292000
2000
زۆر بەقوڵی دوو هەڵوێستین
بەرامبەر ڕاستییەکە.
بەرامبەر ڕاستییەکە.
05:09
We parse it out on an as-needed basis,
116
294000
2000
لەسەر بنەمای پێویستی خۆمان شیدەکەینەوە،
05:11
sometimes for very good reasons,
117
296000
2000
هەندێک جار بۆ هۆکاری زۆر باش،
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
هەندێک جاری تریش لەبەر ئەوەی
لە بۆشاییەکانی ژیانمان تێناگەین.
لە بۆشاییەکانی ژیانمان تێناگەین.
05:16
That's truth number two about lying.
119
301000
2000
ئەوە ڕاستی ژمارە دووە
لەسەر درۆ کردن.
لەسەر درۆ کردن.
05:18
We're against lying,
120
303000
2000
ئێمە دژی درۆکردنین،
05:20
but we're covertly for it
121
305000
2000
بەڵام بە شاراوەیی لەگەڵین
05:22
in ways that our society has sanctioned
122
307000
2000
بە چەند شێوازێک کە کۆمەڵگا بۆ چەندین
سەدەی لەدوای یەک لەژێر ئابڵۆقەدا بووە.
سەدەی لەدوای یەک لەژێر ئابڵۆقەدا بووە.
05:24
for centuries and centuries and centuries.
123
309000
2000
05:26
It's as old as breathing.
124
311000
2000
هێندەی هەناسەدان کۆنە.
05:28
It's part of our culture, it's part of our history.
125
313000
2000
بەشێکە لە کلتورەکەمان،
بەشێکە لە مێژووەکەمان.
بەشێکە لە مێژووەکەمان.
05:30
Think Dante, Shakespeare,
126
315000
3000
بیر لە دانتێ، شەیکسپیر، ئینجیل، و
هەواڵەکانی جیهان بکەنەوە.
هەواڵەکانی جیهان بکەنەوە.
05:33
the Bible, News of the World.
127
318000
3000
05:36
(Laughter)
128
321000
2000
(پێکەنین)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
درۆکردن بەهای پەرەسەندنی هەیە
بۆ ئێمە وەک بوونەوەرێک.
بۆ ئێمە وەک بوونەوەرێک.
05:40
Researchers have long known
130
325000
2000
توێژەرەوەکان ماوەیەکی زۆرە دەزانن کە
تا جۆرە بوونەوەرەکە زیرەک بێت،
تا جۆرە بوونەوەرەکە زیرەک بێت،
05:42
that the more intelligent the species,
131
327000
2000
05:44
the larger the neocortex,
132
329000
2000
نوێترین بەشی توێکڵی مێشک
گەورەتر دەبێت، و
گەورەتر دەبێت، و
05:46
the more likely it is to be deceptive.
133
331000
2000
ئەگەری زیاترە هەڵخەڵەتێنەرتر بێت.
05:48
Now you might remember Koko.
134
333000
2000
هەمووتان کۆکۆتان بیرە.
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
کەس کۆکۆی گۆریلای بیرە کە زمانی
نیشانەی فێرکرابوو؟
نیشانەی فێرکرابوو؟
05:53
Koko was taught to communicate via sign language.
136
338000
3000
کۆکۆ فێری ئەوە کرابوو بە
زمانی نیشانە پەیوەندی بکات.
زمانی نیشانە پەیوەندی بکات.
05:56
Here's Koko with her kitten.
137
341000
2000
ئەمە کۆکۆیە لەگەڵ پشیلەکەی.
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
پشیلە جوانە تووکنەکەی.
06:01
Koko once blamed her pet kitten
139
346000
2000
کۆکۆ جارێک پشیلە ماڵییەکەی تۆمەتبار کرد
بە دەرکردنی دەستشۆرەکە لە دیوارەکە.
بە دەرکردنی دەستشۆرەکە لە دیوارەکە.
06:03
for ripping a sink out of the wall.
140
348000
2000
06:05
(Laughter)
141
350000
2000
(پێکەنین)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
وا درووستبووین خۆمان بە سەرۆکی
هەمووان بزانین.
هەمووان بزانین.
06:09
It's starts really, really early.
143
354000
2000
زۆر زۆر زوو دەستی پێکردووە.
06:11
How early?
144
356000
2000
چەندێک زوو؟
06:13
Well babies will fake a cry,
145
358000
2000
منداڵان بەدرۆوە دەگرین،
06:15
pause, wait to see who's coming
146
360000
2000
دەوەستن، چاوەڕێدەکەن بزانن کێ دێت و
06:17
and then go right back to crying.
147
362000
2000
ئینجا دووبارە دەگەڕێنەوە سەر گریان.
06:19
One-year-olds learn concealment.
148
364000
2000
لە یەک ساڵیدا فێری شت شاردنەوە دەبن.
06:21
(Laughter)
149
366000
2000
(پێکەنین)
06:23
Two-year-olds bluff.
150
368000
2000
دوو ساڵ بەهەڵەدا بردن.
06:25
Five-year-olds lie outright.
151
370000
2000
لە پێنج ساڵیدا درۆی ڕاستەوخۆ.
06:27
They manipulate via flattery.
152
372000
2000
لەڕێی مەراییەوە کۆنترۆڵی چواردەور دەکەن.
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
نۆ ساڵان، زۆر بە باشی
فێری پەردەپۆش کردن دەبن.
فێری پەردەپۆش کردن دەبن.
06:32
By the time you enter college,
154
377000
2000
تا ئەوکاتەی دەچنە زانکۆ،
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
لە هەر پێنج جارێک جارێک درۆ
لەگەڵ دایکت دەکەیت.
لەگەڵ دایکت دەکەیت.
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
تا ئەوکاتەی یەینە ئەم جیهانی کارکردنەوە و
بژێوی ژیان دابین دەکەین،
بژێوی ژیان دابین دەکەین،
06:40
we enter a world that is just cluttered
157
385000
2000
دێینە جیهانێکەوە کە پڕە لە ئیمەیڵی ساختە،
هاوڕێی ساختەی ئینتەرنێت،
هاوڕێی ساختەی ئینتەرنێت،
06:42
with spam, fake digital friends,
158
387000
2000
06:44
partisan media,
159
389000
2000
ڕاگەیاندنی حیزبی،
06:46
ingenious identity thieves,
160
391000
2000
دزە زیرەکەکانی ناسنامە،
06:48
world-class Ponzi schemers,
161
393000
2000
قۆڵبڕینی وەبەرهێنەری نوێ
بۆ دانەوەی قەرزی وەبەرهێنەری کۆن،
بۆ دانەوەی قەرزی وەبەرهێنەری کۆن،
06:50
a deception epidemic --
162
395000
2000
بەربڵاوییەکی قۆڵبڕین --
06:52
in short, what one author calls
163
397000
2000
بە کورتی، ئەوەی نوسەرێک پێی دەڵێت
کۆمەڵگای دوای ڕاستی.
کۆمەڵگای دوای ڕاستی.
06:54
a post-truth society.
164
399000
3000
06:57
It's been very confusing
165
402000
2000
ماوەیەکی زۆرە جیهان
زۆر سەرلێشێوێنەر بووە.
زۆر سەرلێشێوێنەر بووە.
06:59
for a long time now.
166
404000
3000
07:03
What do you do?
167
408000
2000
باشە چی بکەین؟
07:05
Well there are steps we can take
168
410000
2000
هەندێک هەنگاو هەیە دەتوانین بینێین
بۆ دەرچوون لەم هەموو درۆیە.
بۆ دەرچوون لەم هەموو درۆیە.
07:07
to navigate our way through the morass.
169
412000
2000
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
درۆ دۆزەرەوە ڕاهێنان پێکراوەکان
لەسەدا ٩٠ی جارەکان دەگەنە ڕاستی.
لەسەدا ٩٠ی جارەکان دەگەنە ڕاستی.
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
ئەوانەی ترمان لە سەدا ٥٤ی
جارەکان ڕاست دەکەین.
جارەکان ڕاست دەکەین.
07:15
Why is it so easy to learn?
172
420000
2000
بۆچی فێربوونی ئەوەندە ئاسانە؟
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
درۆزنی باش و درۆزنی خراپیش هەیە.
هیچ درۆزنێکی بنەڕەتی ڕاستەقینە نییە.
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
هەموو هەمان هەڵەکان دەکەین.
هەموو هەمان تەکنیکەکان بەکاردێنین.
هەموو هەمان تەکنیکەکان بەکاردێنین.
07:23
So what I'm going to do
175
428000
2000
کەواتە ئەوەی ئێستا ئەمەوێ بیکەم ئەوەیە
کە دوو شێوازی هەڵخەڵەتاندنتان نیشاندەدەم.
کە دوو شێوازی هەڵخەڵەتاندنتان نیشاندەدەم.
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
ئینجا سەیری خاڵە گرنگەکان دەکەین و
بزانین خۆمان دەتوانین بیاندۆزینەوە.
07:30
We're going to start with speech.
178
435000
3000
بە وتارێک دەستپێدەکەین.
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
بیڵ کلینتۆن: ئەمەوێ گوێملێگرن.
07:35
I'm going to say this again.
180
440000
2000
دووبارە ئەمە دەڵێمەوە.
07:37
I did not have sexual relations
181
442000
3000
پەیوەندی سێکسیم نەبوو لەگەڵ ئەو ژنە،
خاتوو لیوینسکی.
خاتوو لیوینسکی.
07:40
with that woman, Miss Lewinsky.
182
445000
4000
07:44
I never told anybody to lie,
183
449000
2000
قەت بە کەسم نەوتووە درۆ بکات،
بۆ تەنیا جارێکیش.
بۆ تەنیا جارێکیش.
07:46
not a single time, never.
184
451000
2000
07:48
And these allegations are false.
185
453000
3000
ئەم تۆمەتانە ڕاست نین. و
07:51
And I need to go back to work for the American people.
186
456000
2000
پێویستە بگەڕێمەوە بۆ سەر
کارکردن بۆ خەڵکی ئەمریکا.
کارکردن بۆ خەڵکی ئەمریکا.
07:53
Thank you.
187
458000
2000
زۆر سوپاس.
(چەپڵەلێدان)
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
پامێڵا: باشە،
نیشانەکانی درۆکردن چی بوون؟
نیشانەکانی درۆکردن چی بوون؟
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
یەکەم شت گوێمان لەوەبوو کە
ناسراوە بە نکوڵیکردنی فەرمی.
ناسراوە بە نکوڵیکردنی فەرمی.
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
توێژینەوەکان نیشانیانداوە ئەوانەی
زۆر سورن لەسەر نکوڵیکردنەکە
زۆر سورن لەسەر نکوڵیکردنەکە
08:08
will resort to formal rather than informal language.
191
473000
3000
پەنا دەبەنە بەر زمانێکی فەرمی
وەک لە زمانێکی نافەڕمی.
وەک لە زمانێکی نافەڕمی.
08:11
We also heard distancing language: "that woman."
192
476000
3000
هەروەها گوێمان لە زمانی
خۆدوورخەرەوە بوو: "ئەو ژنە"
خۆدوورخەرەوە بوو: "ئەو ژنە"
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
دەزانین کە درۆزنەکان بێ ویستی خۆیان
خۆیان دووردەخەنەوە،
خۆیان دووردەخەنەوە،
08:16
from their subject
194
481000
2000
لە ئامانجەکەیان،
08:18
using language as their tool.
195
483000
3000
زمان وەک ئامراز بەکاردێنن.
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
ئێستا ئەگەر بیڵ کلینتۆن بیوتایە،
"ڕاستییەکەتان پێبڵێم...."
"ڕاستییەکەتان پێبڵێم...."
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
یان ئەوەی ریچارد نیکسن حەزی لێبوو،
"بەوپەڕی ڕاشکاوییەوە.."
"بەوپەڕی ڕاشکاوییەوە.."
08:26
he would have been a dead giveaway
198
491000
2000
ئاشکرا کردنێکی بێ مەبەست دەبوو
08:28
for any liespotter than knows
199
493000
2000
بۆ هەر درۆدۆزەرەوەیەک کە دەزانێت
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
زمانی گونجاندن، وەک ناونراوە،
هەر پێی دەوترێت زمانی گونجاندن،
هەر پێی دەوترێت زمانی گونجاندن،
08:33
further discredits the subject.
201
498000
2000
زیاتر بابەتەکە ئاشکرا دەکات.
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
ئێستا ئەگەر تەواوی پرسیارەکەی
دووبارە بکردایەتەوە،
دووبارە بکردایەتەوە،
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
یان ئەگەر زیاتر وردەکاری
بوتایە لەسەر پێگەی خۆی -- و
بوتایە لەسەر پێگەی خۆی -- و
08:42
and we're all really glad he didn't do that --
204
507000
2000
خۆشحاڵین کە ئەوەی نەکرد --
08:44
he would have further discredited himself.
205
509000
2000
زیاتر خۆی ئاشکرا دەکرد.
08:46
Freud had it right.
206
511000
2000
فرۆید ڕاستی وتوە.
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
فرۆید وتوێتی، سەیرکە،
لە قسەکردن زیاتر هەیە:
لە قسەکردن زیاتر هەیە:
08:51
"No mortal can keep a secret.
208
516000
3000
"هیچ بوونەوەرێک نهێنی پێناشاردرێتەوە.
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
ئەگەر لێوەکانی بێدەنگ بوون،
بە نووکی پەنجەی قسە دەکات."
بە نووکی پەنجەی قسە دەکات."
08:57
And we all do it no matter how powerful you are.
210
522000
3000
هەمووشمان چەندێک بەهێزیش بین
ئەوە دەکەین.
ئەوە دەکەین.
09:00
We all chatter with our fingertips.
211
525000
2000
هەموو بە سەری پەنجەمان
قسە دەکەین.
قسە دەکەین.
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
دۆمینیک سترۆس کانتان پیشان دەدەم
لەگەڵ ئۆباما
لەگەڵ ئۆباما
09:05
who's chattering with his fingertips.
213
530000
3000
کە بە سەری پەنجەی قسە دەکات.
09:08
(Laughter)
214
533000
3000
(پێکەنین)
09:11
Now this brings us to our next pattern,
215
536000
3000
ئێستا ئەمە دەمانبەتە سەر شێوەی دووەم،
کە زمانی جەستەیە.
کە زمانی جەستەیە.
09:14
which is body language.
216
539000
3000
09:17
With body language, here's what you've got to do.
217
542000
3000
بۆ زمانی جەستە پێویستە ئەم شتە بکەیت.
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
بەڕاستی پێویستە گریمانەکانت
فڕێبەیتە دەرەوەی دەرگاکە.
فڕێبەیتە دەرەوەی دەرگاکە.
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
با زانست کەمێکی تر
لە ئاستی ڕۆشنبیریت زیادبکات.
لە ئاستی ڕۆشنبیریت زیادبکات.
09:25
Because we think liars fidget all the time.
220
550000
3000
چونکە وادەزانین هەمووکات
درۆزنەکان دەشڵەژێن.
درۆزنەکان دەشڵەژێن.
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
دەزانن چی، ناسراون بەوەی دەتوانن بەشی
سەرەوەی لەشیان بوەستێنن کاتێ درۆ دەکەن.
سەرەوەی لەشیان بوەستێنن کاتێ درۆ دەکەن.
09:31
We think liars won't look you in the eyes.
222
556000
3000
وا دەزانین درۆزنەکان سەیری چاو ناکەن.
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
دەزانن بۆ ئەوەش، کەمێک زۆر
سەیری چاوەکانت دەکەن
سەیری چاوەکانت دەکەن
09:36
just to compensate for that myth.
224
561000
2000
تەنیا لەبەر ئەو بیروباوەڕە باوە.
09:38
We think warmth and smiles
225
563000
2000
وا دەزانین گەرمی و زەردەخەنە
نیشانەی ڕاستگۆیین.
نیشانەی ڕاستگۆیین.
09:40
convey honesty, sincerity.
226
565000
2000
09:42
But a trained liespotter
227
567000
2000
بەڵام درۆدۆزەرەوەی ڕاهێنانپێکراو دەتوانن
لە دووری میلێکەوە زەردەخەنەی ساختە بدۆزنەوە.
لە دووری میلێکەوە زەردەخەنەی ساختە بدۆزنەوە.
09:44
can spot a fake smile a mile away.
228
569000
2000
09:46
Can you all spot the fake smile here?
229
571000
3000
هەمووتان زەردەخەنەیەکی درۆ
بەدی دەکەن لێرە؟
بەدی دەکەن لێرە؟
09:50
You can consciously contract
230
575000
2000
دەتوانن بە ویستی خۆتان
ماسولکەیەکی ڕوومەتتان گرژکەن.
ماسولکەیەکی ڕوومەتتان گرژکەن.
09:52
the muscles in your cheeks.
231
577000
3000
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
بەڵام زەردەخەنە ڕاستییەکە لە چاوەکاندایە،
چرچییەکانی چواردەوری چاو.
چرچییەکانی چواردەوری چاو.
09:58
They cannot be consciously contracted,
233
583000
2000
ناکرێت بە ویستی خۆمان
گرژ بکرێن،
گرژ بکرێن،
10:00
especially if you overdid the Botox.
234
585000
2000
بەتایبەتی ئەگەر بۆتۆکسی زۆر کردبێت.
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
بۆتۆکسی زۆر مەکەن؛
کەس باوەڕ بەوە ناکات ڕاستگۆ بیت.
کەس باوەڕ بەوە ناکات ڕاستگۆ بیت.
10:05
Now we're going to look at the hot spots.
236
590000
2000
ئێستا سەیری خاڵە گرنگەکان دەکەین.
10:07
Can you tell what's happening in a conversation?
237
592000
2000
دەتوانی لە گفتوگۆیەکدا بزانیت چی ڕووئەیات؟
10:09
Can you start to find the hot spots
238
594000
3000
دەتوانیت دەستکەیت بە دۆزینەوەی
خاڵە گرنگەکان
خاڵە گرنگەکان
10:12
to see the discrepancies
239
597000
2000
بۆ بینینی نەگونجانەکان
10:14
between someone's words and someone's actions?
240
599000
2000
لە نێوەکان قسەکان و کردەوەکانی کەسێکدا؟
10:16
Now I know it seems really obvious,
241
601000
2000
ئێستا، دەزانم زۆر لە ئاشکرا دەچێت،
10:18
but when you're having a conversation
242
603000
2000
بەڵام کاتێک گفتوگۆت لەگەڵ کەسێکدا دەبێت
کە گومانی هەڵخەڵەتاندنی لێدەکەیت،
کە گومانی هەڵخەڵەتاندنی لێدەکەیت،
10:20
with someone you suspect of deception,
243
605000
3000
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
هەڵوێست یەکێکە لەو شتانەی چاوپۆشی لێکراوە
بەڵام ئاماژە پێدەرێکیشە.
بەڵام ئاماژە پێدەرێکیشە.
10:26
An honest person is going to be cooperative.
245
611000
2000
کەسی ڕاستگۆ هەوڵدەدات هاوکاربێت.
10:28
They're going to show they're on your side.
246
613000
2000
نیشانی دەدەن کە لە لایەنی تۆن.
10:30
They're going to be enthusiastic.
247
615000
2000
بەپەرۆش دەبن.
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
حەز دەکەن و یارمەتیدەریش دەبن بۆت
بۆ ئەوەی بگەیت بە ڕاستییەکە.
بۆ ئەوەی بگەیت بە ڕاستییەکە.
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
هەوڵدەدەن چی دەزانن بیڵێن،
ناوی گومان لێکراوەکان،
ناوی گومان لێکراوەکان،
10:37
provide details.
250
622000
2000
دابینکردنی وردەکاری.
10:39
They're going to say, "Hey,
251
624000
2000
پێت دەڵێن،
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
هێی، لەوانەیە ئەوانەی لیستی موچەیان لایە
ئەو چەکە ساختانەیان درووستکردووە.
ئەو چەکە ساختانەیان درووستکردووە.
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
زۆر توڕە دەبن ئەگەر هەست بکەن
بە هەڵە تۆمەتبار کراون
بە هەڵە تۆمەتبار کراون
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
بە درێژایی ماوەی یەکتر بینینەکە،
نەک ناوبەناو'
نەک ناوبەناو'
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
بەدرێژایی ئەو ماوەیە لە توڕەییا دەبن. و
10:52
And if you ask someone honest
256
637000
2000
ئەگەر لە کەسێکی ڕاستگۆ بپرسیت
10:54
what should happen to whomever did forge those checks,
257
639000
3000
پێویستە چی لە کەسێک بکرێت کە
ئەو چەکە ساختانەی دروستکردووە،
ئەو چەکە ساختانەی دروستکردووە،
10:57
an honest person is much more likely
258
642000
2000
کەسێکی ڕاستگۆ ئەگەری زیاترە
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
پێشنیاری سزایەکی قورس بکات
وەک لە سزایەکی سوک.
وەک لە سزایەکی سوک.
11:03
Now let's say you're having that exact same conversation
260
648000
2000
ئێستا با بڵێین ڕێک هەمان ئەو
گفتوگۆیەت دەبێت
گفتوگۆیەت دەبێت
11:05
with someone deceptive.
261
650000
2000
لەگەڵ کەسێکی هەڵخەڵەتێنەر.
11:07
That person may be withdrawn,
262
652000
2000
ئەو کەسە لەوانەیە کەمێک کزبێت،
11:09
look down, lower their voice,
263
654000
2000
سەیری خوارەوە بکات، دەنگی نزمکات،
11:11
pause, be kind of herky-jerky.
264
656000
2000
بووەستێت، کەمێک قسەناخۆش بێت.
11:13
Ask a deceptive person to tell their story,
265
658000
2000
داوا لە کەسێکی هەڵخەڵەتێنەر بکە
چیرۆکەکەیان بگێڕنەوە،
چیرۆکەکەیان بگێڕنەوە،
11:15
they're going to pepper it with way too much detail
266
660000
3000
وردەکاری زۆری پێوە دەکەن،
11:18
in all kinds of irrelevant places.
267
663000
3000
لە هەموو شوێنە ناپێویستەکاندا. و
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
هەروەها چیرۆکەکەشیان بە ڕیزبەندییەکی کاتی
ورد دەڵێنەوە. و
ورد دەڵێنەوە. و
11:24
And what a trained interrogator does
269
669000
2000
ئەوەی لێکۆڵەرەوەیەکی ڕاهێنانپێکراو دەیکات
11:26
is they come in and in very subtle ways
270
671000
2000
ئەوەیە کە یەن و بە چەند ڕێگایەکی
زۆر هێواش و بەدرێژایی چەند کاتژمێرێک
زۆر هێواش و بەدرێژایی چەند کاتژمێرێک
11:28
over the course of several hours,
271
673000
2000
11:30
they will ask that person to tell that story backwards,
272
675000
3000
داوا لە کەسەکە دەکەن چیرۆکەکەیان
بە پێچەوانەوە بگێڕنەوە، و
بە پێچەوانەوە بگێڕنەوە، و
11:33
and then they'll watch them squirm,
273
678000
2000
ئینجا سەیریان دەکەن
چۆن پێچ بەخۆیان دەدەن، و
چۆن پێچ بەخۆیان دەدەن، و
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
سەیرکە بزانە کام پرسیارانە بە
بەرزترین دەنگ وەڵام دەدەنەوە.
بەرزترین دەنگ وەڵام دەدەنەوە.
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
بۆچی ئەوە دەکەن؟
هەموومان هەمان شت دەکەین.
هەموومان هەمان شت دەکەین.
11:41
We rehearse our words,
276
686000
2000
درۆکان لەبەر دەکەین،
11:43
but we rarely rehearse our gestures.
277
688000
2000
بەڵام بە دەگمەن جوڵەی لەشمان لەبەردەکەین.
11:45
We say "yes," we shake our heads "no."
278
690000
2000
دەڵێین بەڵێ، و سەرمان ڕادەوەشێنین "نەخێر"
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
چیرۆکی زۆر قایلکەر دەگێڕینەوە،
کەمێک شانمان بەرزدەکەینەوە.
کەمێک شانمان بەرزدەکەینەوە.
11:50
We commit terrible crimes,
280
695000
2000
تاوانی قێزەون دەکەین، و
11:52
and we smile at the delight in getting away with it.
281
697000
3000
زەردەخەنە دەکەین لەبەر ئەوەی
بۆمان چووەتە سەر.
بۆمان چووەتە سەر.
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
ئەو زەردەخەنەیە لە جیهانی
کرداریدا بە "زەردەخەنەی هەڵخەڵەتاندن ناسراوە."
کرداریدا بە "زەردەخەنەی هەڵخەڵەتاندن ناسراوە."
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
لە چەند ڤیدیۆیەکی دواتریشدا ئەو شتە دەبینین،
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
بەڵام دەستپێدەکەین --
بۆ زۆرێک لە ئێوە کە نایناسن،
بۆ زۆرێک لە ئێوە کە نایناسن،
12:03
this is presidential candidate John Edwards
285
708000
3000
ئەمە پاڵێوراوی سەرۆکایەتی جۆن ئێدواردسە
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
کە ئەمریکای تاساند بە باوکایەتی کردنی
منداڵێک لە دەرەوەی هاوسەرگیریدا.
منداڵێک لە دەرەوەی هاوسەرگیریدا.
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
سەیری دەکەین کاتێک باسی ئەوە دەکات
چۆن پشکنینی باوکایەتی بۆ کراوە.
چۆن پشکنینی باوکایەتی بۆ کراوە.
12:12
See now if you can spot him
288
717000
2000
بزانن هەستی پێئەکەن کە دەڵێت
"بەڵێ" و سەریشی ڕائەوەشێنێت "نەخێر"
"بەڵێ" و سەریشی ڕائەوەشێنێت "نەخێر"
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
12:16
slightly shrugging his shoulders.
290
721000
2000
کەمێکیش شانی دەکاتەوە.
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
جۆن: دڵخۆش ئەبم ئەگەر بۆم بکرێت.
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
دەزانم کە ئەوە ناکرێت و لەوانەیە
ئەم مناڵە هی من بێت،
ئەم مناڵە هی من بێت،
12:23
because of the timing of events.
293
728000
2000
بەهۆی کاتی ڕووداوەکانەوە.
12:25
So I know it's not possible.
294
730000
2000
بۆیە ئەزانم شتی وا نابێت.
12:27
Happy to take a paternity test,
295
732000
2000
ئامادەم پشکنینی باوکایەتییەکە بکەم، و
پێمخۆش دەبێت ئەنجامدانی ببینم.
پێمخۆش دەبێت ئەنجامدانی ببینم.
12:29
and would love to see it happen.
296
734000
2000
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
بەنیازیت زوو ئەوە بکەیت؟
هیچ کەسێ: هەیە --
هیچ کەسێ: هەیە --
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
من یەک لایەنی ئەوەم.
من تەنیا یەک لایەنی پشکنینەکەم.
من تەنیا یەک لایەنی پشکنینەکەم.
12:37
But I'm happy to participate in one.
299
742000
3000
بەڵام دڵخۆش دەبم بەشداری
لە پشکنینێکی وادا بکەم.
لە پشکنینێکی وادا بکەم.
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
باشە، ئەو سەر ڕاوەشاندنانە
بینینی ئاسانترە
بینینی ئاسانترە
12:42
once you know to look for them.
301
747000
2000
ئەگەر بۆیان بگەڕێیت.
12:44
There're going to be times
302
749000
2000
جاری وا هەیە کاتێک کەسێک
دەربڕینێک دەکات
دەربڕینێک دەکات
12:46
when someone makes one expression
303
751000
2000
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
بۆ داپۆشینی دەربڕینێکی تر کە
لە چاوتروکاندنێکدا لێی دەرچووە.
لە چاوتروکاندنێکدا لێی دەرچووە.
12:52
Murderers are known to leak sadness.
305
757000
2000
بکوژەکان ناسراون بەوەی کە
دڵتەنگی لێیانەوە دزە ئەکات.
دڵتەنگی لێیانەوە دزە ئەکات.
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
هاوەڵە نوێکەت کە بەشداربووە لە سەرکێشییەکە
لەوانەیە تۆقەت لەگەڵکات،
لەوانەیە تۆقەت لەگەڵکات،
12:56
celebrate, go out to dinner with you
307
761000
2000
ئاهەنگ بگێڕێت، لەگەڵ بچێتە دەر و
ئینجا دەربڕینێکی توڕەیی دەرپەڕێنێت.
ئینجا دەربڕینێکی توڕەیی دەرپەڕێنێت.
12:58
and then leak an expression of anger.
308
763000
3000
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
کەسیشمان بە شەو و ڕۆژێک نابین
بە پسپۆڕی دەربڕینی دەم و چاو،
بە پسپۆڕی دەربڕینی دەم و چاو،
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
بەڵام یەکێک هەیە دەتوانم
فێرتان بکەم و زۆر مەترسیدارە و
فێرتان بکەم و زۆر مەترسیدارە و
13:07
and that's the expression of contempt.
311
772000
3000
فێربوونی ئاسانە، و
ئەویش دەربڕینی بە کەم سەیرکردنە.
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
لە توڕەییدا، دوو کەست هەیە
لە مەیدانێکی یاریکردنی یەکساندان.
لە مەیدانێکی یاریکردنی یەکساندان.
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
هێشتا تا ڕادەیەک پەیوەندییەکی تەندروستە.
13:15
But when anger turns to contempt,
314
780000
2000
بەڵام کاتێک توڕەیی دەبێت بە
بەکەم سەیرکردن، تۆ ڕەتکراویتەتەوە.
بەکەم سەیرکردن، تۆ ڕەتکراویتەتەوە.
13:17
you've been dismissed.
315
782000
2000
13:19
It's associated with moral superiority.
316
784000
2000
بەستراوەتەوە بە بەرزتری ڕەوشتی.
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
لەبەر ئەو هۆکارەش، چاکبوونەوە لێی
زۆر قورسە.
زۆر قورسە.
13:24
Here's what it looks like.
318
789000
2000
زیاتر لەمە دەچێت.
13:26
It's marked by one lip corner
319
791000
2000
نیشانەکەی بەرزبوونەوەی سووچێکی لێوەکانە
لەگەڵ چوونە ناوەوەی.
لەگەڵ چوونە ناوەوەی.
13:28
pulled up and in.
320
793000
2000
13:30
It's the only asymmetrical expression.
321
795000
3000
تەنیا دەربڕینی ناڕێکە. و
13:33
And in the presence of contempt,
322
798000
2000
لە هەبوونی بەکەم سەیرکردندا،
ئەگەر هەڵخەڵەتاندن بەدوایدا بێـ یان نا -- و
ئەگەر هەڵخەڵەتاندن بەدوایدا بێـ یان نا -- و
13:35
whether or not deception follows --
323
800000
2000
13:37
and it doesn't always follow --
324
802000
2000
هەمووکات بەدوایدا نایەت --
13:39
look the other way, go the other direction,
325
804000
2000
سەیری لاکەی تر بکە،
بە ئاراستەکەی تردا بڕۆ،
بە ئاراستەکەی تردا بڕۆ،
13:41
reconsider the deal,
326
806000
2000
بە ڕێکەوتنەکەیا بچۆرەوە،
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
بڵێ، "نا سوپاس. بۆ یەک خواردنەوەی
تری شەوانە نایەم. سوپاس."
تری شەوانە نایەم. سوپاس."
13:47
Science has surfaced
328
812000
2000
زانست چەندین ئاماژەی تری ئاشکراکردووە.
13:49
many, many more indicators.
329
814000
2000
13:51
We know, for example,
330
816000
2000
دەزانین بۆ نموونە،
13:53
we know liars will shift their blink rate,
331
818000
2000
دەزانین درۆزنەکان ڕێژەی
چاوتروکاندنیان دەگۆڕن،
چاوتروکاندنیان دەگۆڕن،
13:55
point their feet towards an exit.
332
820000
2000
ئاراستەی قاچیان بەرەو
شوێنی چوونەدەرەوە دەبێ.
شوێنی چوونەدەرەوە دەبێ.
13:57
They will take barrier objects
333
822000
2000
هەر شتێک وەک بەربەست بەکاربێت
دەێهێنن و
دەێهێنن و
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
لە نێوان خۆیان و ئەو کەسە دایدەنێن
کە قسەیان لەگەڵ دەکات.
کە قسەیان لەگەڵ دەکات.
14:02
They'll alter their vocal tone,
335
827000
2000
تۆنی دەنگیان دەگۆڕن،
14:04
often making their vocal tone much lower.
336
829000
3000
زۆربەی کات تۆنی دەنگیان
زۆر نزمتر دەکەنەوە.
زۆر نزمتر دەکەنەوە.
14:07
Now here's the deal.
337
832000
2000
ئێستا شتێکی تریش هەیە.
14:09
These behaviors are just behaviors.
338
834000
3000
ئەم ڕەفتارانە تەنیا ڕەفتارن.
14:12
They're not proof of deception.
339
837000
2000
بەڵگەی هەڵخەڵەتاندن نین.
14:14
They're red flags.
340
839000
2000
ئاڵای سورن.
14:16
We're human beings.
341
841000
2000
ئێمە مرۆڤین.
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
ڕۆژانە چەندین جار بێ ویستی خۆمان
ئەو جوڵانەی لەش دەکەین.
ئەو جوڵانەی لەش دەکەین.
14:21
They don't mean anything in and of themselves.
343
846000
2000
خۆیان بەتەنیا هیچ شتێک ناگەیەنن.
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
بەڵام کاتێک چەند نیشانەیەک
پێکەوە دەبینیت، ئەوە ئاماژەت دەداتێ.
پێکەوە دەبینیت، ئەوە ئاماژەت دەداتێ.
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
سەیرکە، گوێگرە، وردبەرەوە،
پرسیاری قورس بکە،
پرسیاری قورس بکە،
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
لەو دۆخە وەرە دەر کە پێتوابێت
هەموو شتێک دەزانیت،
هەموو شتێک دەزانیت،
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
بچۆرە دۆخی حەسرەتەوە،
پرسیاری زیاتر بکە،
پرسیاری زیاتر بکە،
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
کەمێک هەیبەت هەبێت، کەمێک بە
تێگەشتن و هەستەوە قسە لەگەڵ کەسەکە بکە.
تێگەشتن و هەستەوە قسە لەگەڵ کەسەکە بکە.
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
وەک ئەو کەسانەی زنجیرەی تەلەفزیۆنی
"لۆو ئان ئۆردەر" مەبن
"لۆو ئان ئۆردەر" مەبن
14:41
that pummel their subjects into submission.
350
866000
2000
کە بەزۆر وا لە ئامانجەکانیان دەکەن
خۆیان بەدەستەوە بن.
خۆیان بەدەستەوە بن.
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
زۆر توند و تیژ مەبە،
ئەوە سودی نابێت.
ئەوە سودی نابێت.
14:46
Now we've talked a little bit
352
871000
2000
ئێستا، کەمێک باسی ئەوەمان کرد
چۆن قسە لەگەڵ یەکێ بکەین کە درۆ ئەکات و
چۆن قسە لەگەڵ یەکێ بکەین کە درۆ ئەکات و
14:48
about how to talk to someone who's lying
353
873000
2000
14:50
and how to spot a lie.
354
875000
2000
چۆن بە درۆکە بزانین.
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
وەک بەڵێنیشم پێدان، ئێستا سەیر دەکەین
بزانین ڕاستییەکە لە چی دەچێت.
بزانین ڕاستییەکە لە چی دەچێت.
14:55
But I'm going to show you two videos,
356
880000
2000
بەڵام دوو ڤیدیۆتان نیشان ئەیەم،
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
دوو دایک -- یەکێکیان درۆ ئەکات،
یەکێکی تریان ڕاستی دەڵێت.
یەکێکی تریان ڕاستی دەڵێت.
15:00
And these were surfaced
358
885000
2000
ئەمانەش لەلایەن توێژەرەوە دەیڤد
ماتسومۆتۆوە بڵاوکرایەوە لە کالیفۆرنیا.
ماتسومۆتۆوە بڵاوکرایەوە لە کالیفۆرنیا.
15:02
by researcher David Matsumoto in California.
359
887000
2000
15:04
And I think they're an excellent example
360
889000
2000
پێشموابێت نموونەی زۆر باشن
بۆ ئەوەی ڕاستییەکە لەچی دەچێت.
بۆ ئەوەی ڕاستییەکە لەچی دەچێت.
15:06
of what the truth looks like.
361
891000
2000
15:08
This mother, Diane Downs,
362
893000
2000
ئەم دایکە، دایان داونس،
15:10
shot her kids at close range,
363
895000
2000
لە نزیکەوە تەقەی لە منداڵەکانی کرد،
15:12
drove them to the hospital
364
897000
2000
بەرەو نەخۆشخانە بردوونی کاتێک
خوێنیان لێڕۆشتووە لە ئوتومبێلەکەیا،
خوێنیان لێڕۆشتووە لە ئوتومبێلەکەیا،
15:14
while they bled all over the car,
365
899000
2000
وتوشێتی کە کەسێکی نەناسراو
ئەوەی کردووە.
ئەوەی کردووە.
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
15:18
And you'll see when you see the video,
367
903000
2000
کە ڤیدیۆکەشتان بینی دەبینن،
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
تەنانەت ناشتوانێت وا دەریبخات
دایکێکە جەرگی سوتاوە.
دایکێکە جەرگی سوتاوە.
15:22
What you want to look for here
369
907000
2000
ئەوەی پێویستە بۆی بگەڕێن
نەگونجانە زۆرەکەیە
نەگونجانە زۆرەکەیە
15:24
is an incredible discrepancy
370
909000
2000
15:26
between horrific events that she describes
371
911000
2000
لە نێوان ڕووداوە ناخۆشەکاندا کە باسی دەکات و
هەڵسوکەوتە زۆر لەسەرخۆکەیەتی.
هەڵسوکەوتە زۆر لەسەرخۆکەیەتی.
15:28
and her very, very cool demeanor.
372
913000
2000
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
ئەگەر لەنزیکیشەوە سەیریکەن، بەدرێژایی
ڤیدیۆکە زەردەخەنەی هەڵخەڵەتاندن دەبینن.
ڤیدیۆکە زەردەخەنەی هەڵخەڵەتاندن دەبینن.
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
دیان داونس:
شەوان کە چاوەکانم دائەخەم،
شەوان کە چاوەکانم دائەخەم،
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
دەبینم کریستی دەستی درێژدەکات بۆم
کاتێک شۆفێری ئەکەم، و
کاتێک شۆفێری ئەکەم، و
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
بەردەوام خوێن لەدەمی یەتە دەرەوە. و
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
ئەوەش -- لەوانەیە
بەتێپەڕبوونی کات نەمبێنێت --
بەتێپەڕبوونی کات نەمبێنێت --
15:43
but I don't think so.
378
928000
2000
بەڵام پێموانییە.
15:45
That bothers me the most.
379
930000
3000
ئەوەش لەهەمووی ناخۆشترە.
15:55
PM: Now I'm going to show you a video
380
940000
2000
ئێستا ڤیدیۆیەکتان پیشان ئەیەم
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
هی دایکێکی جەرگ سوتێنراوی ڕاستەقینە،
ئیرین رونیۆن،
ئیرین رونیۆن،
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
کە ڕووبەڕووی بکوژ و ئەشکەنجەدەری
کچەکەی دەبێتەوە لە دادگا.
کچەکەی دەبێتەوە لە دادگا.
16:03
Here you're going to see no false emotion,
383
948000
2000
لێرەیا هیچ هەستێکی ساختە نابینن،
16:05
just the authentic expression of a mother's agony.
384
950000
3000
تەنیا دەربڕینێکی ڕاستی
دایکێکی جەرگ سوتاو.
دایکێکی جەرگ سوتاو.
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
ئەم وتارەم نوسی
16:10
of the night you took my baby,
386
955000
2000
لە سێیەم ساڵیادی ئەو شەوەی
مناڵەکەت لێ بردم، و
مناڵەکەت لێ بردم، و
16:12
and you hurt her,
387
957000
2000
ئازارت یا، و
16:14
and you crushed her,
388
959000
2000
تێکت شکاند،
16:16
you terrified her until her heart stopped.
389
961000
4000
ئەشکەنجەت یا تا دڵی وەستا.
16:20
And she fought, and I know she fought you.
390
965000
3000
ئەویش بەرەنگارت بۆوە، و ئەزانم
کە بەرەنگارت بۆتەوە.
کە بەرەنگارت بۆتەوە.
16:23
But I know she looked at you
391
968000
2000
بەڵام ئەزانم کە بەو چاوە
قاوەییە سەرسوڕهێنەرانە سەیری کردویت، و
قاوەییە سەرسوڕهێنەرانە سەیری کردویت، و
16:25
with those amazing brown eyes,
392
970000
2000
16:27
and you still wanted to kill her.
393
972000
3000
تۆش هەر ویستوتە بیکوژیت. و
16:30
And I don't understand it,
394
975000
2000
لەوە تێناگەم، و
16:32
and I never will.
395
977000
3000
قەتیش لێی تێناگەم.
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
باشە، ئێستا هیچ گومان
لە ڕاستی ئەو هەستانە نییە.
لە ڕاستی ئەو هەستانە نییە.
16:39
Now the technology around what the truth looks like
397
984000
3000
ئێستا تەکنەلۆجیا بۆ زانینی ئەوەی
ڕاستییەکە لە چی دەچێت
ڕاستییەکە لە چی دەچێت
16:42
is progressing on, the science of it.
398
987000
3000
لە بەرەوپێشچووندایە، زانستەکەی پشتی.
16:45
We know for example
399
990000
2000
دەزانین، بۆ نموونە،
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
ئێستا پشکنەری تایبەتی جوڵەی چاو و
تیشکی ئینفرارێدی مێشکمان هەیە،
تیشکی ئینفرارێدی مێشکمان هەیە،
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
لەرینەوەی موغناتیزی دەتوانێت ئەو
ئاماژانە بدۆزێتەوە کە لەش دەریئەکات
ئاماژانە بدۆزێتەوە کە لەش دەریئەکات
16:53
when we're trying to be deceptive.
402
998000
2000
کاتێک هەوڵدەدەین هەڵخەڵەتێنەر بین.
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
ئەم تەکنەلۆجیایانەشمان هەمووی
پێدەفرۆشرێتەوە
پێدەفرۆشرێتەوە
16:58
as panaceas for deceit,
404
1003000
2000
وەک دەرمانی دژی هەڵخەڵەتاندن، و
17:00
and they will prove incredibly useful some day.
405
1005000
3000
ڕۆژێک دێت زۆر بەسوود بن.
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
بەڵام لەو کاتەدا پێویستە
لە خۆت بپرسیت:
لە خۆت بپرسیت:
17:05
Who do you want on your side of the meeting,
407
1010000
2000
دەتەوێت لەکاتی چاوپێکەوتنەکەدا
کێ لە لای تۆ بێت،
کێ لە لای تۆ بێت،
17:07
someone who's trained in getting to the truth
408
1012000
3000
کەسێک کە ڕاهێنراوە لە گەشتن
بە ڕاستییەکە
بە ڕاستییەکە
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
یان یەکێک کە ئامێرێکی هێڵکاری مێشکی
٤٠٠ پاوەندی دەهێنێت
٤٠٠ پاوەندی دەهێنێت
17:12
through the door?
410
1017000
2000
بەناو دەرگاکەیا؟
17:14
Liespotters rely on human tools.
411
1019000
4000
درۆ دۆزەرەوەکان پشت بە
ئامرازی مرۆیی دەبەستن.
ئامرازی مرۆیی دەبەستن.
17:18
They know, as someone once said,
412
1023000
2000
دەزانن، وەک جارێک کەسێک وتی،
17:20
"Character's who you are in the dark."
413
1025000
2000
کەسایەتیت ئەوەی ناو تاریکییەکەیە.
17:22
And what's kind of interesting
414
1027000
2000
ئەوەشی سەرنج ڕاکێشە ئەوەیە لەم سەردەمەیا
تاریکییەکی زۆر کەممان هەیە.
تاریکییەکی زۆر کەممان هەیە.
17:24
is that today we have so little darkness.
415
1029000
2000
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
جیهانەکەمان ٢٤ کاتژمێرە ڕووناکە.
17:29
It's transparent
417
1034000
2000
بەو هەموو بلۆگ و تۆڕە کۆمەڵایەتیانە
ڕۆشن کراوەتەوە
ڕۆشن کراوەتەوە
17:31
with blogs and social networks
418
1036000
2000
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
ژیانی ڕۆژانەی نەوەیەکی نوێی
خەڵک پیشان دەدەن
خەڵک پیشان دەدەن
17:35
that have made a choice to live their lives in public.
420
1040000
3000
کە بە ویستی خۆیان دەیانەوێت
ژیانەکەیان لەبەر چاوی خەڵک بەرنە سەر.
ژیانەکەیان لەبەر چاوی خەڵک بەرنە سەر.
17:38
It's a much more noisy world.
421
1043000
4000
جیهانێکی زۆر قەرەباڵغترە.
17:42
So one challenge we have
422
1047000
2000
کەواتە ململانێیەک کە پێویستە بیرمانبێت،
17:44
is to remember,
423
1049000
2000
17:46
oversharing, that's not honesty.
424
1051000
3000
زیاد لە پێویست هاوبەشکردنی خەڵک،
ئەوە ڕاستگۆیەتی نییە.
ئەوە ڕاستگۆیەتی نییە.
17:49
Our manic tweeting and texting
425
1054000
2000
ئەو هەموو پۆستکردن و بڵاوکردنەوەیە
دەکرێ کوێرمان بکات
دەکرێ کوێرمان بکات
17:51
can blind us to the fact
426
1056000
2000
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
بۆ ئەو ڕاستیەی کە جیاکەرەوەکانی
ڕەوشتجوانی مرۆڤ -- پتەوی کەسایەتی --
ڕەوشتجوانی مرۆڤ -- پتەوی کەسایەتی --
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
هێشتا ئەوە گرنگە،
هەمووکات ئەوە گرنگ دەبێت.
هەمووکات ئەوە گرنگ دەبێت.
17:59
So in this much noisier world,
429
1064000
2000
کەواتە لە جیهانێکی پڕ لە
ژاوەژاوەتردا،
ژاوەژاوەتردا،
18:01
it might make sense for us
430
1066000
2000
لەوانەیە ڕێیتێچێت بۆمان
18:03
to be just a little bit more explicit
431
1068000
2000
کەمێکی تر بە تەواوەتی پەیوەست بین
بە دەستوری ڕەوشتەکانەوە.
بە دەستوری ڕەوشتەکانەوە.
18:05
about our moral code.
432
1070000
3000
18:08
When you combine the science of recognizing deception
433
1073000
2000
کاتێک زانستی ناسینەوەی
هەڵخەڵەتاندن تێکەڵ دەکەیت
هەڵخەڵەتاندن تێکەڵ دەکەیت
18:10
with the art of looking, listening,
434
1075000
2000
لەگەڵ هونەری سەیرکردن، گوێگرتن،
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
خۆت ڕزگار دەکەیت لە بەشداربوون
لە درۆیەک.
لە درۆیەک.
18:15
You start up that path
436
1080000
2000
ئەو ڕێچکەیە هەڵدەبژێریت
کە کەمێک ڕوونتر بیت،
کە کەمێک ڕوونتر بیت،
18:17
of being just a little bit more explicit,
437
1082000
2000
18:19
because you signal to everyone around you,
438
1084000
2000
چونکە ئاماژە بۆ چواردەور دەنێریت،
18:21
you say, "Hey, my world, our world,
439
1086000
3000
دەڵێیت، "هێی، جیهانەکەم، جیهانەکەمان،
جیهانێکی ڕاستگۆیانە دەبێت.
جیهانێکی ڕاستگۆیانە دەبێت.
18:24
it's going to be an honest one.
440
1089000
2000
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
جیهانەکەم جیهانێک دەبێت کە
تیایدا ڕاستی بەهێز دەکرێت و
تیایدا ڕاستی بەهێز دەکرێت و
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
هەڵە دەناسرێتەوە و سنوردار دەکرێت."
18:31
And when you do that,
443
1096000
2000
کە ئەوەش دەکەیت،
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
زەوییەکەی چواردەورت دەست دەکات
بە کەمێک ڕێکبوونەوە.
بە کەمێک ڕێکبوونەوە.
18:36
And that's the truth. Thank you.
445
1101000
3000
ئەوەش ڕاستییەکەیە. زۆر سوپاس.
18:39
(Applause)
446
1104000
5000
(چەپڵەلێدان)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com