TEDGlobal 2011
Pamela Meyer: How to spot a liar
פמלה מאייר: איך לזהות שקרן
Filmed:
Readability: 3.8
28,415,176 views
בכל יום משקרים לנו בין 10 ל-200 פעמים, והסימנים לזיהוי השקרים יכולים להיות עדינים ומנוגדים לאינטואיציה. פמלה מאייר, מחברת הספר Liespotting ("זיהוי שקרים"), מציגה את הסגנון והאזורים הרגישים בהם משתמשים אלו שאומנו לזהות הונאה - וטוענת שכנות היא ערך ראוי לשימור.
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
טוב, אני לא רוצה להלחיץ אף אחד בחדר,
00:20
but it's just come to my attention
1
5000
2000
אבל בדיוק הובא לידיעתי
00:22
that the person to your right is a liar.
2
7000
2000
שהיושב לימינכם הוא שקרן.
00:24
(Laughter)
3
9000
2000
(צחוק)
00:26
Also, the person to your left is a liar.
4
11000
3000
וגם, האדם לשמאלכם הוא שקרן.
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
גם האדם שיושב בכסא שלך ממש הוא שקרן.
00:32
We're all liars.
6
17000
2000
כולנו שקרנים.
00:34
What I'm going to do today
7
19000
2000
מה שאני עומדת לעשות היום
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
הוא להראות לכם מה אומר המחקר לגבי הסיבה שכולנו שקרנים,
00:39
how you can become a liespotter
9
24000
2000
איך אפשר להפוך למזהה שקרים
00:41
and why you might want to go the extra mile
10
26000
3000
ומדוע תרצו להתאמץ קצת
00:44
and go from liespotting to truth seeking,
11
29000
3000
ולעבור מזיהוי שקרים לרדיפת אמת,
00:47
and ultimately to trust building.
12
32000
2000
ולבסוף, לבניית אמון.
00:49
Now speaking of trust,
13
34000
3000
אם מדברים על אמון,
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
מאז שכתבתי את הספר "זיהוי שקרים",
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
אף אחד לא רוצה להפגש איתי פנים אל פנים יותר. לא, לא, לא, לא, לא.
00:58
They say, "It's okay, we'll email you."
16
43000
3000
הם אומרים "זה בסדר, נשלח דוא"ל."
01:01
(Laughter)
17
46000
2000
(צחוק)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
אני אפילו לא יכולה להיפגש לקפה בסטארבקס.
01:07
My husband's like, "Honey, deception?
19
52000
2000
בעלי אומר "מותק, הונאה?
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
אולי היית צריכה להתמקד בבישול. אולי בישול צרפתי?"
01:12
So before I get started, what I'm going to do
21
57000
2000
אז לפני שאתחיל, מה שאעשה
01:14
is I'm going to clarify my goal for you,
22
59000
3000
הוא להבהיר את מטרתי בשבילכם,
01:17
which is not to teach a game of Gotcha.
23
62000
2000
והיא לא ללמד את משחק האמת והשקר.
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
מזהי שקרים אינם הילדים החטטניים האלו,
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
הילדים בקצה החדר שצועקים "תפסתי אותך!
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
הגבה שלך קפצה. הנחיר שלך התרחב.
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
אני צופה בתוכנית הטלוויזיה 'שקר לי'. אני יודע שאתה משקר."
01:30
No, liespotters are armed
28
75000
2000
לא, מזהי שקרים חמושים
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
בידע מדעי שמאפשר לזהות הונאה.
01:35
They use it to get to the truth,
30
80000
2000
הם משתמשים בידע זה כדי להגיע לאמת,
01:37
and they do what mature leaders do everyday;
31
82000
2000
ועושים מה שמנהיגים בוגרים עושים ביומיום;
01:39
they have difficult conversations with difficult people,
32
84000
3000
מנהלים שיחות קשות עם אנשים קשים,
01:42
sometimes during very difficult times.
33
87000
2000
לפעמים ברגעים קשים מאד.
01:44
And they start up that path
34
89000
2000
והם מתחילים לפסוע בשביל הזה
01:46
by accepting a core proposition,
35
91000
2000
בכך שהם מקבלים הנחה בסיסית
01:48
and that proposition is the following:
36
93000
2000
כדלהלן:
01:50
Lying is a cooperative act.
37
95000
3000
שקר הוא אקט משותף.
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
תחשבו על זה, לשקר אין שום כוח רק מעצם ביטויו.
01:57
Its power emerges
39
102000
2000
כוחו נובע
01:59
when someone else agrees to believe the lie.
40
104000
2000
מהסכמה של אדם אחר להאמין לשקר.
02:01
So I know it may sound like tough love,
41
106000
2000
אני יודעת שזה נשמע כמו אהבה נוקשה,
02:03
but look, if at some point you got lied to,
42
108000
4000
אבל תראו, אם בשלב כלשהו שיקרו לכם,
02:07
it's because you agreed to get lied to.
43
112000
2000
זה משום שהסכמתם שישקרו לכם.
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
אמת ראשונה לגבי שקרים: שקר הוא אקט משותף.
02:12
Now not all lies are harmful.
45
117000
2000
לא כל השקרים הם מזיקים.
02:14
Sometimes we're willing participants in deception
46
119000
3000
לפעמים אנחנו משתתפים בהסכמה בהונאה
02:17
for the sake of social dignity,
47
122000
3000
למען שמירה על אצילות חברתית,
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
אולי כדי לשמור סוד שצריך להישמר בסוד.
02:23
We say, "Nice song."
49
128000
2000
אנחנו אומרים "שיר נחמד".
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
"מותק, אתה לא נראה שמן בזה, לא."
02:28
Or we say, favorite of the digiratti,
51
133000
2000
או שאנחנו אומרים, זה אהוב על פריקים של מחשבים,
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
"את יודעת, בדיוק עכשיו מצאתי את הדוא"ל הזה בספאם.
02:33
So sorry."
53
138000
3000
מצטערת כל-כך."
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
אבל יש זמנים שאנחנו מסרבים לקחת חלק בהונאה.
02:39
And that can have dramatic costs for us.
55
144000
3000
ולעתים יש לזה השלכות דרמטיות עבורנו.
02:42
Last year saw 997 billion dollars
56
147000
3000
שנה שעברה נרשמו 997 מיליארד דולר
02:45
in corporate fraud alone in the United States.
57
150000
4000
בהונאה תאגידית בארה"ב לבדה.
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
זה קצת פחות מטריליון דולר.
02:51
That's seven percent of revenues.
59
156000
2000
זה שבעה אחוזים מהכנסות.
02:53
Deception can cost billions.
60
158000
2000
הונאה עשויה לעלות מיליארדים.
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
תחשבו על אנרון, מיידוף, משבר המשכנתאות.
02:58
Or in the case of double agents and traitors,
62
163000
3000
או במקרה של סוכנים כפולים ובוגדים,
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
כמו רוברט הנסן או אלדריך איימס,
03:03
lies can betray our country,
64
168000
2000
שקרים יכולים להוות בגידה במדינה שלך,
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
הם יכולים לסכן את הביטחון שלנו, הם יכולים לערער על דמוקרטיה,
03:08
they can cause the deaths of those that defend us.
66
173000
3000
הם יכולים לגרום למותם של אלו שמגנים עלינו.
03:11
Deception is actually serious business.
67
176000
3000
למעשה הונאה היא עסק רציני.
03:14
This con man, Henry Oberlander,
68
179000
2000
הנוכל הזה, הנרי אוברלנדר,
03:16
he was such an effective con man
69
181000
2000
היה נוכל כלכך יעיל
03:18
British authorities say
70
183000
2000
רשויות בריטיות אומרות
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
שהוא יכל לערער על כל המערכת הבנקאית בעולם המערבי.
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
ואי אפשר למצוא את הבחור הזה בגוגל, אי אפשר למצוא אותו בשום מקום.
03:25
He was interviewed once, and he said the following.
73
190000
3000
ראיינו אותו פעם, והוא אמר משהו,
03:28
He said, "Look, I've got one rule."
74
193000
2000
הוא אמר "תראה, יש לי חוק אחד."
03:30
And this was Henry's rule, he said,
75
195000
3000
וזה היה החוק של הנרי, הוא אמר:
03:33
"Look, everyone is willing to give you something.
76
198000
2000
"תראה, כולם מוכנים לתת לך משהו.
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
הם מוכנים לתת לך משהו בעבור מה שהם חושקים בו, מה שזה לא יהיה".
03:38
And that's the crux of it.
78
203000
2000
וזאת המהות של הכל.
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
אם אינכם רוצים שישקרו לכם, עליכם לדעת,
03:42
what is it that you're hungry for?
80
207000
2000
במה אתם חושקים?
03:44
And we all kind of hate to admit it.
81
209000
3000
וכולנו די שונאים להודות בזה.
03:47
We wish we were better husbands, better wives,
82
212000
3000
היינו רוצים להיות בני זוג טובים יותר,
03:50
smarter, more powerful,
83
215000
2000
חכמים יותר, בעלי כוח רב יותר,
03:52
taller, richer --
84
217000
2000
גבוהים יותר, עשירים יותר-
03:54
the list goes on.
85
219000
2000
הרשימה הולכת ומתארכת.
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
שקר הוא ניסיון לגשר על הפער הזה,
03:58
to connect our wishes and our fantasies
87
223000
2000
לחבר בין המאוויים והפנטזיות שלנו
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
לגבי מי שהיינו רוצים להיות, איך שהיינו רוצים להיות,
04:03
with what we're really like.
89
228000
3000
עם מה שאנחנו באמת.
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
וכמה שאנחנו מוכנים למלא את הפערים בחיינו בשקרים.
04:09
On a given day, studies show that you may be lied to
91
234000
3000
ביום נתון, מחקר מראה שיתכן וישקרו לך
04:12
anywhere from 10 to 200 times.
92
237000
2000
בין 10 ל-200 פעמים.
04:14
Now granted, many of those are white lies.
93
239000
3000
קחו בחשבון שחלק מאלו הם שקרים לבנים.
04:17
But in another study,
94
242000
2000
אבל על פי מחקר אחר,
04:19
it showed that strangers lied three times
95
244000
2000
זרים משקרים שלוש פעמים
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
ב-10 הדקות הראשונות מרגע הפגישה.
04:23
(Laughter)
97
248000
2000
(צחוק)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
כשאנחנו שומעים על זה, אנחנו נרתעים מאד.
04:28
We can't believe how prevalent lying is.
99
253000
2000
קשה לנו להאמין כמה שקרים הם נפוצים.
04:30
We're essentially against lying.
100
255000
2000
אנחנו נגד שקרים באופן מהותי.
04:32
But if you look more closely,
101
257000
2000
אבל אם תסתכלו יותר מקרוב,
04:34
the plot actually thickens.
102
259000
2000
העלילה מסתבכת.
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
אנחנו משקרים יותר לזרים מאשר לעמיתים.
04:39
Extroverts lie more than introverts.
104
264000
4000
אנשים מוחצנים משקרים יותר מאשר מופנמים.
04:43
Men lie eight times more about themselves
105
268000
3000
גברים משקרים פי שמונה לגבי עצמם
04:46
than they do other people.
106
271000
2000
מאשר לגבי אנשים אחרים.
04:48
Women lie more to protect other people.
107
273000
3000
נשים משקרות יותר כדי להגן על אחרים.
04:51
If you're an average married couple,
108
276000
3000
אם אתם זוג נשוי ממוצע,
04:54
you're going to lie to your spouse
109
279000
2000
אתם תשקרו לבן/ בת הזוג שלכם
04:56
in one out of every 10 interactions.
110
281000
2000
באחת מתוך 10 אינטראקציות.
04:58
Now you may think that's bad.
111
283000
2000
אולי תחשבו שזה לא טוב.
05:00
If you're unmarried, that number drops to three.
112
285000
2000
אם אתם לא נשואים, המספר הזה יורד לאחת משלוש.
05:02
Lying's complex.
113
287000
2000
שקרים הם דבר מסובך.
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
הם שזורים במרקם החיים והעסקים היומיומי שלנו.
05:07
We're deeply ambivalent about the truth.
115
292000
2000
אנחנו אמביוולנטיים מאד לגבי האמת.
05:09
We parse it out on an as-needed basis,
116
294000
2000
אנחנו משתמשים בו על בסיס הצורך,
05:11
sometimes for very good reasons,
117
296000
2000
לפעמים מסיבות טובות מאד,
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
לפעמים פשוט בגלל שאנחנו לא מבינים את הפערים בחיים שלנו.
05:16
That's truth number two about lying.
119
301000
2000
זו האמת השנייה לגבי שקרים.
05:18
We're against lying,
120
303000
2000
אנחנו נגד שקרים,
05:20
but we're covertly for it
121
305000
2000
אבל בסודי סודות אנחנו בעדם
05:22
in ways that our society has sanctioned
122
307000
2000
בדרכים שהחברה שלנו מעודדת
05:24
for centuries and centuries and centuries.
123
309000
2000
מאות על מאות של שנים.
05:26
It's as old as breathing.
124
311000
2000
השקר הוא עתיק כמו נשימה.
05:28
It's part of our culture, it's part of our history.
125
313000
2000
הוא חלק מהתרבות שלנו, חלק מההיסטוריה.
05:30
Think Dante, Shakespeare,
126
315000
3000
תחשבו על דנטה, תחשבו על שייקספיר,
05:33
the Bible, News of the World.
127
318000
3000
התנ"ך, הצהובון ניוז אוב דה וורלד.
05:36
(Laughter)
128
321000
2000
(צחוק)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
לשקר יש ערך אבולוציוני עבורנו כמין.
05:40
Researchers have long known
130
325000
2000
חוקרים יודעים מזמן
05:42
that the more intelligent the species,
131
327000
2000
שככל שהאינטליגנציה של המין גבוהה יותר,
05:44
the larger the neocortex,
132
329000
2000
ככל שהנאוקורטקס (קליפת המוח החדשה) גדול,
05:46
the more likely it is to be deceptive.
133
331000
2000
גוברת הסבירות שלו להיות רמאי.
05:48
Now you might remember Koko.
134
333000
2000
אולי אתם זוכרים את קוקו.
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
מישהו זוכר את קוקו הגורילה שלימדו אותה שפת סימנים?
05:53
Koko was taught to communicate via sign language.
136
338000
3000
לימדו את קוקו לתקשר באמצעות שפת סימנים.
05:56
Here's Koko with her kitten.
137
341000
2000
הנה קוקו עם החתולה שלה.
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
זוהי החתלתולה הקטנה, החמודה והרכה שלה.
06:01
Koko once blamed her pet kitten
139
346000
2000
קוקו פעם האשימה את החתלתולה שלה
06:03
for ripping a sink out of the wall.
140
348000
2000
בכך שתלשה כיור מהקיר.
06:05
(Laughter)
141
350000
2000
(צחוק)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
אנחנו מחווטים להיות מנהיגי הקבוצה.
06:09
It's starts really, really early.
143
354000
2000
זה מתחיל מאד מאד מוקדם.
06:11
How early?
144
356000
2000
כמה מוקדם?
06:13
Well babies will fake a cry,
145
358000
2000
ובכן, תינוקות יזייפו בכי,
06:15
pause, wait to see who's coming
146
360000
2000
יחכו, יראו מי מגיע
06:17
and then go right back to crying.
147
362000
2000
ויחזרו לבכות.
06:19
One-year-olds learn concealment.
148
364000
2000
תינוקות בני שנה לומדים להסתיר את האמת.
06:21
(Laughter)
149
366000
2000
(צחוק)
06:23
Two-year-olds bluff.
150
368000
2000
בני שנתיים מבלפים.
06:25
Five-year-olds lie outright.
151
370000
2000
בני חמש משקרים במצח נחושה.
06:27
They manipulate via flattery.
152
372000
2000
הם עושים מניפולציות על ידי חנופה.
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
בני תשע, אמני הסתרת האמת.
06:32
By the time you enter college,
154
377000
2000
עד שאתה הולך למכללה,
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
אתה תשקר לאמא שלך באחת מתוך חמש אינטראקציות.
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
כשמגיע הזמן להיכנס לעולם העבודה ולהפוך למפרנסים,
06:40
we enter a world that is just cluttered
157
385000
2000
אנחנו נכנסים לעולם שפשוט מוצף
06:42
with spam, fake digital friends,
158
387000
2000
בספאם, בחברים דיגיטליים מזויפים,
06:44
partisan media,
159
389000
2000
מדיה פרטיזנית,
06:46
ingenious identity thieves,
160
391000
2000
גנבי זהות מחוכמים,
06:48
world-class Ponzi schemers,
161
393000
2000
גנבי ממון והונאות פונזי ברמה עולמית,
06:50
a deception epidemic --
162
395000
2000
מגיפה של הונאה-
06:52
in short, what one author calls
163
397000
2000
בקיצור, מה שקורא לה סופר אחד,
06:54
a post-truth society.
164
399000
3000
חברת פוסט-אמת.
06:57
It's been very confusing
165
402000
2000
זה הפך להיות מאד מבלבל
06:59
for a long time now.
166
404000
3000
כבר מזמן.
07:03
What do you do?
167
408000
2000
מה עושים?
07:05
Well there are steps we can take
168
410000
2000
ובכן, יש מספר צעדים שאפשר לנקוט בהם
07:07
to navigate our way through the morass.
169
412000
2000
כדי לנווט את דרכנו בביצה.
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
מזהי שקרנים מאומנים מגיעים לאמת 90 אחוז מהזמן.
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
כל השאר, אנחנו מדייקים רק ב 54 אחוז.
07:15
Why is it so easy to learn?
172
420000
2000
למה כלכך קל ללמוד?
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
יש שקרנים טובים ושקרנים רעים. אין שקרנים מקוריים אמיתיים.
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
כולנו עושים את אותן הטעויות. משתמשים באותן טכניקות.
07:23
So what I'm going to do
175
428000
2000
אז מה שאני הולכת לעשות
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
זה להראות לכם שני דפוסים של הונאה.
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
ואז אנחנו נסתכל על האזורים הרגישים ונסתכל אם אנחנו מוצאים אותם בעצמנו.
07:30
We're going to start with speech.
178
435000
3000
נתחיל בצורת הדיבור.
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
(ווידאו) ביל קלינטון: אני רוצה שתקשיב לי.
07:35
I'm going to say this again.
180
440000
2000
אני אגיד את זה שוב.
07:37
I did not have sexual relations
181
442000
3000
אני לא קיימתי יחסים מיניים
07:40
with that woman, Miss Lewinsky.
182
445000
4000
עם האישה הזו, גברת לווינסקי.
07:44
I never told anybody to lie,
183
449000
2000
מעולם לא אמרתי לאף אחד לשקר,
07:46
not a single time, never.
184
451000
2000
אף לא פעם אחת, מעולם.
07:48
And these allegations are false.
185
453000
3000
וההאשמות האלו הן שקריות.
07:51
And I need to go back to work for the American people.
186
456000
2000
ואני צריך לחזור לעבוד עבור העם האמריקאי.
07:53
Thank you.
187
458000
2000
תודה לכם.
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
פמלה מאייר: אוקיי, מהם הסימנים המזהים?
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
ראשית שמענו את מה שמוכר כהכחשה מורחבת.
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
מחקרים מראים שאנשים שמראים נחישות יתר בהכחשה שלהם
08:08
will resort to formal rather than informal language.
191
473000
3000
יפנו לשפה פורמלית יותר.
08:11
We also heard distancing language: "that woman."
192
476000
3000
גם שמענו שפה שמרחיקה את הנושא: "האישה הזאת".
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
אנו יודעים ששקרנים ירחיקו עצמם באופן לא מודע
08:16
from their subject
194
481000
2000
מהסובייקט שלהם
08:18
using language as their tool.
195
483000
3000
על ידי שימוש בשפה.
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
אם ביל קלינטון היה אומר, "טוב, לומר לך את האמת..."
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
או האהוב על ריצ'ארד ניקסון, "בגילוי לב... "
08:26
he would have been a dead giveaway
198
491000
2000
הוא היה נותן רמז שחשוף בקלות
08:28
for any liespotter than knows
199
493000
2000
לכל מזהה שקרים שיודע
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
ששפה מסויגת, כפי שקוראים לה, שפה מסוגיית כזו,
08:33
further discredits the subject.
201
498000
2000
מטילה עוד ספק על אמיתות הדברים.
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
אם הוא היה חוזר על השאלה כולה,
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
או אם היה מטבל את העדות שלו עם יותר מדי פרטים-
08:42
and we're all really glad he didn't do that --
204
507000
2000
ואנחנו מאד שמחים שהוא לא עשה את זה-
08:44
he would have further discredited himself.
205
509000
2000
הוא היה מטיל עוד ספק על דבריו.
08:46
Freud had it right.
206
511000
2000
פרויד צדק.
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
פרויד אמר, תראו, יש הרבה מעבר למילים.
08:51
"No mortal can keep a secret.
208
516000
3000
"אין בן תמותה שיכול לשמור סוד.
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
אם השפתיים שלו שותקות, הוא מפטפט בקצות האצבעות שלו".
08:57
And we all do it no matter how powerful you are.
210
522000
3000
וכולנו עושים את זה, לא משנה כמה חזקים אתם.
09:00
We all chatter with our fingertips.
211
525000
2000
כולנו מפטפטים עם קצות האצבעות שלנו.
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
אני אראה לכם את דומיניק שטראוס-קאהן עם אובמה
09:05
who's chattering with his fingertips.
213
530000
3000
שמפטפט בקצות האצבעות שלו.
09:08
(Laughter)
214
533000
3000
(צחוק)
09:11
Now this brings us to our next pattern,
215
536000
3000
זה מביא אותנו לדפוס הבא,
09:14
which is body language.
216
539000
3000
שפת גוף.
09:17
With body language, here's what you've got to do.
217
542000
3000
עם שפת גוף, זה מה שצריך לעשות.
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
צריך פשוט להשאיר את ההנחות בצד.
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
תנו למדע לבלבל לכם את הידע קצת.
09:25
Because we think liars fidget all the time.
220
550000
3000
אנחנו חושבים ששקרנים קופצים כל הזמן.
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
אז נחשו מה, ידוע שהם מקפיאים את פלג הגוף העליון כשהם משקרים.
09:31
We think liars won't look you in the eyes.
222
556000
3000
אנחנו חושבים ששקרנים לא יסתכלו לנו בעיניים.
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
נחשו מה, הם מסתכלים לכם בעיניים קצת יותר מדי
09:36
just to compensate for that myth.
224
561000
2000
רק כדי לפצות על המיתוס.
09:38
We think warmth and smiles
225
563000
2000
אנחנו חושבים שחום וחיוכים
09:40
convey honesty, sincerity.
226
565000
2000
מביעים כנות, יושר.
09:42
But a trained liespotter
227
567000
2000
מזהה שקרים מיומן
09:44
can spot a fake smile a mile away.
228
569000
2000
יכול לזהות חיוך מזויף מקילומטר.
09:46
Can you all spot the fake smile here?
229
571000
3000
כולם יכולים לזהות את החיוך המזויף כאן?
09:50
You can consciously contract
230
575000
2000
אתם יכולים לכווץ במודע
09:52
the muscles in your cheeks.
231
577000
3000
את השרירים בלחיים.
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
אבל החיוך האמתי הוא בעיניים, בקמטי העיניים.
09:58
They cannot be consciously contracted,
233
583000
2000
אי אפשר לכווץ אותם בצורה מודעת,
10:00
especially if you overdid the Botox.
234
585000
2000
במיוחד אם הגזמתם עם הבוטוקס.
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
אל תגזימו עם הבוטוקס, אף אחד לא יאמין לכם.
10:05
Now we're going to look at the hot spots.
236
590000
2000
עכשיו נסתכל על האזורים הרגישים.
10:07
Can you tell what's happening in a conversation?
237
592000
2000
אתם יכולים להבין מה קורה בשיחה?
10:09
Can you start to find the hot spots
238
594000
3000
אתם יכולים להתחיל למצוא את האזורים הרגישים?
10:12
to see the discrepancies
239
597000
2000
כדי לראות את הסתירות
10:14
between someone's words and someone's actions?
240
599000
2000
בין המילים של אדם לפעולותיו?
10:16
Now I know it seems really obvious,
241
601000
2000
אני יודעת שזה נראה מובן מאליו,
10:18
but when you're having a conversation
242
603000
2000
אבל כשאתם מנהלים שיחה
10:20
with someone you suspect of deception,
243
605000
3000
עם מישהו שאתם חושדים בכנותו,
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
גישה היא האינדיקטור שהכי מתעלמים ממנו, למרות חשיבותו.
10:26
An honest person is going to be cooperative.
245
611000
2000
אדם כנה ישתף פעולה.
10:28
They're going to show they're on your side.
246
613000
2000
הוא יראה שהוא בצד שלך.
10:30
They're going to be enthusiastic.
247
615000
2000
הוא יתלהב.
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
הוא יהיה מוכן לסייע לך להגיע לאמת.
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
הוא יהיה מוכן להציע רעיונות, להצביע על חשודים,
10:37
provide details.
250
622000
2000
לספק מידע.
10:39
They're going to say, "Hey,
251
624000
2000
הם יגידו, "היי
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
אולי אלו האנשים במדור חשבונות שזייפו את הצ'קים."
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
הם יזעמו אם הם חשים שהם מואשמים על לא-עוול בכפם.
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
במהלך כל הראיון, ולא רק בהבזקים,
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
הם יזעמו במהלך הראיון כולו.
10:52
And if you ask someone honest
256
637000
2000
ואם שואלים אדם ישר
10:54
what should happen to whomever did forge those checks,
257
639000
3000
מה צריך לעשות למי שזייף את הצ'קים,
10:57
an honest person is much more likely
258
642000
2000
אדם ישר יענה קרוב לוודאי
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
שנדרש עונש מחמיר ולא מרחם.
11:03
Now let's say you're having that exact same conversation
260
648000
2000
בואו נניח שאנחנו מנהלים את אותה השיחה בדיוק
11:05
with someone deceptive.
261
650000
2000
עם מישהו שמרמה ומטעה.
11:07
That person may be withdrawn,
262
652000
2000
האדם הזה יהיה מסויג,
11:09
look down, lower their voice,
263
654000
2000
יביט מטה, ינמיך את קולו,
11:11
pause, be kind of herky-jerky.
264
656000
2000
יעצור, יהיה קופצני כזה.
11:13
Ask a deceptive person to tell their story,
265
658000
2000
אם תבקשו מאדם שמרמה לספר את הסיפור שלו,
11:15
they're going to pepper it with way too much detail
266
660000
3000
הוא יתבל אותו עם הרבה יותר מידע ממה שנחוץ
11:18
in all kinds of irrelevant places.
267
663000
3000
בכל מני מקומות לא נחוצים.
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
הם יספרו את הסיפור שלהם בסדר כרונולוגי מוקפד.
11:24
And what a trained interrogator does
269
669000
2000
ומה שעושה חוקר מיומן
11:26
is they come in and in very subtle ways
270
671000
2000
כשהוא נכנס ובצורה מאד עדינה
11:28
over the course of several hours,
271
673000
2000
במהלך מספר שעות,
11:30
they will ask that person to tell that story backwards,
272
675000
3000
הוא יבקש מאותו אדם לספר את הסיפור מהסוף להתחלה,
11:33
and then they'll watch them squirm,
273
678000
2000
ואז יראה אותו מתפתל,
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
ויזהה אלו שאלות מפיקות את האמירות המטעות בהיקף הגדול ביותר.
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
למה הם עושים את זה? כולנו עושים את אותו הדבר.
11:41
We rehearse our words,
276
686000
2000
אנחנו עושים חזרות על המילים שלנו,
11:43
but we rarely rehearse our gestures.
277
688000
2000
אבל אנחנו לעתים רחוקות חוזרים על התנועות שלנו.
11:45
We say "yes," we shake our heads "no."
278
690000
2000
אנחנו אומרים "כן", מנענעים ראשנו ל"לא".
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
אנחנו מספרים סיפורים משכנעים מאד, אנחנו מושכים בכתפיים מעט.
11:50
We commit terrible crimes,
280
695000
2000
אנחנו מבצעים פשעים איומים,
11:52
and we smile at the delight in getting away with it.
281
697000
3000
ומחייכים בעונג שאיננו נתפסים.
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
החיוך הזה ידוע בעסק שלנו כ"עונג מטעה".
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
ונראה את זה בכמה קטעי וידאו בהמשך,
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
אבל נתחיל- לאלו מכם שלא מכירים אותו,
12:03
this is presidential candidate John Edwards
285
708000
3000
זהו המועמד הנשיאותי ג'ון אדוורדס
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
שהדהים את אמריקה בכך שהיה אב לילד מחוץ לנישואין.
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
אנחנו נראה אותו מדבר על ביצוע בדיקת אבהות.
12:12
See now if you can spot him
288
717000
2000
עכשיו תראו אם אתם יכולים לזהות אותו
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
אומר "כן", בזמן שהוא מניע את הראש לאות "לא",
12:16
slightly shrugging his shoulders.
290
721000
2000
קצת מושך בכתפיים.
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
(וידאו) ג'ון אדוורדס: אני אשמח לקחת חלק באחת.
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
אני יודע שזה לא אפשרי שהילד הזה הוא שלי,
12:23
because of the timing of events.
293
728000
2000
בגלל התזמון של האירועים.
12:25
So I know it's not possible.
294
730000
2000
אז אני יודע שזה לא אפשרי.
12:27
Happy to take a paternity test,
295
732000
2000
אשמח לעבור בדיקת אבהות,
12:29
and would love to see it happen.
296
734000
2000
והייתי שמח לראות את זה קורה.
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
מראיין: אתה הולך לעבור אחת בקרוב? האם יש מישהו-
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
ג'.א: ובכן, אני רק צד אחד. אני רק צד אחד של הבדיקה.
12:37
But I'm happy to participate in one.
299
742000
3000
אבל אשמח לקחת חלק בבדיקה.
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
פ.מ: אוקיי, תנודות הראש הן קלות הרבה יותר לזיהוי
12:42
once you know to look for them.
301
747000
2000
ברגע שיודעים לחפש אותן.
12:44
There're going to be times
302
749000
2000
יהיו רגעים
12:46
when someone makes one expression
303
751000
2000
שמישהו יעשה הבעה אחת
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
שמסווה אחרת, והיא רק זולגת החוצה בהבזק.
12:52
Murderers are known to leak sadness.
305
757000
2000
ידוע שרוצחים מזילים עצבות.
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
השותף העסקי החדש שלך אולי לוחץ לך את היד,
12:56
celebrate, go out to dinner with you
307
761000
2000
חוגג, יוצא איתך לארוחת ערב
12:58
and then leak an expression of anger.
308
763000
3000
ואז תזלוג לו הבעה של כעס.
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
אנחנו לא נהפוך כולנו למומחים להבעות פנים בן לילה,
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
אבל יש אחת שאני אלמד אותכם שהיא מסוכנת מאד, וקלה ללמידה,
13:07
and that's the expression of contempt.
311
772000
3000
וזו ההבעה של בוז.
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
בכעס, יש לך שני אנשים בזירת משחק שווה.
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
זוהי עדיין מערכת יחסים בריאה באופן כלשהו.
13:15
But when anger turns to contempt,
314
780000
2000
אבל כשכעס הופך לבוז,
13:17
you've been dismissed.
315
782000
2000
אתה יצאת מהמשחק.
13:19
It's associated with moral superiority.
316
784000
2000
זה מתקשר לעליונות מוסרית.
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
ומכיוון שכך, קשה מאד מאד להחלים מזה.
13:24
Here's what it looks like.
318
789000
2000
ככה זה נראה.
13:26
It's marked by one lip corner
319
791000
2000
זה מסומן בזווית אחת של השפה
13:28
pulled up and in.
320
793000
2000
שמשוכה למעלה ופנימה.
13:30
It's the only asymmetrical expression.
321
795000
3000
זוהי ההבעה הא-סימטרית היחידה.
13:33
And in the presence of contempt,
322
798000
2000
ובנוכחותו של בוז,
13:35
whether or not deception follows --
323
800000
2000
בין אם אחריו מגיעה מרמה-
13:37
and it doesn't always follow --
324
802000
2000
והיא לא תמיד מגיעה-
13:39
look the other way, go the other direction,
325
804000
2000
פנה לצד השני, לך לכיוון האחר,
13:41
reconsider the deal,
326
806000
2000
תחשוב שוב על העסקה,
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
תגיד "לא תודה. אני לא עולה לעוד כוסית. תודה"
13:47
Science has surfaced
328
812000
2000
המדע חשף
13:49
many, many more indicators.
329
814000
2000
סממנים נוספים רבים מאד.
13:51
We know, for example,
330
816000
2000
אנחנו יודעים, לדוגמה,
13:53
we know liars will shift their blink rate,
331
818000
2000
אנחנו יודעים ששקרנים משנים את קצב המצמוץ שלהם,
13:55
point their feet towards an exit.
332
820000
2000
מכוונים את רגליהם לכיוון היציאה.
13:57
They will take barrier objects
333
822000
2000
הם ייקחו חפצים חוצצים
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
ויציבו אותם בינם לבין המראיין.
14:02
They'll alter their vocal tone,
335
827000
2000
הם ישנו את טון הקול שלהם,
14:04
often making their vocal tone much lower.
336
829000
3000
לעתים קרובות יהפכו את הטון לנמוך הרבה יותר.
14:07
Now here's the deal.
337
832000
2000
הנה הקטע,
14:09
These behaviors are just behaviors.
338
834000
3000
ההתנהגויות האלו הן רק התנהגויות.
14:12
They're not proof of deception.
339
837000
2000
הן לא מוכיחות מרמה.
14:14
They're red flags.
340
839000
2000
הן דגלים אדומים.
14:16
We're human beings.
341
841000
2000
אנחנו בני אנוש.
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
אנחנו מנפנפים בתנועות של מרמה לכל כיוון כל היום.
14:21
They don't mean anything in and of themselves.
343
846000
2000
אין להן שום משמעות לכשעצמן.
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
אבל כשרואים מקבצים שלהן, זה הסימן שלך.
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
תסתכלו, תקשיבו, תחקרו, תשאלו שאלות קשות,
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
צאו מהמצב של ידיעה נוחה,
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
כנסו לעמדה של סקרנות, שאלו שאלות נוספות,
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
סגלו קצת הגינות, התייחסו לבן השיחה שלכם באהדה.
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
אל תנסו להיות כמו החבר'ה האלה ב"חוק וסדר" ובסדרות הטלוויזיה האלו
14:41
that pummel their subjects into submission.
350
866000
2000
שחובטים באחרים עד כניעתם.
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
אל תהיו אגרסיביים מדי, זה לא עובד.
14:46
Now we've talked a little bit
352
871000
2000
דיברנו קצת
14:48
about how to talk to someone who's lying
353
873000
2000
על אין לדבר עם מישהו שמשקר
14:50
and how to spot a lie.
354
875000
2000
ואיך לזהות שקר.
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
כפי שהבטחתי, אנחנו נדבר על איך נראית האמת.
14:55
But I'm going to show you two videos,
356
880000
2000
אבל אראה לכם שני קטעי ווידאו,
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
שתי אמהות- אחת משקרת, אחת דוברת אמת.
15:00
And these were surfaced
358
885000
2000
ואלו עלו על פני השטח
15:02
by researcher David Matsumoto in California.
359
887000
2000
בעזרת החוקר דוויד מטצומוטו בקליפורניה.
15:04
And I think they're an excellent example
360
889000
2000
ואני חושבת שהן דוגמאות מעולות
15:06
of what the truth looks like.
361
891000
2000
של איך נראית האמת.
15:08
This mother, Diane Downs,
362
893000
2000
האמא הזו, דיאן דאונס,
15:10
shot her kids at close range,
363
895000
2000
ירתה בילדים שלה מטווח אפס,
15:12
drove them to the hospital
364
897000
2000
הסיעה אותם לבית החולים
15:14
while they bled all over the car,
365
899000
2000
בזמן שהם דיממו באוטו,
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
וטענה שזר סתור-שיער עשה את זה.
15:18
And you'll see when you see the video,
367
903000
2000
ותראו כשתסכלו על הווידאו,
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
היא אפילו לא יכולה לזייף כאילו היא אם מיוסרת.
15:22
What you want to look for here
369
907000
2000
מה שאתם רוצים לחפש פה
15:24
is an incredible discrepancy
370
909000
2000
היא סתירה בלתי אפשרית
15:26
between horrific events that she describes
371
911000
2000
בין האירועים המחרידים שהיא מתארת
15:28
and her very, very cool demeanor.
372
913000
2000
לבין המזג הקר מאד שלה.
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
ואם תסתכלו מקרוב, תוכלו לראות "עונג מטעה" במהלך הקטע.
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
(וידאו) דיאן דאונס: בלילה כשאני עוצמת את העיניים,
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
אני יכולה לראות את קריסטי מושיטה יד אלי בזמן שאני נוהגת,
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
והדם פשוט ממשיך לצאת לה מהפה.
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
וזה- אולי גם זה ידהה עם הזמן-
15:43
but I don't think so.
378
928000
2000
אבל אני לא חושבת.
15:45
That bothers me the most.
379
930000
3000
זה הכי מפריע לי.
15:55
PM: Now I'm going to show you a video
380
940000
2000
פ.מ: עכשיו אראה לכם ווידאו
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
של אם שכולה אמתית, ארין רניון,
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
שמתעמתת עם מי שרצח ועינה את ביתה בבית משפט.
16:03
Here you're going to see no false emotion,
383
948000
2000
פה לא תראו שום רגש מזויף,
16:05
just the authentic expression of a mother's agony.
384
950000
3000
רק את הביטוי הכנה של יגון של אמא.
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
(וידאו) ארין רניון: כתבתי את ההצהרה הזו ביום השנה השלישי
16:10
of the night you took my baby,
386
955000
2000
של הלילה שבו לקחת את התינוקת שלי,
16:12
and you hurt her,
387
957000
2000
והכאבת לה,
16:14
and you crushed her,
388
959000
2000
ומחצת אותה,
16:16
you terrified her until her heart stopped.
389
961000
4000
והפחדת אותה עד שהלב שלה הפסיק לפעום.
16:20
And she fought, and I know she fought you.
390
965000
3000
והיא נאבקה, אני יודעת שהיא נאבקה בך.
16:23
But I know she looked at you
391
968000
2000
אבל אני יודעת שהיא הסתכלה אליך
16:25
with those amazing brown eyes,
392
970000
2000
בעיניים החומות המדהימות האלו,
16:27
and you still wanted to kill her.
393
972000
3000
ועדיין רצית להרוג אותה.
16:30
And I don't understand it,
394
975000
2000
ואני לא מבינה את זה,
16:32
and I never will.
395
977000
3000
ולעולם לא אבין.
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
פ.מ: או.קיי, אי אפשר לפקפק באמיתות של הרגשות האלו.
16:39
Now the technology around what the truth looks like
397
984000
3000
עכשיו הטכנולוגיה שקיימת לגבי איך נראית האמת
16:42
is progressing on, the science of it.
398
987000
3000
מתקדמת, החלק המדעי של העניין.
16:45
We know for example
399
990000
2000
אנחנו יודעים לדוגמה
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
שיש מכשירים שעוקבים אחרי העיניים וסקירת מוח אינפרא-אדומה,
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
אם.אר.איי שמקודד את הסימנים שהגוף שלנו משדר
16:53
when we're trying to be deceptive.
402
998000
2000
כשאנחנו מנסים לרמות.
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
והטכנולוגיות האלה ישווקו לכולנו
16:58
as panaceas for deceit,
404
1003000
2000
כתרופת פלא למרמה,
17:00
and they will prove incredibly useful some day.
405
1005000
3000
והן יהיו שימושיות מאד ביום מן הימים.
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
אבל אתם צריכים לשאול את עצמכם בינתיים:
17:05
Who do you want on your side of the meeting,
407
1010000
2000
את מי אתם רוצים בצד שלכם בפגישה,
17:07
someone who's trained in getting to the truth
408
1012000
3000
מישהו שמאומן בחתירה לאמת
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
או מישהו שיגרור מכונת אא"ג ששוקלת מאה שמונים קילו
17:12
through the door?
410
1017000
2000
דרך הדלת?
17:14
Liespotters rely on human tools.
411
1019000
4000
מזהי שקרים מסתמכים על כלים אנושיים.
17:18
They know, as someone once said,
412
1023000
2000
הם יודעים, כפי שאמר פעם מישהו,
17:20
"Character's who you are in the dark."
413
1025000
2000
"מי אתה בחשכה".
17:22
And what's kind of interesting
414
1027000
2000
ומה שדי מעניין
17:24
is that today we have so little darkness.
415
1029000
2000
הוא שהיום יש מעט מאד חשכה.
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
העולם שלנו מואר 24 שעות ביממה.
17:29
It's transparent
417
1034000
2000
יש שקיפות
17:31
with blogs and social networks
418
1036000
2000
בעזרת בלוגים ורשתות חברתיות
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
שמשדרות את הבאזז של דור שלם חדש
17:35
that have made a choice to live their lives in public.
420
1040000
3000
שעשו בחירה לחיות את חייהם בציבור.
17:38
It's a much more noisy world.
421
1043000
4000
זהו עולם רועש הרבה יותר.
17:42
So one challenge we have
422
1047000
2000
אז אתגר אחד שיש לנו
17:44
is to remember,
423
1049000
2000
הוא לזכור,
17:46
oversharing, that's not honesty.
424
1051000
3000
חשיפת יתר- זו לא כנות.
17:49
Our manic tweeting and texting
425
1054000
2000
הודעות הטקסט והטוויטים הבלתי-פוסקים
17:51
can blind us to the fact
426
1056000
2000
יכולים להסתיר מפנינו את העובדה
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
שהדקויות של הגינות אנושית- יושרה אישית-
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
זה עדיין מה שחשוב, זה תמיד מה שיהיה חשוב.
17:59
So in this much noisier world,
429
1064000
2000
אז בעולם הרועש מאד הזה,
18:01
it might make sense for us
430
1066000
2000
אולי יש היגיון בכך שאנחנו
18:03
to be just a little bit more explicit
431
1068000
2000
נהיה קצת יותר ברורים
18:05
about our moral code.
432
1070000
3000
לגבי הקוד המוסרי שלנו.
18:08
When you combine the science of recognizing deception
433
1073000
2000
כשמשלבים בין המדע של זיהוי מרמה,
18:10
with the art of looking, listening,
434
1075000
2000
עם אמנות ההתבוננות וההקשבה,
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
אנחנו מוציאים את עצמנו מהכלל שמשתתף בשקר.
18:15
You start up that path
436
1080000
2000
מתחילים בשביל הזה
18:17
of being just a little bit more explicit,
437
1082000
2000
של להיות קצר יותר ברורים,
18:19
because you signal to everyone around you,
438
1084000
2000
בגלל שזה מסמל לכל מי שבסביבה,
18:21
you say, "Hey, my world, our world,
439
1086000
3000
זאת אמירה "היי, העולם שלי, העולם שלנו,
18:24
it's going to be an honest one.
440
1089000
2000
הוא הולך להיות עולם כנה.
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
העולם שלי הולך להיות כזה בו האמת מחזקת
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
והזיוף מזוהה ומוקע."
18:31
And when you do that,
443
1096000
2000
וכשתעשו את זה,
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
הקרקע מסביבכם תתחיל לנוע רק קצת.
18:36
And that's the truth. Thank you.
445
1101000
3000
וזו האמת. תודה לכם.
18:39
(Applause)
446
1104000
5000
(מחיאות כפיים)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com