TEDGlobal 2011
Pamela Meyer: How to spot a liar
Pamela Meyer: Jak zdemaskować kłamcę
Filmed:
Readability: 3.8
28,415,176 views
Każdego dnia 10 do 200 razy stykamy się z kłamstwem. Oznaki tych kłamstw mogą być nieznaczne lub sprzeczne z intuicją. Pamela Meyer, autorka książki pt. "Liespotting" (Wykrywanie kłamstw) pokazuje sposoby i charakterystyczne punkty używane przez osoby wyszkolone w wykrywaniu oszustw. Dowodzi, że uczciwość jest wartością zasługującą na ochronę.
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
Nie chcę tu nikogo niepokoić,
00:20
but it's just come to my attention
1
5000
2000
ale dowiedziałam się właśnie,
00:22
that the person to your right is a liar.
2
7000
2000
że osoba po twojej prawej stronie to kłamca.
00:24
(Laughter)
3
9000
2000
(Śmiech)
00:26
Also, the person to your left is a liar.
4
11000
3000
Podobnie jak osoba po lewej.
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
A także osoba siedząca na twoim miejscu.
00:32
We're all liars.
6
17000
2000
Wszyscy jesteśmy kłamcami.
00:34
What I'm going to do today
7
19000
2000
Dzisiaj zamierzam pokazać,
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
co nauka mówi o przyczynach naszych kłamstw,
00:39
how you can become a liespotter
9
24000
2000
jak wykrywać kłamstwa
00:41
and why you might want to go the extra mile
10
26000
3000
i czemu warto wysilić się na przejście
00:44
and go from liespotting to truth seeking,
11
29000
3000
od wykrywania kłamstwa do szukania prawdy,
00:47
and ultimately to trust building.
12
32000
2000
a na koniec budowy zaufania.
00:49
Now speaking of trust,
13
34000
3000
Skoro mowa o zaufaniu:
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
odkąd napisałam książkę "Liespotting",
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
nikt nie chce spotkać się ze mną osobiście.
00:58
They say, "It's okay, we'll email you."
16
43000
3000
Mówią: wyślemy maila.
01:01
(Laughter)
17
46000
2000
(Śmiech)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
Nie mogę nawet umówić się z nikim w Starbucks.
01:07
My husband's like, "Honey, deception?
19
52000
2000
Mąż mówi mi: "Skarbie, oszustwa?
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
Może lepiej zajęłabyś się kuchnią francuską?"
01:12
So before I get started, what I'm going to do
21
57000
2000
Zanim zacznę,
01:14
is I'm going to clarify my goal for you,
22
59000
3000
chcę wyjaśnić swój cel,
01:17
which is not to teach a game of Gotcha.
23
62000
2000
a nie jest nim nauka gry w "Mam cię".
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
Wykrywacze oszustw to nie dzieciaki,
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
które z ostatnich rzędów wołają "Mam cię!".
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
Ruszyłeś brwiami. Rozszerzyłeś nozdrza.
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
Oglądam serial "Magia kłamstwa"
i wiem, że kłamiesz.
i wiem, że kłamiesz.
01:30
No, liespotters are armed
28
75000
2000
Wykrywacze oszustw posługują się
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
wiedzę naukową o dostrzeganiu kłamstw.
01:35
They use it to get to the truth,
30
80000
2000
Używają jej, by dotrzeć do prawdy
01:37
and they do what mature leaders do everyday;
31
82000
2000
i naśladując dojrzałych przywódców,
01:39
they have difficult conversations with difficult people,
32
84000
3000
prowadzą trudne rozmowy z trudnymi ludźmi,
01:42
sometimes during very difficult times.
33
87000
2000
często w trudnych czasach.
01:44
And they start up that path
34
89000
2000
Ruszyli tą drogą
01:46
by accepting a core proposition,
35
91000
2000
przyjmując jako zasadę
01:48
and that proposition is the following:
36
93000
2000
następującą tezę:
01:50
Lying is a cooperative act.
37
95000
3000
Kłamstwo wymaga współpracy.
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
Kłamstwo samo w sobie nic nie znaczy.
01:57
Its power emerges
39
102000
2000
Nabiera znaczenia,
01:59
when someone else agrees to believe the lie.
40
104000
2000
kiedy druga osoba zgadza się w nie uwierzyć.
02:01
So I know it may sound like tough love,
41
106000
2000
Wiem, że zabrzmi to surowo,
02:03
but look, if at some point you got lied to,
42
108000
4000
ale kiedyś okłamano cię,
02:07
it's because you agreed to get lied to.
43
112000
2000
bo się na to zgodziłeś.
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
Prawda numer jeden: kłamstwo wymaga współpracy.
02:12
Now not all lies are harmful.
45
117000
2000
Nie wszystkie kłamstwa szkodzą.
02:14
Sometimes we're willing participants in deception
46
119000
3000
Czasem chętnie bierzemy udział w oszustwie,
02:17
for the sake of social dignity,
47
122000
3000
by nie stracić twarzy,
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
albo żeby dochować tajemnicy.
02:23
We say, "Nice song."
49
128000
2000
Mówimy: "Ładna piosenka".
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
"Skarbie, to cię wcale nie pogrubia".
02:28
Or we say, favorite of the digiratti,
51
133000
2000
Albo ulubiona wymówka komputerowców:
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
"Właśnie znalazłem maila od ciebie w spamie".
02:33
So sorry."
53
138000
3000
"Tak mi przykro".
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
Czasami bierzemy udział w oszustwie wbrew naszej woli.
02:39
And that can have dramatic costs for us.
55
144000
3000
Co może nas bardzo wiele kosztować.
02:42
Last year saw 997 billion dollars
56
147000
3000
W zeszłym roku straciliśmy 997 miliardów dolarów
02:45
in corporate fraud alone in the United States.
57
150000
4000
z powodu oszustw finansowych w USA.
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
To prawie bilion dolarów.
02:51
That's seven percent of revenues.
59
156000
2000
7% dochodu narodowego.
02:53
Deception can cost billions.
60
158000
2000
Oszustwa kosztują nas miliardy.
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
Weźmy Enron, Madoffa, kryzys hipoteczny.
02:58
Or in the case of double agents and traitors,
62
163000
3000
W przypadku podwójnych agentów i zdrajców
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
jak Robert Hanssen czy Aldrich Ames,
03:03
lies can betray our country,
64
168000
2000
kłamstwa mogą zdradzić kraj,
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
zagrozić bezpieczeństwu, podkopać demokrację,
03:08
they can cause the deaths of those that defend us.
66
173000
3000
narazić na śmierć naszych żołnierzy.
03:11
Deception is actually serious business.
67
176000
3000
Oszukiwanie to poważna sprawa.
03:14
This con man, Henry Oberlander,
68
179000
2000
Ten oszust, Henry Oberlander,
03:16
he was such an effective con man
69
181000
2000
był tak skuteczny,
03:18
British authorities say
70
183000
2000
że zdaniem brytyjskich władz
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
mógł naruszyć cały system bankowy Zachodu.
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
Nie znajdziecie go w Google ani nigdzie indziej.
03:25
He was interviewed once, and he said the following.
73
190000
3000
Tylko raz udzielił wywiadu i wtedy powiedział:
03:28
He said, "Look, I've got one rule."
74
193000
2000
"Mam jedną zasadę".
03:30
And this was Henry's rule, he said,
75
195000
3000
Oto zasada Henry'ego.
03:33
"Look, everyone is willing to give you something.
76
198000
2000
"Każdy chce ci coś dać,
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
by dostać coś, co zaspokoi jego własne potrzeby".
03:38
And that's the crux of it.
78
203000
2000
Oto sedno problemu.
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
Jeśli nie chcesz dać się oszukać,
03:42
what is it that you're hungry for?
80
207000
2000
musisz wiedzieć, czego pożądasz.
03:44
And we all kind of hate to admit it.
81
209000
3000
Nikt nie lubi się do tego przyznawać.
03:47
We wish we were better husbands, better wives,
82
212000
3000
Chcielibyśmy być lepszymi mężami czy żonami,
03:50
smarter, more powerful,
83
215000
2000
chcielibyśmy być mądrzejsi, silniejsi, wyżsi, bogatsi,
03:52
taller, richer --
84
217000
2000
chcielibyśmy być mądrzejsi, silniejsi, wyżsi, bogatsi,
03:54
the list goes on.
85
219000
2000
to długa lista.
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
Kłamiemy, by zasypać tę przepaść;
03:58
to connect our wishes and our fantasies
87
223000
2000
przekuć fantazje o tym, kim chcielibyśmy być
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
przekuć fantazje o tym, kim chcielibyśmy być
04:03
with what we're really like.
89
228000
3000
w rzeczywistość.
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
Aż się do tego palimy.
04:09
On a given day, studies show that you may be lied to
91
234000
3000
Wykazano, że każdego dnia
04:12
anywhere from 10 to 200 times.
92
237000
2000
jesteśmy okłamywani 10 do 200 razy.
04:14
Now granted, many of those are white lies.
93
239000
3000
Oczywiście wiele tu białych kłamstw.
04:17
But in another study,
94
242000
2000
Inne badania wykazały,
04:19
it showed that strangers lied three times
95
244000
2000
że nieznajomi kłamią 3 razy
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
w ciągu pierwszych 10 minut spotkania.
04:23
(Laughter)
97
248000
2000
(Śmiech)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
Z początku na taką myśl aż nas skręca.
04:28
We can't believe how prevalent lying is.
99
253000
2000
Trudno uwierzyć we wszechobecność kłamstwa.
04:30
We're essentially against lying.
100
255000
2000
Zasadniczo nie popieramy kłamstw.
04:32
But if you look more closely,
101
257000
2000
Jeśli przyjrzymy się uważniej,
04:34
the plot actually thickens.
102
259000
2000
sytuacja zacznie wyglądać jeszcze gorzej.
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
Częściej okłamujemy obcych, niż współpracowników.
04:39
Extroverts lie more than introverts.
104
264000
4000
Ekstrawertycy kłamią częściej niż introwertycy.
04:43
Men lie eight times more about themselves
105
268000
3000
Mężczyźni 8 razy częściej kłamią na swój temat,
04:46
than they do other people.
106
271000
2000
niż na temat innych.
04:48
Women lie more to protect other people.
107
273000
3000
Kobiety kłamią, by chronić innych.
04:51
If you're an average married couple,
108
276000
3000
W przeciętnym małżeństwie
04:54
you're going to lie to your spouse
109
279000
2000
okłamujesz małżonka w jednej na 10 interakcji.
04:56
in one out of every 10 interactions.
110
281000
2000
okłamujesz małżonka w jednej na 10 interakcji.
04:58
Now you may think that's bad.
111
283000
2000
Może się wydawać, że to dużo.
05:00
If you're unmarried, that number drops to three.
112
285000
2000
Dla nieżonatych ta liczba spada do trzech.
05:02
Lying's complex.
113
287000
2000
Kłamstwo jest złożone.
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
Wplata się w codzienne życie prywatne i zawodowe.
05:07
We're deeply ambivalent about the truth.
115
292000
2000
Mamy ambiwalentne uczucia wobec prawdy.
05:09
We parse it out on an as-needed basis,
116
294000
2000
Analizujemy ją tylko na tyle, ile to niezbędne,
05:11
sometimes for very good reasons,
117
296000
2000
często z bardzo dobrych powodów,
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
czasem przez niezrozumienie braków w naszym życiu.
05:16
That's truth number two about lying.
119
301000
2000
To druga prawda o kłamstwie.
05:18
We're against lying,
120
303000
2000
Oponujemy przeciw kłamstwu,
05:20
but we're covertly for it
121
305000
2000
ale popieramy je w sekrecie
05:22
in ways that our society has sanctioned
122
307000
2000
w sposób usankcjonowany społecznie od setek lat.
05:24
for centuries and centuries and centuries.
123
309000
2000
w sposób usankcjonowany społecznie od setek lat.
05:26
It's as old as breathing.
124
311000
2000
To równie stare jak oddychanie.
05:28
It's part of our culture, it's part of our history.
125
313000
2000
To część naszej kultury, naszej historii.
05:30
Think Dante, Shakespeare,
126
315000
3000
Weźmy Dantego, Szekspira,
05:33
the Bible, News of the World.
127
318000
3000
biblię, Express Wieczorny.
05:36
(Laughter)
128
321000
2000
(Śmiech)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
Kłamstwo ma ewolucyjną wartość dla naszego gatunku.
05:40
Researchers have long known
130
325000
2000
Badacze wiedzą od dawna,
05:42
that the more intelligent the species,
131
327000
2000
że im inteligentniejszy gatunek,
05:44
the larger the neocortex,
132
329000
2000
tym większą ma korę nową,
05:46
the more likely it is to be deceptive.
133
331000
2000
i tym bardziej jest skłonny do kłamstwa.
05:48
Now you might remember Koko.
134
333000
2000
Może pamiętacie gorylicę Koko,
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
którą nauczono języka migowego?
05:53
Koko was taught to communicate via sign language.
136
338000
3000
Koko umiała się porozumiewać na migi.
05:56
Here's Koko with her kitten.
137
341000
2000
Tutaj jest Koko ze swoim kotkiem.
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
To jej słodki, puszysty kotek.
06:01
Koko once blamed her pet kitten
139
346000
2000
Koko oskarżyła go raz
06:03
for ripping a sink out of the wall.
140
348000
2000
o wyrwanie zlewu ze ściany.
06:05
(Laughter)
141
350000
2000
(Śmiech)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
Z natury dążymy do przywództwa.
06:09
It's starts really, really early.
143
354000
2000
Zaczyna się to bardzo wcześnie.
06:11
How early?
144
356000
2000
Jak wcześnie?
06:13
Well babies will fake a cry,
145
358000
2000
Niemowlęta udają płacz,
06:15
pause, wait to see who's coming
146
360000
2000
przestają, patrzą, czy ktoś idzie
06:17
and then go right back to crying.
147
362000
2000
i zaraz znów płaczą.
06:19
One-year-olds learn concealment.
148
364000
2000
Roczne dzieci umieją ukrywać prawdę.
06:21
(Laughter)
149
366000
2000
(Śmiech)
06:23
Two-year-olds bluff.
150
368000
2000
Dwulatki blefują.
06:25
Five-year-olds lie outright.
151
370000
2000
Pięciolatki zwyczajnie kłamią.
06:27
They manipulate via flattery.
152
372000
2000
Manipulują, używając pochlebstw.
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
9-latki to mistrzowie zacierania śladów.
06:32
By the time you enter college,
154
377000
2000
W wieku pomaturalnym
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
kłamiemy mamie w jednej na pięć rozmów.
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
Kiedy podejmujemy pracę i zaczynamy zarabiać,
06:40
we enter a world that is just cluttered
157
385000
2000
wkraczamy do świata
06:42
with spam, fake digital friends,
158
387000
2000
pełnego spamu, cyfrowych kolegów na niby,
06:44
partisan media,
159
389000
2000
stronniczych mediów,
06:46
ingenious identity thieves,
160
391000
2000
pomysłowych złodziei tożsamości,
06:48
world-class Ponzi schemers,
161
393000
2000
światowej klasy piramid finansowych,
06:50
a deception epidemic --
162
395000
2000
epidemii oszustw.
06:52
in short, what one author calls
163
397000
2000
W skrócie, jak określił to pewien autor:
06:54
a post-truth society.
164
399000
3000
społeczeństwo po-uczciwości.
06:57
It's been very confusing
165
402000
2000
Trudno się połapać,
06:59
for a long time now.
166
404000
3000
już od dłuższego czasu.
07:03
What do you do?
167
408000
2000
Co można zrobić?
07:05
Well there are steps we can take
168
410000
2000
Jest kilka sposobów
07:07
to navigate our way through the morass.
169
412000
2000
na odnalezienie drogi przez bagna.
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
Wytrenowani wykrywacze oszustw wykrywają prawdę w 90%.
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
My pozostali - ledwie w 54%.
07:15
Why is it so easy to learn?
172
420000
2000
Czemu tak łatwo się nauczyć?
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
Są dobrzy i źli kłamcy. Nie ma oryginalnych.
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
Popełniamy te same błędy. Używamy tych samych technik.
07:23
So what I'm going to do
175
428000
2000
Pokażę teraz dwa rodzaje oszustwa.
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
Pokażę teraz dwa rodzaje oszustwa.
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
Potem spróbujemy sami znaleźć gorące punkty.
07:30
We're going to start with speech.
178
435000
3000
Zacznijmy od mowy.
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
Wideo: Bill Clinton: "Słuchajcie uważnie,
07:35
I'm going to say this again.
180
440000
2000
powtórzę jeszcze raz.
07:37
I did not have sexual relations
181
442000
3000
Nie miałem stosunków seksualnych
07:40
with that woman, Miss Lewinsky.
182
445000
4000
z tą kobietą, panną Lewinsky.
07:44
I never told anybody to lie,
183
449000
2000
Nie kazałem nikomu kłamać,
07:46
not a single time, never.
184
451000
2000
nigdy, ani razu.
07:48
And these allegations are false.
185
453000
3000
Wszystkie oskarżenia są fałszywe.
07:51
And I need to go back to work for the American people.
186
456000
2000
Teraz muszę wracać do pracy.
07:53
Thank you.
187
458000
2000
Dziękuję."
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
Pamela Meyer: po czym poznać, że to kłamstwo?
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
Po pierwsze usłyszeliśmy tzw. formalne zaprzeczenie.
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
Badania wykazują, że ludzie idący w zaparte
08:08
will resort to formal rather than informal language.
191
473000
3000
używają formalnego języka zamiast potocznego.
08:11
We also heard distancing language: "that woman."
192
476000
3000
Usłyszeliśmy też wyrażenie dystansujące: "ta kobieta".
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
Wiadomo, że kłamcy nieświadomie dystansują się
08:16
from their subject
194
481000
2000
od tematu
08:18
using language as their tool.
195
483000
3000
używając w tym celu języka.
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
Gdyby Clinton powiedział: "Prawdę mówiąc..."
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
albo ulubiony zwrot Nixona: "całkiem szczerze",
08:26
he would have been a dead giveaway
198
491000
2000
wszystko by się wydało,
08:28
for any liespotter than knows
199
493000
2000
bo każdy detektyw kłamstw wie,
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
że tzw. wyrażenia kwalifikujące
08:33
further discredits the subject.
201
498000
2000
jeszcze bardziej dyskredytują podmiot.
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
Gdyby powtórzył całe pytanie
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
albo opatrzył wypowiedź zbyt wieloma szczegółami,
08:42
and we're all really glad he didn't do that --
204
507000
2000
a cieszymy się, że tego nie zrobił,
08:44
he would have further discredited himself.
205
509000
2000
zdyskredytowałby się jeszcze bardziej.
08:46
Freud had it right.
206
511000
2000
Freud miał rację.
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
Freud powiedział, że słowa mają wiele warstw.
08:51
"No mortal can keep a secret.
208
516000
3000
"Żaden śmiertelnik nie umie dotrzymać sekretu.
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
Jeśli jego usta milczą, gada palcami"
08:57
And we all do it no matter how powerful you are.
210
522000
3000
Wszyscy to robimy, bez wyjątków.
09:00
We all chatter with our fingertips.
211
525000
2000
Mówimy palcami.
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
Pokażę Dominika Strauss-Kahna z Obamą,
09:05
who's chattering with his fingertips.
213
530000
3000
który mówi palcami.
09:08
(Laughter)
214
533000
3000
(Śmiech)
09:11
Now this brings us to our next pattern,
215
536000
3000
Tu dochodzimy do drugiego schematu,
09:14
which is body language.
216
539000
3000
czyli języka ciała.
09:17
With body language, here's what you've got to do.
217
542000
3000
Oto co trzeba robić:
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
wyrzucić dotychczasowe założenia przez okno.
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
Pozwolić nauce okiełznać własną wiedzę.
09:25
Because we think liars fidget all the time.
220
550000
3000
Zwykle sądzi się, że kłamcy się wiercą.
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
Tymczasem górna część ciała kłamcy zwykle zastyga.
09:31
We think liars won't look you in the eyes.
222
556000
3000
Uważa się, że kłamcy nie patrzą w oczy.
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
Tymczasem patrzą odrobinę za dużo,
09:36
just to compensate for that myth.
224
561000
2000
żeby zaprzeczyć temu mitowi.
09:38
We think warmth and smiles
225
563000
2000
Uważa się, że serdeczność i uśmiech
09:40
convey honesty, sincerity.
226
565000
2000
sygnalizują uczciwość i szczerość.
09:42
But a trained liespotter
227
567000
2000
Jednak wprawny obserwator
09:44
can spot a fake smile a mile away.
228
569000
2000
rozpozna fałszywy uśmiech na kilometr
09:46
Can you all spot the fake smile here?
229
571000
3000
Czy wszyscy widzą tutaj fałszywy uśmiech?
09:50
You can consciously contract
230
575000
2000
Można świadomie skurczyć mięśnie policzków.
09:52
the muscles in your cheeks.
231
577000
3000
Można świadomie skurczyć mięśnie policzków.
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
Ale prawdziwy uśmiech jest w oczach, w zmarszczkach.
09:58
They cannot be consciously contracted,
233
583000
2000
Nie da się ich świadomie skurczyć,
10:00
especially if you overdid the Botox.
234
585000
2000
zwłaszcza, gdy przesadziliśmy z botoksem.
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
Ostrożnie z botoksem - nikt nie uwierzy w twoją szczerość.
10:05
Now we're going to look at the hot spots.
236
590000
2000
Teraz popatrzmy na gorące punkty.
10:07
Can you tell what's happening in a conversation?
237
592000
2000
Co się dzieje podczas rozmowy?
10:09
Can you start to find the hot spots
238
594000
3000
Czy możesz znaleźć gorące punkty,
10:12
to see the discrepancies
239
597000
2000
by zaobserwować rozbieżności
10:14
between someone's words and someone's actions?
240
599000
2000
między słowami i czynami?
10:16
Now I know it seems really obvious,
241
601000
2000
Wiem, że zabrzmi to jak truizm,
10:18
but when you're having a conversation
242
603000
2000
ale podczas rozmowy z kimś,
10:20
with someone you suspect of deception,
243
605000
3000
kogo podejrzewamy o oszustwo,
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
najczęściej przeoczamy postawę drugiej osoby.
10:26
An honest person is going to be cooperative.
245
611000
2000
Uczciwy człowiek będzie współpracował.
10:28
They're going to show they're on your side.
246
613000
2000
Pokaże, że jest po twojej stronie.
10:30
They're going to be enthusiastic.
247
615000
2000
Wykaże entuzjazm.
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
Z chęcią pomoże dotrzeć do prawdy.
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
Chętnie weźmie udział w burzy mózgów, podsunie podejrzanych,
10:37
provide details.
250
622000
2000
dostarczy szczegółów.
10:39
They're going to say, "Hey,
251
624000
2000
Powie: "Wiesz co,
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
może to ci z księgowości sfałszowali czeki".
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
Jeśli wyczuje, że się go fałszywie oskarża,
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
będzie wściekły podczas całej rozmowy, nie raz na jakiś czas;
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
będzie wściekły przez cały czas.
10:52
And if you ask someone honest
256
637000
2000
Jeśli spytasz kogoś uczciwego,
10:54
what should happen to whomever did forge those checks,
257
639000
3000
co zrobić z kimś, kto sfałszował czeki,
10:57
an honest person is much more likely
258
642000
2000
uczciwa osoba doradzi zwykle
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
ostrzejszą, a nie łagodniejszą karę.
11:03
Now let's say you're having that exact same conversation
260
648000
2000
Załóżmy, że tę samą rozmowę
11:05
with someone deceptive.
261
650000
2000
prowadzimy z krętaczem.
11:07
That person may be withdrawn,
262
652000
2000
Będzie zrezygnowany,
11:09
look down, lower their voice,
263
654000
2000
ze spuszczonymi oczami i cichym głosem,
11:11
pause, be kind of herky-jerky.
264
656000
2000
milknący raz po raz, spazmatyczny.
11:13
Ask a deceptive person to tell their story,
265
658000
2000
Jeśli poprosimy oszusta o sprawozdanie,
11:15
they're going to pepper it with way too much detail
266
660000
3000
wypełni je zbyt wieloma szczegółami
11:18
in all kinds of irrelevant places.
267
663000
3000
w nieistotnych miejscach.
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
Poza tym jego opowiadanie będzie ściśle chronologiczne.
11:24
And what a trained interrogator does
269
669000
2000
Wprawny śledczy,
11:26
is they come in and in very subtle ways
270
671000
2000
w bardzo subtelny sposób
11:28
over the course of several hours,
271
673000
2000
i w ciągu wielu godzin,
11:30
they will ask that person to tell that story backwards,
272
675000
3000
będzie nalegać, by usłyszeć zdarzenia od tyłu,
11:33
and then they'll watch them squirm,
273
678000
2000
i patrzeć, jak podejrzany się wije,
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
notując, które pytania spowodowały najwięcej oznak kłamstwa.
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
Czemu? Wszyscy jesteśmy tacy sami.
11:41
We rehearse our words,
276
686000
2000
Ćwiczymy słowa,
11:43
but we rarely rehearse our gestures.
277
688000
2000
ale rzadko ćwiczymy gesty.
11:45
We say "yes," we shake our heads "no."
278
690000
2000
Mówimy "tak", a kręcimy głową na "nie".
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
Opowiadamy przekonujące historyjki, a lekko wzruszamy ramionami.
11:50
We commit terrible crimes,
280
695000
2000
Popełniamy straszliwe zbrodnie,
11:52
and we smile at the delight in getting away with it.
281
697000
3000
a uśmiechamy się na myśl, że uda nam się bezkarnie wywinąć.
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
Taki uśmiech nazywa się fachowo "rozkosz oszusta".
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
Zobaczymy to później na filmie,
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
ale zaczniemy od... Dla tych, co go nie znają:
12:03
this is presidential candidate John Edwards
285
708000
3000
to kandydat na prezydenta, John Edwards,
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
który zaszokował Amerykę dzieckiem z nieprawego łoża.
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
Zobaczymy, jak mówi o testach na ojcostwo.
12:12
See now if you can spot him
288
717000
2000
Spróbujcie zauważyć,
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
jak mówi "tak", kręcąc głową na "nie",
12:16
slightly shrugging his shoulders.
290
721000
2000
wzruszając lekko ramionami.
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
(Wideo) John Ewards: Chętnie wezmę w tym udział.
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
Wiem, że to niemożliwe, żeby to było moje dziecko,
12:23
because of the timing of events.
293
728000
2000
z powodu czasu zajść.
12:25
So I know it's not possible.
294
730000
2000
Więc wiem, że to niemożliwe.
12:27
Happy to take a paternity test,
295
732000
2000
Chętnie zrobię test na ojcostwo
12:29
and would love to see it happen.
296
734000
2000
i zrobię to z przyjemnością.
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
Reporter: Czy zrobi to pan już niedługo?
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
JE: Jestem tylko jedną ze stron w tym teście.
12:37
But I'm happy to participate in one.
299
742000
3000
Ale z chęcią wezmę w nim udział.
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
PM: kręcenie głową dużo łatwiej zauważyć,
12:42
once you know to look for them.
301
747000
2000
kiedy wiemy, czego szukać.
12:44
There're going to be times
302
749000
2000
Często kłamcy robią miny
12:46
when someone makes one expression
303
751000
2000
mające zamaskować inne,
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
które jednak pojawiają się na mgnienie oka.
12:52
Murderers are known to leak sadness.
305
757000
2000
Mordercy znani są z okazywania smutku.
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
Nowy partner w joint venture może podać ci rękę,
12:56
celebrate, go out to dinner with you
307
761000
2000
świętować, zjeść z tobą kolację,
12:58
and then leak an expression of anger.
308
763000
3000
a potem na sekundę zrobić wściekłą minę.
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
Nie staniemy się od razu ekspertami od wyrazu twarzy,
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
ale nauczę was jednej miny, bardzo niebezpiecznej, a wyrazistej:
13:07
and that's the expression of contempt.
311
772000
3000
to wyraz pogardy.
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
W przypadku gniewu szanse obu osób są wyrównane.
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
Nadal można mówić o zdrowej relacji.
13:15
But when anger turns to contempt,
314
780000
2000
Kiedy gniew zmienia się w pogardę,
13:17
you've been dismissed.
315
782000
2000
położono na tobie krzyżyk.
13:19
It's associated with moral superiority.
316
784000
2000
Wiąże się ją z poczuciem moralnej wyższości.
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
Dlatego niezmiernie trudno się z niej wydobyć.
13:24
Here's what it looks like.
318
789000
2000
Wygląda tak.
13:26
It's marked by one lip corner
319
791000
2000
Kącik ust podnosi się do góry i ku środkowi.
13:28
pulled up and in.
320
793000
2000
Kącik ust podnosi się do góry i ku środkowi.
13:30
It's the only asymmetrical expression.
321
795000
3000
To jedyna asymetryczna mina.
13:33
And in the presence of contempt,
322
798000
2000
W przypadku pogardy,
13:35
whether or not deception follows --
323
800000
2000
niezależnie od tego, czy poprzedza oszustwo,
13:37
and it doesn't always follow --
324
802000
2000
a nie zawsze poprzedza,
13:39
look the other way, go the other direction,
325
804000
2000
odwróć się i idź w przeciwną stronę.
13:41
reconsider the deal,
326
806000
2000
Przemyśl transakcję.
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
Powiedz: "Nie, dziękuję, nie przyjdę na jeszcze jednego drinka".
13:47
Science has surfaced
328
812000
2000
Badania odnalazły o wiele więcej wskazówek.
13:49
many, many more indicators.
329
814000
2000
Badania odnalazły o wiele więcej wskazówek.
13:51
We know, for example,
330
816000
2000
Wiemy na przykład,
13:53
we know liars will shift their blink rate,
331
818000
2000
że kłamcy częściej mrugają,
13:55
point their feet towards an exit.
332
820000
2000
kierują stopy w stronę wyjścia.
13:57
They will take barrier objects
333
822000
2000
Biorą do ręki przedmioty,
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
żeby postawić barierę między sobą a rozmówcą.
14:02
They'll alter their vocal tone,
335
827000
2000
Zmieniają tembr głosu,
14:04
often making their vocal tone much lower.
336
829000
3000
często mówiąc niżej.
14:07
Now here's the deal.
337
832000
2000
Teraz przejdźmy do sedna.
14:09
These behaviors are just behaviors.
338
834000
3000
Zachowania to tylko zachowania.
14:12
They're not proof of deception.
339
837000
2000
Nie są dowodem oszustwa.
14:14
They're red flags.
340
839000
2000
To czerwone flagi.
14:16
We're human beings.
341
841000
2000
Jesteśmy tylko ludźmi.
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
Wykonujemy oszukańcze gesty jak dzień długi.
14:21
They don't mean anything in and of themselves.
343
846000
2000
Same w sobie nic nie znaczą.
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
Jeśli widzisz ich wiele na raz - uważaj.
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
Patrz, słuchaj, dociekaj, zadawaj trudne pytania,
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
porzuć postawę wiedzy,
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
przyjmij postawę ciekawości, zadawaj pytania,
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
zachowaj godność, traktuj rozmówcę poważnie.
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
Nie naśladuj ludzi z "Prawa i porządku" i innych seriali,
14:41
that pummel their subjects into submission.
350
866000
2000
którzy zmuszają innych do uległości.
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
Nie bądź zbyt agresywny, to nie działa.
14:46
Now we've talked a little bit
352
871000
2000
Mówiliśmy trochę o tym,
14:48
about how to talk to someone who's lying
353
873000
2000
jak rozmawiać z kimś, kto kłamie
14:50
and how to spot a lie.
354
875000
2000
i jak rozpoznać kłamstwo.
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
Zgodnie z obietnicą zobaczymy teraz, jak wygląda prawda.
14:55
But I'm going to show you two videos,
356
880000
2000
Pokażę dwa filmy, dwie matki:
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
jedna kłamie, druga mówi prawdę.
15:00
And these were surfaced
358
885000
2000
Znalazł je badacz David Matsumoto z Kalifornii.
15:02
by researcher David Matsumoto in California.
359
887000
2000
Znalazł je badacz David Matsumoto z Kalifornii.
15:04
And I think they're an excellent example
360
889000
2000
Sądzę, że znakomicie oddają,
15:06
of what the truth looks like.
361
891000
2000
jak wygląda prawda.
15:08
This mother, Diane Downs,
362
893000
2000
Ta matka, Diane Downs,
15:10
shot her kids at close range,
363
895000
2000
zastrzeliła swoje dzieci,
15:12
drove them to the hospital
364
897000
2000
zawiozła je ociekające krwią do szpitala,
15:14
while they bled all over the car,
365
899000
2000
zawiozła je ociekające krwią do szpitala,
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
twierdząc, że zrobił to nieznajomy włóczęga.
15:18
And you'll see when you see the video,
367
903000
2000
Na filmie zobaczycie,
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
że nie potrafi nawet udawać zrozpaczonej matki.
15:22
What you want to look for here
369
907000
2000
Zwróćcie uwagę
15:24
is an incredible discrepancy
370
909000
2000
na niewiarygodną rozbieżność
15:26
between horrific events that she describes
371
911000
2000
między koszmarnym zajściem, jakie opisuje,
15:28
and her very, very cool demeanor.
372
913000
2000
a jej spokojnym zachowaniem.
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
Patrząc uważnie, zobaczycie "rozkosz oszusta".
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
(Wideo) Diane Downs: W nocy, kiedy zamykam oczy,
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
widzę jak Christie wyciąga do mnie rękę w samochodzie,
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
a z ust kapie jej krew.
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
Może z czasem to się zatrze,
15:43
but I don't think so.
378
928000
2000
chociaż nie sądzę.
15:45
That bothers me the most.
379
930000
3000
To przeszkadza mi najbardziej.
15:55
PM: Now I'm going to show you a video
380
940000
2000
Teraz zobaczymy naprawdę zrozpaczoną matkę, Erin Runnion,
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
Teraz zobaczymy naprawdę zrozpaczoną matkę, Erin Runnion,
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
w sądowej konfrontacji z mordercą i oprawcą jej córki.
16:03
Here you're going to see no false emotion,
383
948000
2000
Nie ma tu fałszywych emocji,
16:05
just the authentic expression of a mother's agony.
384
950000
3000
tylko autentyczny wyraz matczynej udręki.
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
(Wideo) Erin Runnion: Napisałam to oświadczenie w 3 rocznicę nocy,
16:10
of the night you took my baby,
386
955000
2000
której zabrałeś moje dziecko,
16:12
and you hurt her,
387
957000
2000
krzywdziłeś ją,
16:14
and you crushed her,
388
959000
2000
zgniatałeś
16:16
you terrified her until her heart stopped.
389
961000
4000
i przerażałeś, póki nie stanęło jej serce.
16:20
And she fought, and I know she fought you.
390
965000
3000
Wiem, że walczyła z tobą.
16:23
But I know she looked at you
391
968000
2000
Wiem, że patrzyła na ciebie
16:25
with those amazing brown eyes,
392
970000
2000
tymi cudownymi brązowymi oczami,
16:27
and you still wanted to kill her.
393
972000
3000
a mimo to chciałeś ją zabić.
16:30
And I don't understand it,
394
975000
2000
Nie rozumiem tego,
16:32
and I never will.
395
977000
3000
i nigdy nie zrozumiem.
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
Prawdziwość tych uczuć nie pozostawia wątpliwości.
16:39
Now the technology around what the truth looks like
397
984000
3000
Rozwija się technologia rozpoznawania prawdy
16:42
is progressing on, the science of it.
398
987000
3000
i nauka z tym związana.
16:45
We know for example
399
990000
2000
Jak wiadomo istnieją
specjalistyczne okulografy
specjalistyczne okulografy
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
i spektroskopia bliskiej podczerwieni,
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
rezonans magnetyczny odczytujący
sygnały wysyłane przez ciało,
sygnały wysyłane przez ciało,
16:53
when we're trying to be deceptive.
402
998000
2000
kiedy próbujemy kłamać.
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
Będą próby wciśnięcia nam tych technologii
16:58
as panaceas for deceit,
404
1003000
2000
jako panaceum na fałsz
17:00
and they will prove incredibly useful some day.
405
1005000
3000
i któregoś dnia bardzo się przydadzą.
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
Na razie trzeba jednak zapytać:
17:05
Who do you want on your side of the meeting,
407
1010000
2000
"Kogo wolałbyś zabrać na zebranie:
17:07
someone who's trained in getting to the truth
408
1012000
3000
osobę wytrenowaną w docieraniu do prawdy,
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
czy faceta targającego
180-kilogramowy encefalograf?"
180-kilogramowy encefalograf?"
17:12
through the door?
410
1017000
2000
czy faceta targającego
180-kilogramowy encefalograf?"
180-kilogramowy encefalograf?"
17:14
Liespotters rely on human tools.
411
1019000
4000
Wykrywacze oszustw
polegają na naturalnych narzędziach.
polegają na naturalnych narzędziach.
17:18
They know, as someone once said,
412
1023000
2000
Wiedzą, jak ktoś powiedział:
17:20
"Character's who you are in the dark."
413
1025000
2000
że "charakter to to, kim jesteś w ciemności".
17:22
And what's kind of interesting
414
1027000
2000
To interesujące,
17:24
is that today we have so little darkness.
415
1029000
2000
że dziś mamy tak mało ciemności.
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
Nasz świat oświetlany jest przez całą dobę.
17:29
It's transparent
417
1034000
2000
Jest przezroczysty
17:31
with blogs and social networks
418
1036000
2000
dzięki blogom i sieciom społecznym,
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
które transmitują gwar całkiem nowego pokolenia,
17:35
that have made a choice to live their lives in public.
420
1040000
3000
z wyboru wiodącego publiczne życie.
17:38
It's a much more noisy world.
421
1043000
4000
To dużo hałaśliwszy świat.
17:42
So one challenge we have
422
1047000
2000
Choć to niełatwe
17:44
is to remember,
423
1049000
2000
musimy pamiętać,
17:46
oversharing, that's not honesty.
424
1051000
3000
że nadmierne dzielenie się to nie to samo, co szczerość.
17:49
Our manic tweeting and texting
425
1054000
2000
Szalone tweetowanie i SMSowanie
17:51
can blind us to the fact
426
1056000
2000
przesłania nam fakt,
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
że niuanse ludzkiej przyzwoitości, prawości charakteru
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
nadal się liczą, i liczyć się będą zawsze.
17:59
So in this much noisier world,
429
1064000
2000
W tym hałaśliwszym świecie
18:01
it might make sense for us
430
1066000
2000
może warto dosłowniej określać
18:03
to be just a little bit more explicit
431
1068000
2000
może warto dosłowniej określać
18:05
about our moral code.
432
1070000
3000
nasz kod moralny.
18:08
When you combine the science of recognizing deception
433
1073000
2000
Łącząc naukowe rozpoznawanie fałszu
18:10
with the art of looking, listening,
434
1075000
2000
ze sztuką patrzenia i słuchania,
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
wykluczasz się ze współpracy nad kłamstwem.
18:15
You start up that path
436
1080000
2000
Wyruszasz ścieżką
18:17
of being just a little bit more explicit,
437
1082000
2000
większej otwartości,
18:19
because you signal to everyone around you,
438
1084000
2000
bo pokazujesz innym,
18:21
you say, "Hey, my world, our world,
439
1086000
3000
że "mój świat, nasz świat, będzie uczciwy.
18:24
it's going to be an honest one.
440
1089000
2000
że "mój świat, nasz świat, będzie uczciwy.
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
W moim świecie wzmocni się prawda,
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
a fałsz zostanie rozpoznany
i usunięty na margines".
i usunięty na margines".
18:31
And when you do that,
443
1096000
2000
Kiedy to uczynisz,
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
grunt wokół ciebie trochę się przesunie.
18:36
And that's the truth. Thank you.
445
1101000
3000
I taka jest prawda. Dziękuję.
18:39
(Applause)
446
1104000
5000
(Brawa)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com