TEDGlobal 2011
Pamela Meyer: How to spot a liar
Pamela Meyer: Jak poznat lháře
Filmed:
Readability: 3.8
28,415,176 views
Každý den jsme 10 až 200krát obelháni a návody, jak lež odhalit, mohou spočívat v jemnostech a dokonce se mohou zdát proti-intuitivní. Pamela Meyer, autorka knížky Liespotting (Odhalování lži), ukazuje způsoby a rysy, kterými se trénovaní lidé odhalující lži snaží rozpoznat podvody -- zároveň argumentuje, že poctivost má cenu zachovat.
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
Dobrá, nechci tady nikoho vystrašit,
00:20
but it's just come to my attention
1
5000
2000
ale zrovna jsem zjistila,
00:22
that the person to your right is a liar.
2
7000
2000
že osoba napravo od vás je lhář.
00:24
(Laughter)
3
9000
2000
(Smích)
00:26
Also, the person to your left is a liar.
4
11000
3000
A osoba nalevo je také lhář.
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
Stejně tak ten, kdo sedí přímo na vašem místě; to je také lhář.
00:32
We're all liars.
6
17000
2000
Všichni jsme lháři.
00:34
What I'm going to do today
7
19000
2000
Co se vám dnes chystám ukázat,
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
je výzkum, který zodpoví, proč jsme všichni lháři,
00:39
how you can become a liespotter
9
24000
2000
jak lež odhalit
00:41
and why you might want to go the extra mile
10
26000
3000
a proč bychom chtěli ještě něco víc,
00:44
and go from liespotting to truth seeking,
11
29000
3000
abychom nejen lež odhalili, ale zároveň poznali pravdu,
00:47
and ultimately to trust building.
12
32000
2000
a abychom mohli budovat důvěru.
00:49
Now speaking of trust,
13
34000
3000
Když už mluvíme o důvěře,
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
od doby, kdy jsem napsala knížku "Odhalení lži"
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
se se mnou nikdo nechce setkat osobně, ne, ne, ne, ne, ne.
00:58
They say, "It's okay, we'll email you."
16
43000
3000
Říkaji, "To je v pohodě, pošlu ti email."
01:01
(Laughter)
17
46000
2000
(Smích)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
Už si ani nemůžu dát schůzku ve Starbucks.
01:07
My husband's like, "Honey, deception?
19
52000
2000
Můj muž mi říká "Miláčku... podvody?
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
Možná ses mohla zaměřit spíš na vaření. Co takhle francouzská kuchyně?"
01:12
So before I get started, what I'm going to do
21
57000
2000
Takže než začnu,
01:14
is I'm going to clarify my goal for you,
22
59000
3000
vysvětlím vám můj cíl, což není naučit vás
01:17
which is not to teach a game of Gotcha.
23
62000
2000
hru "Mám tě!" Lidé, co odhalují lži,
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
nejsou ty přehnaně kritické děti,
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
ty děti, které vzadu v místnosti křičí "Mám tě! Mám tě!"
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
Zacukalo ti obočí. Rozšířily se ti nozdry.
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
Viděla jsem pořad "Lži mi," vím, že lžeš."
01:30
No, liespotters are armed
28
75000
2000
Ne, lidé odhalující lži jsou ozbrojeni
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
vědeckými znalostmi o tom, jak poznat klam.
01:35
They use it to get to the truth,
30
80000
2000
Používají je, aby zjistili pravdu,
01:37
and they do what mature leaders do everyday;
31
82000
2000
a dělají to, co vůdčí osoby každý den;
01:39
they have difficult conversations with difficult people,
32
84000
3000
prožívají nesnadné konverzace s nesnadnými lidmi,
01:42
sometimes during very difficult times.
33
87000
2000
někdy ve velmi těžkých dobách.
01:44
And they start up that path
34
89000
2000
A začnou tak,
01:46
by accepting a core proposition,
35
91000
2000
že přijmou základní tezi,
01:48
and that proposition is the following:
36
93000
2000
která zní takto:
01:50
Lying is a cooperative act.
37
95000
3000
Lhaní je společný akt.
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
Zamyslete se nad tím, lež nemá absolutně žádnou jen pouhým řečením.
01:57
Its power emerges
39
102000
2000
Její síla se objeví
01:59
when someone else agrees to believe the lie.
40
104000
2000
až když někdo jiný akceptuje této lži věřit.
02:01
So I know it may sound like tough love,
41
106000
2000
Vím, že to může znít tvrdě,
02:03
but look, if at some point you got lied to,
42
108000
4000
ale pokud vám někdo zalže,
02:07
it's because you agreed to get lied to.
43
112000
2000
je to proto, že se lží souhlasíte.
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
Pravda o lhaní číslo jedna: Lhaní je společný akt.
02:12
Now not all lies are harmful.
45
117000
2000
Ale ne všechny lži musí být špatné.
02:14
Sometimes we're willing participants in deception
46
119000
3000
Někdy si přejeme být podvedeni,
02:17
for the sake of social dignity,
47
122000
3000
kvůli společenské důstojnosti,
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
nebo třeba, aby bylo zachováno tajemství, které nemá být prozrazeno.
02:23
We say, "Nice song."
49
128000
2000
Řekneme "Pěkná písnička."
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
"Miláčku, jistě, že v tom nevypadáš tlustě."
02:28
Or we say, favorite of the digiratti,
51
133000
2000
Nebo, co rádi používají IT specialisti:
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
"Víte, zrovna jsem ten email našel ve spamu.
02:33
So sorry."
53
138000
3000
Je mi to moc líto."
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
Ale pak jsou tu situace, kdy si nepřejeme být klamáni.
02:39
And that can have dramatic costs for us.
55
144000
3000
Což pro nás může mít dramatické důsledky.
02:42
Last year saw 997 billion dollars
56
147000
3000
Minulý rok bylo 997 miliard dolarů
02:45
in corporate fraud alone in the United States.
57
150000
4000
zpronevěřeno ve firmách jen ve Spojených státech.
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
To je téměř bilion dolarů.
02:51
That's seven percent of revenues.
59
156000
2000
To je sedm procent zisků.
02:53
Deception can cost billions.
60
158000
2000
Podvody mohou stát miliardy.
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
Třeba Enron, Madoff, úvěrová krize.
02:58
Or in the case of double agents and traitors,
62
163000
3000
Nebo například dvojití agenti a zrádci
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
jako Robert Hanssen a Aldrich Ames,
03:03
lies can betray our country,
64
168000
2000
lži mohou zradit naši zemi,
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
ohrozit naši bezpečnost, podrývat demokracii,
03:08
they can cause the deaths of those that defend us.
66
173000
3000
mohou způsobit smrt těm, kteří nás brání.
03:11
Deception is actually serious business.
67
176000
3000
Podvod je ve skutečnosti vážná věc.
03:14
This con man, Henry Oberlander,
68
179000
2000
Jeden podvodník, Henry Oberlander,
03:16
he was such an effective con man
69
181000
2000
byl opravdu úspěšným podvodníkem.
03:18
British authorities say
70
183000
2000
Britské úřady tvrdí,
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
že mohl zničit celý bankovní systém Západu.
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
A přesto ho nenajdete na Googlu, nikde.
03:25
He was interviewed once, and he said the following.
73
190000
3000
Jednou byl vyslýchán a řekl tohle:
03:28
He said, "Look, I've got one rule."
74
193000
2000
"Podívejte, mám jedno pravidlo."
03:30
And this was Henry's rule, he said,
75
195000
3000
A to bylo Henryho pravidlo.
03:33
"Look, everyone is willing to give you something.
76
198000
2000
"Podívejte, každý je ochoten vám něco dát,
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
dát vám něco výměnou za to, po čem zase touží on."
03:38
And that's the crux of it.
78
203000
2000
No a v tom je jádro věci.
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
Pokud nechcete být oklamáni, musíte vědět,
03:42
what is it that you're hungry for?
80
207000
2000
co je to, po čem toužíte?
03:44
And we all kind of hate to admit it.
81
209000
3000
A všichni se bojíme si to přiznat.
03:47
We wish we were better husbands, better wives,
82
212000
3000
Přejeme si být lepšími manželi, lepšími ženami,
03:50
smarter, more powerful,
83
215000
2000
chytřejší, mocnější,
03:52
taller, richer --
84
217000
2000
vyšší, bohatší ..
03:54
the list goes on.
85
219000
2000
a seznam pokračuje.
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
Lhaní je pokus o překonání tohoto rozdílu,
03:58
to connect our wishes and our fantasies
87
223000
2000
o spojení našich přání a fantazií
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
o tom, kdo bychom chtěli být, mohli být,
04:03
with what we're really like.
89
228000
3000
s tím, jací doopravdy jsme.
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
A fakt jsme ochotni tyto rozdíly vyplnit lžemi.
04:09
On a given day, studies show that you may be lied to
91
234000
3000
Stude ukazují, že za jediný den můžete být obelháni
04:12
anywhere from 10 to 200 times.
92
237000
2000
desetkrát až dvěstěkrát.
04:14
Now granted, many of those are white lies.
93
239000
3000
Samozřejmě, mnoho z těchto lží je neškodných.
04:17
But in another study,
94
242000
2000
V jiné studii se ukazuje,
04:19
it showed that strangers lied three times
95
244000
2000
že dva neznámí lidé si zalžou třikrát
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
v prvních 10 minutách setkání.
04:23
(Laughter)
97
248000
2000
(Smích)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
Když jsme prvně tato data slyšeli, tak nás to zarazilo.
04:28
We can't believe how prevalent lying is.
99
253000
2000
Nemůžeme uvěřit tomu, jak je lež běžná.
04:30
We're essentially against lying.
100
255000
2000
V podstatě jsme proti lhaní.
04:32
But if you look more closely,
101
257000
2000
Ale když se nad tím více zamyslíte,
04:34
the plot actually thickens.
102
259000
2000
dává to celkem smysl.
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
Lžeme více neznámým lidem než spolupracovníkům.
04:39
Extroverts lie more than introverts.
104
264000
4000
Extroverti lžou více než introverti.
04:43
Men lie eight times more about themselves
105
268000
3000
Muži o sobě lžou osmkrát více
04:46
than they do other people.
106
271000
2000
než o ostatních.
04:48
Women lie more to protect other people.
107
273000
3000
Ženy lžou více aby ochránili jiné.
04:51
If you're an average married couple,
108
276000
3000
Pokud jste v průměrném manželském svazku,
04:54
you're going to lie to your spouse
109
279000
2000
tak svému protějšku lžete
04:56
in one out of every 10 interactions.
110
281000
2000
jednou z deseti případů.
04:58
Now you may think that's bad.
111
283000
2000
Možná, že se vám tohle zdá špatné.
05:00
If you're unmarried, that number drops to three.
112
285000
2000
Ale pokud v manželství nejste, lžete jednou ze tří.
05:02
Lying's complex.
113
287000
2000
Lhaní je komplexní.
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
Je zakořeněno v našem denním a pracovním životě.
05:07
We're deeply ambivalent about the truth.
115
292000
2000
Jsme těžce rozpolcení co se pravdy týče.
05:09
We parse it out on an as-needed basis,
116
294000
2000
Doplňujeme si ji podle potřeby,
05:11
sometimes for very good reasons,
117
296000
2000
někdy k tomu máme velmi dobré důvody,
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
někdy zkrátka nechápeme mezery v našem životě.
05:16
That's truth number two about lying.
119
301000
2000
To je pravda o lhaní číslo dvě.
05:18
We're against lying,
120
303000
2000
Jsme proti lhaní,
05:20
but we're covertly for it
121
305000
2000
ale ve skrytu duše jsme pro,
05:22
in ways that our society has sanctioned
122
307000
2000
způsobem, který si naše společnost utvářela
05:24
for centuries and centuries and centuries.
123
309000
2000
po staletí a staletí a staletí.
05:26
It's as old as breathing.
124
311000
2000
Je starý jako dýchání samotné.
05:28
It's part of our culture, it's part of our history.
125
313000
2000
Je částí naší kultury, naší historie.
05:30
Think Dante, Shakespeare,
126
315000
3000
Takový Dante, Shakespeare,
05:33
the Bible, News of the World.
127
318000
3000
Bible, večerní zprávy.
05:36
(Laughter)
128
321000
2000
(Smích)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
Lhaní má pro náš druh evoluční hodnotu.
05:40
Researchers have long known
130
325000
2000
Vědci již dlouho vědí,
05:42
that the more intelligent the species,
131
327000
2000
že čím je druh inteligentnější,
05:44
the larger the neocortex,
132
329000
2000
tím větší má mozkovou kůru,
05:46
the more likely it is to be deceptive.
133
331000
2000
a tím větší je pravděpodobnost, že bude lhát.
05:48
Now you might remember Koko.
134
333000
2000
Možná si vzpomínáte na Koko.
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
Pamatujete si někdo na gorilu Koko, která se naučila znakovou řeč?
05:53
Koko was taught to communicate via sign language.
136
338000
3000
Koku učili komunikovat pomocí znakové řeči.
05:56
Here's Koko with her kitten.
137
341000
2000
Tady je Koko s jejím koťátkem.
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
Je to její rozkošné, chlupaté koťátko.
06:01
Koko once blamed her pet kitten
139
346000
2000
Koko jednou své kotě obvinila z toho,
06:03
for ripping a sink out of the wall.
140
348000
2000
že vyrvala ze zdi umyvadlo.
06:05
(Laughter)
141
350000
2000
(Smích)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
Jsme naprogramováni stát se vůdcem smečky.
06:09
It's starts really, really early.
143
354000
2000
A začíná to brzy, vážně brzy.
06:11
How early?
144
356000
2000
Jak brzy?
06:13
Well babies will fake a cry,
145
358000
2000
Tak například děti předstírají pláč,
06:15
pause, wait to see who's coming
146
360000
2000
chvíli počkají, kdo přijde,
06:17
and then go right back to crying.
147
362000
2000
a pak zase začnou brečet.
06:19
One-year-olds learn concealment.
148
364000
2000
Už roční děti se naučí zamlčovat.
06:21
(Laughter)
149
366000
2000
(Smích)
06:23
Two-year-olds bluff.
150
368000
2000
Dvouleté zvládnou blafovat.
06:25
Five-year-olds lie outright.
151
370000
2000
Pětileté lžou naprosto otevřeně.
06:27
They manipulate via flattery.
152
372000
2000
Manipulují skrz pochlebování.
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
Devítileté děti jsou mistři v maskování.
06:32
By the time you enter college,
154
377000
2000
Když jste ve věku vysokoškoláka,
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
lžete své matce jednou z pěti konverzací.
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
Když začnete pracovat a stanete se živitelem rodiny,
06:40
we enter a world that is just cluttered
157
385000
2000
vstoupíte do světa, který je vyloženě přeplněn
06:42
with spam, fake digital friends,
158
387000
2000
spamy, nepravými digitálními přáteli,
06:44
partisan media,
159
389000
2000
záškodnickými médii,
06:46
ingenious identity thieves,
160
391000
2000
vynalézavými zloději identit,
06:48
world-class Ponzi schemers,
161
393000
2000
špičkovými podvodníky v pyramidových hrách,
06:50
a deception epidemic --
162
395000
2000
epidemiemi podvodů --
06:52
in short, what one author calls
163
397000
2000
což jeden autor ve zkratce nazývá
06:54
a post-truth society.
164
399000
3000
post-pravdIvá společnost.
06:57
It's been very confusing
165
402000
2000
Už dlouhou dobu je to
06:59
for a long time now.
166
404000
3000
velmi matoucí.
07:03
What do you do?
167
408000
2000
Co s tím?
07:05
Well there are steps we can take
168
410000
2000
Mám pro vás určité rady,
07:07
to navigate our way through the morass.
169
412000
2000
abyste si proklestili cestu těmito podvody.
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
Trénovaní lidé odhalující lež dokáží v 90% poznat pravdu.
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
Co se nás ostatních týče, jsme úspěšní jen v 54%.
07:15
Why is it so easy to learn?
172
420000
2000
Proč je tak jednoduché se to naučit?
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
Prostě jsou dobří lháři a špatní lháři.
Neexistují žádní lháři od přírody.
Neexistují žádní lháři od přírody.
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
Všichni děláme stejné chyby.
Všichni používáme stejné techniky.
Všichni používáme stejné techniky.
07:23
So what I'm going to do
175
428000
2000
Takže vám teď hodlám
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
ukázat 2 vzory podvodu.
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
A pak se podíváme na znaky podvodu
a jestli je na příkladu dokážeme najít.
a jestli je na příkladu dokážeme najít.
07:30
We're going to start with speech.
178
435000
3000
A začneme s projevem.
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
(Video) Bill Clinton: Chci, abyste mě poslouchali.
07:35
I'm going to say this again.
180
440000
2000
Řeknu to ještě jednou.
07:37
I did not have sexual relations
181
442000
3000
Neměl jsem sexuální vztah
07:40
with that woman, Miss Lewinsky.
182
445000
4000
s tou ženou, paní Lewinskou.
07:44
I never told anybody to lie,
183
449000
2000
Nikdy jsem nikoho nepřemlouval aby lhal.
07:46
not a single time, never.
184
451000
2000
ani jednou, nikdy.
07:48
And these allegations are false.
185
453000
3000
A tato obvinění jsou lichá.
07:51
And I need to go back to work for the American people.
186
456000
2000
Musím jít zpět pracovat pro americký lid.
07:53
Thank you.
187
458000
2000
Děkuji.
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
Pamela Meyer: Dobrá, kde byly ty prozrazující znaky?
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
Tak zaprvé jsme slyšeli neco, čemu se říká nezkrácené popírání.
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
Studie prokazují, že se lidé snažící se až příliš něco popřít
08:08
will resort to formal rather than informal language.
191
473000
3000
uchylují více k formálnímu než neformálnímu vyjadřování.
08:11
We also heard distancing language: "that woman."
192
476000
3000
Také jsme mohli slyšet snahu o distancování se: "ta žena".
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
Víme, že lháři se nevědomě snaží držet odstup
08:16
from their subject
194
481000
2000
od jejich subjektu
08:18
using language as their tool.
195
483000
3000
používáním řeči jako svého nástroje.
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
Nebo když Bill Clinton řekl: "Takže, abych vám řekl pravdu..."
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
nebo oblíbené Richarda Nixona: "Se vší upřímností..."
08:26
he would have been a dead giveaway
198
491000
2000
byl by jasnou kořistí
08:28
for any liespotter than knows
199
493000
2000
pro každého kdo odhaluje lži a ví,
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
že kvalifikační jazyk, jak se tomu říká, kvalifikační jazyk jako tento
08:33
further discredits the subject.
201
498000
2000
ještě více diskredituje subjekt.
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
Kdyby zopakoval celou otázku,
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
nebo kdyby okořenil svůj případ příliš mnoho detaily --
08:42
and we're all really glad he didn't do that --
204
507000
2000
což jsme všichni rádi, že neudělal --
08:44
he would have further discredited himself.
205
509000
2000
zdiskreditoval by se ještě více.
08:46
Freud had it right.
206
511000
2000
Freud měl pravdu.
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
Freud řekl: "Víte, je v tom mnohem více než proslov.
08:51
"No mortal can keep a secret.
208
516000
3000
Žádný smrtelník neudrží tajemství.
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
I když mlčí, prozradí ho tělo."
08:57
And we all do it no matter how powerful you are.
210
522000
3000
To děláme všichni bez ohledu na to, jak jsme silní.
09:00
We all chatter with our fingertips.
211
525000
2000
Všechny nás zrazuje naše tělo.
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
Ukážu vám Dominika Strauss-Kahna s Obamou,
09:05
who's chattering with his fingertips.
213
530000
3000
jak se neverbálně prozrazuje.
09:08
(Laughter)
214
533000
3000
(Smích)
09:11
Now this brings us to our next pattern,
215
536000
3000
Což nás přivádí k dalšímu znaku,
09:14
which is body language.
216
539000
3000
kterým je řeč těla.
09:17
With body language, here's what you've got to do.
217
542000
3000
Jak jde o řeč těla, stačí udělat následující.
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
Prostě jen zahoďte svoje domněnky.
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
Nechte vědu aby trochu pozměnila vaše znalosti.
09:25
Because we think liars fidget all the time.
220
550000
3000
Protože obecně si myslíme, že lháři sebou stále šijí.
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
Ale naopak, zjistilo se, že když lžou, zamrzne jim horní polovina těla.
09:31
We think liars won't look you in the eyes.
222
556000
3000
Myslíme si, že lháři se nám nepodívají do očí.
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
Naopak, spíše se dívají do očí až příliš,
09:36
just to compensate for that myth.
224
561000
2000
aby vykompenzovali svůj výmysl.
09:38
We think warmth and smiles
225
563000
2000
Myslíme, že vřelost a úsměvy
09:40
convey honesty, sincerity.
226
565000
2000
dávají najevo čestnost, upřímnost.
09:42
But a trained liespotter
227
567000
2000
Ale člověk trénovaný v odhalování lží
09:44
can spot a fake smile a mile away.
228
569000
2000
dokáže rozeznat falešný úsměv na míle daleko.
09:46
Can you all spot the fake smile here?
229
571000
3000
Dokážete tady najít falešný úsměv?
09:50
You can consciously contract
230
575000
2000
Vědomě dokážete pohnout
09:52
the muscles in your cheeks.
231
577000
3000
mimickými svaly okolo pusy.
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
Ale opravdový úsměv se skrývá v očích, ve vráskách okolo očí.
09:58
They cannot be consciously contracted,
233
583000
2000
Vědomě ty svaly nestáhnete,
10:00
especially if you overdid the Botox.
234
585000
2000
obzvlášť pokud jste to přehnali s Botoxem.
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
Nepřežeňte to s Botoxem; nikdo vám už nebude věřit.
10:05
Now we're going to look at the hot spots.
236
590000
2000
Podívejme se na určité rysy.
10:07
Can you tell what's happening in a conversation?
237
592000
2000
Dokážete uhádnout, o co jde v konverzaci?
10:09
Can you start to find the hot spots
238
594000
3000
Dokážete podle těchto rysů
10:12
to see the discrepancies
239
597000
2000
poznat rozdíly mezi tím,
10:14
between someone's words and someone's actions?
240
599000
2000
co někdo říká a jak se chová?
10:16
Now I know it seems really obvious,
241
601000
2000
Jistě, teď se to zdá celkem jasné,
10:18
but when you're having a conversation
242
603000
2000
ale když se bavíte s někým,
10:20
with someone you suspect of deception,
243
605000
3000
u koho čekáte podvod,
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
držení těla je nejpřehlíženějším znakem, který ale může hodně napovědět.
10:26
An honest person is going to be cooperative.
245
611000
2000
Upřímný člověk bude spolupracovat.
10:28
They're going to show they're on your side.
246
613000
2000
Bude na vaší straně.
10:30
They're going to be enthusiastic.
247
615000
2000
Bude nadšený.
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
Bude vám chtít pomoci při hledání pravdy.
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
Bude ochotný diskutovat, jmenovat podezřelé,
10:37
provide details.
250
622000
2000
říkat detaily.
10:39
They're going to say, "Hey,
251
624000
2000
Řekne: "Hele,
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
možná to byli tihle chlápci z finančního, kdo padělal ty šeky."
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
Bude se zlobit, když bude mít pocit, že je křivě obviněn
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
po celou dobu rozhovoru, nejen občas;
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
bude rozzlobený po celou dobu rozhovoru.
10:52
And if you ask someone honest
256
637000
2000
A když se zeptáte někoho čestného
10:54
what should happen to whomever did forge those checks,
257
639000
3000
co by se mělo stát tomu, kdo padělal ty šeky,
10:57
an honest person is much more likely
258
642000
2000
čestný člověk spíše
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
navrhne přísnější než mírnější trest.
11:03
Now let's say you're having that exact same conversation
260
648000
2000
Teď si představte, že vedete tu stejnou konverzaci
11:05
with someone deceptive.
261
650000
2000
s nějakým lhářem.
11:07
That person may be withdrawn,
262
652000
2000
Ten bude stažený,
11:09
look down, lower their voice,
263
654000
2000
oči sklopené, hlubší hlas,
11:11
pause, be kind of herky-jerky.
264
656000
2000
bude mluvit přerušovaně, chvíli neposedí.
11:13
Ask a deceptive person to tell their story,
265
658000
2000
Zeptejte se lháře na jejich příběh
11:15
they're going to pepper it with way too much detail
266
660000
3000
a on vám začne vykládat až příliš mnoho podrobností
11:18
in all kinds of irrelevant places.
267
663000
3000
ve všemožných nepodstatných věcech.
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
A pak vám řekne svůj příběh v přesně chronologickém sledu.
11:24
And what a trained interrogator does
269
669000
2000
Zkušený vyšetřovatel
11:26
is they come in and in very subtle ways
270
671000
2000
přijde a velmi rafinovaně
11:28
over the course of several hours,
271
673000
2000
se po několika hodinách výslechu
11:30
they will ask that person to tell that story backwards,
272
675000
3000
zeptá dotyčného, aby převyprávěl svůj příběh pozpátku,
11:33
and then they'll watch them squirm,
273
678000
2000
a pak se dívá jak se dotyčný vrtí
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
a zjišťuje, u kterých otázek se projevuje nejvíce rysů lháře.
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
Proč to tak dělá? Protože všichni děláme to stejné.
11:41
We rehearse our words,
276
686000
2000
Opakujeme svá slova,
11:43
but we rarely rehearse our gestures.
277
688000
2000
ale horko těžko už opakujeme i gesta.
11:45
We say "yes," we shake our heads "no."
278
690000
2000
Říkáme "ano" a točíme hlavou "ne."
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
Povídáme velmi přesvědčivé příběhy, mírně krčíme rameny.
11:50
We commit terrible crimes,
280
695000
2000
Pácháme strašlivé činy
11:52
and we smile at the delight in getting away with it.
281
697000
3000
a usmíváme se, když už vypadá, že nám to projde.
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
Třeba tenhle úsměv je známý jako "křivácká radost."
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
A tohle uvidíme na několika videích,
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
ale nejdříve začneme -- pro Ty z vás, kdo neví,
12:03
this is presidential candidate John Edwards
285
708000
3000
tohle je kandidát na prezidenta John Edwards,
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
který šokoval Ameriku nemanželským dítětem.
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
Vidíme ho jak mluví o tom,
že si nechá udělat otcovský test.
že si nechá udělat otcovský test.
12:12
See now if you can spot him
288
717000
2000
Teď ho můžete vidět
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
jak říká "ano" i když kroutí hlavou "ne,"
12:16
slightly shrugging his shoulders.
290
721000
2000
a mírně krčí ramena.
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
(Video) John Edwards: Klidně ho podstoupím.
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
Vím, že není možné, aby to dítě bylo moje
12:23
because of the timing of events.
293
728000
2000
už kvůli časovému nesouladu.
12:25
So I know it's not possible.
294
730000
2000
Takže vím, že to není možné.
12:27
Happy to take a paternity test,
295
732000
2000
Rád podstoupím otcovský test,
12:29
and would love to see it happen.
296
734000
2000
opravdu rád.
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
Tazatel: A podstoupíte ho brzy? Je tu někdo --
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
JE: Víte, to není jen na mně. Na test potřebujete i toho druhého.
12:37
But I'm happy to participate in one.
299
742000
3000
Ale rád ho podstoupím.
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
PM: Vidíte, otáčení hlavou je mnohem snadnější rozpoznat,
12:42
once you know to look for them.
301
747000
2000
když víte, na co se zaměřit.
12:44
There're going to be times
302
749000
2000
Ale také se stane,
12:46
when someone makes one expression
303
751000
2000
že má někdo určitý výraz,
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
kterým maskuje jiný. Ten se pak objevuje v záblescích.
12:52
Murderers are known to leak sadness.
305
757000
2000
Vrazi jsou známí tím, že se u nich občas objeví smutek.
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
Váš nový firemní partner vám může potřást rukou,
12:56
celebrate, go out to dinner with you
307
761000
2000
oslavovat, jít s vámi na večeři
12:58
and then leak an expression of anger.
308
763000
3000
a najednou se v něm mihne záblesk zlosti.
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
A určitě se tady za jednu noc nestaneme
experty v rozpoznávání tváří,
experty v rozpoznávání tváří,
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
ale jeden projev, který je velmi nebezpečný
a dá se lehce poznat, vás naučím.
a dá se lehce poznat, vás naučím.
13:07
and that's the expression of contempt.
311
772000
3000
A to je výraz pohrdání.
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
Když je někdo naštvaný, pořád jsou oba dva na stejné úrovni.
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
Stále je to celkem zdravý vztah.
13:15
But when anger turns to contempt,
314
780000
2000
Ale když se zlost změní na opovržení,
13:17
you've been dismissed.
315
782000
2000
tak rovnost končí.
13:19
It's associated with moral superiority.
316
784000
2000
Má to co dělat s morální nadřazeností.
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
A proto je velmi těžké se z toho dostat.
13:24
Here's what it looks like.
318
789000
2000
Takhle to vypadá.
13:26
It's marked by one lip corner
319
791000
2000
Vyznačuje se tak, že jeden koutek rtů
13:28
pulled up and in.
320
793000
2000
je stažený nahoru a dovnitř.
13:30
It's the only asymmetrical expression.
321
795000
3000
Je to jediný asymetrický výraz.
13:33
And in the presence of contempt,
322
798000
2000
A když vidíte, že má někdo takový výraz,
13:35
whether or not deception follows --
323
800000
2000
nezáleží na tom, jestli následuje podvod --
13:37
and it doesn't always follow --
324
802000
2000
a ne vždy následuje --
13:39
look the other way, go the other direction,
325
804000
2000
hleďte jinam, jděte jinam,
13:41
reconsider the deal,
326
806000
2000
rozmyslete si dohodu,
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
řekněte: "Ne, díky. Nejdu dál na poslední rundu. Díky."
13:47
Science has surfaced
328
812000
2000
Věda objevila
13:49
many, many more indicators.
329
814000
2000
velmi mnoho ukazatelů.
13:51
We know, for example,
330
816000
2000
Víme například,
13:53
we know liars will shift their blink rate,
331
818000
2000
že lháři mění rychlost svého mrkání,
13:55
point their feet towards an exit.
332
820000
2000
směřují chodidly k východu.
13:57
They will take barrier objects
333
822000
2000
Berou různé věci
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
a stavějí je mezi sebe a člověka, který se jich vyptává.
14:02
They'll alter their vocal tone,
335
827000
2000
Mění hloubku hlasu,
14:04
often making their vocal tone much lower.
336
829000
3000
často mluví mnohem hlouběji.
14:07
Now here's the deal.
337
832000
2000
Ale pozor.
14:09
These behaviors are just behaviors.
338
834000
3000
Tyhle známky chování jsou stále jen určitým chováním.
14:12
They're not proof of deception.
339
837000
2000
Není to důkaz podvodu.
14:14
They're red flags.
340
839000
2000
Jsou to výstražná znamení.
14:16
We're human beings.
341
841000
2000
Jsme pořád jen lidi.
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
Děláme tyhle jakoby znaky lhářů všude možně celý den.
14:21
They don't mean anything in and of themselves.
343
846000
2000
Neznamenají automaticky, že je někdo lhář.
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
Ale když jich uvidíte víc, je to určitý signál.
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
Sledujte, poslouchejte, zkoumejte, dávejte těžké otázky,
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
zkuste se dostat ze zajetí jen toho co víte,
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
a zajímejte se, ptejte se více otázek,
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
mějte úctu, chovejte se k tomu člověku přátelsky.
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
Nesnažte se být jako ti ze "Zákona a pořádku" nebo jiných seriálů,
14:41
that pummel their subjects into submission.
350
866000
2000
jako někdo, kdo dokope podezřelého k přiznání.
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
Nebuďte příliš agresivní, to nefunguje.
14:46
Now we've talked a little bit
352
871000
2000
Takže jsme si řekli něco
14:48
about how to talk to someone who's lying
353
873000
2000
o tom jak mluvit s lhářem
14:50
and how to spot a lie.
354
875000
2000
a jak poznat lež.
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
Jak jsem na začátku slíbila,
podíváme se taky, jak vypadá pravda.
podíváme se taky, jak vypadá pravda.
14:55
But I'm going to show you two videos,
356
880000
2000
Takže vám ukážu dvě videa,
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
dvě matky - jedna lže, druhá mluví pravdu.
15:00
And these were surfaced
358
885000
2000
Tyto matky zkoumal
15:02
by researcher David Matsumoto in California.
359
887000
2000
David Matsumoto z Kalifornie.
15:04
And I think they're an excellent example
360
889000
2000
A jsou podle mě skvělým příkladem toho,
15:06
of what the truth looks like.
361
891000
2000
jak vypadá pravda.
15:08
This mother, Diane Downs,
362
893000
2000
Tahle matka, Diane Downs,
15:10
shot her kids at close range,
363
895000
2000
zblízka zastřelila své děti,
15:12
drove them to the hospital
364
897000
2000
odvezla je do nemocnice,
15:14
while they bled all over the car,
365
899000
2000
zatímco krvácely v autě
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
a do prohlášení uvedla, že to udělal
nějaký rozcuchaný cizinec.
nějaký rozcuchaný cizinec.
15:18
And you'll see when you see the video,
367
903000
2000
A na videu můžete vidět,
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
že ani nedokáže předstírat utrápenou matku.
15:22
What you want to look for here
369
907000
2000
Čeho si tady můžete všimnout
15:24
is an incredible discrepancy
370
909000
2000
je neskutečný nesoulad
15:26
between horrific events that she describes
371
911000
2000
mezi tím hororem, který popisuje
15:28
and her very, very cool demeanor.
372
913000
2000
a jejím naprosto chladným chováním.
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
A když se pořádně podíváte, uvidíte ve videu i ten křivácký úsměv.
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
(Video) Diane Downs: Když v noci zavřu oči,
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
Vidím Kristýnku jak se po mně natahuje v autě
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
a krev jí teče z úst.
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
a že -- možná to časem odezní --
15:43
but I don't think so.
378
928000
2000
ale nemyslím.
15:45
That bothers me the most.
379
930000
3000
Toho se bojím nejvíc.
15:55
PM: Now I'm going to show you a video
380
940000
2000
PM: Teď vám pustím video
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
Erin Runnion, matky, která opravdu truchlí,
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
když u soudu stála tváří v tvář vrahovi a mučiteli své dcery.
16:03
Here you're going to see no false emotion,
383
948000
2000
Neuvidíte žádné falešné emoce,
16:05
just the authentic expression of a mother's agony.
384
950000
3000
jen skutečné výrazy mateřské bezmocnosti.
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
(Video) Erin Runnion: Napsala jsem toto prohlášení třetího dne
16:10
of the night you took my baby,
386
955000
2000
od noci, kdy jsi mi sebral mé dítě,
16:12
and you hurt her,
387
957000
2000
ublížil jsi jí,
16:14
and you crushed her,
388
959000
2000
zničil jsi jí,
16:16
you terrified her until her heart stopped.
389
961000
4000
děsil jsi jí, dokud se její srdce nezastavilo.
16:20
And she fought, and I know she fought you.
390
965000
3000
A ona bojovala, vím, že Ti vzdorovala.
16:23
But I know she looked at you
391
968000
2000
Vím, že se na Tebe podívala
16:25
with those amazing brown eyes,
392
970000
2000
jejíma úžasnýma hnědýma očima
16:27
and you still wanted to kill her.
393
972000
3000
a Ty jsi ji chtěl stejně zabít.
16:30
And I don't understand it,
394
975000
2000
Nerozumím tomu,
16:32
and I never will.
395
977000
3000
nikdy to nepochopím.
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
PM: Tady prostě vidíte skutečné nezfalšovatelné emoce.
16:39
Now the technology around what the truth looks like
397
984000
3000
V dnešní době výrazně pokročila technologie, která nám ukáže
16:42
is progressing on, the science of it.
398
987000
3000
jak vypadá pravda, z vědeckého hlediska.
16:45
We know for example
399
990000
2000
Například víme,
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
že existují speciální přístroje detekující náš pohled a infračervené mozkové scannery,
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
magnetická rezonance dokáže odhalit signály, které naše tělo vydává
16:53
when we're trying to be deceptive.
402
998000
2000
když se snažíme podvádět.
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
A tyhle technologie nám všem budou jednou k dispozici
16:58
as panaceas for deceit,
404
1003000
2000
jako všelék proti podvodům
17:00
and they will prove incredibly useful some day.
405
1005000
3000
a jednou budou neskutečně užitečné.
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
Na druhou stranu si ale zatím představte:
17:05
Who do you want on your side of the meeting,
407
1010000
2000
S kým chcete být na schůzce,
17:07
someone who's trained in getting to the truth
408
1012000
3000
s někým, kdo je trénovaný, aby odhalil pravdu,
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
nebo s někým, kdo s sebou potáhne
17:12
through the door?
410
1017000
2000
180kg elektroencefalogram (EEG)?
17:14
Liespotters rely on human tools.
411
1019000
4000
Lidé, kteří odhalují lži spoléhají na lidské nástroje.
17:18
They know, as someone once said,
412
1023000
2000
"Oni vědí" kdosi jednou řekl.
17:20
"Character's who you are in the dark."
413
1025000
2000
"Skutečnou povahu poznáte, když je vše zahaleno tmou."
17:22
And what's kind of interesting
414
1027000
2000
Ale co je celkem zajímavé je,
17:24
is that today we have so little darkness.
415
1029000
2000
že máme v dnešní době takové tmy velmi málo
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
Náš svět je vzhůru 24 hodin denně.
17:29
It's transparent
417
1034000
2000
Je transparentní
17:31
with blogs and social networks
418
1036000
2000
i skrz blogy a sociální sítě,
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
které vám přináší různé zprávy od nové generace lidí,
17:35
that have made a choice to live their lives in public.
420
1040000
3000
kteří se rozhodli žít veřejně.
17:38
It's a much more noisy world.
421
1043000
4000
Svět je mnohem hlučnější.
17:42
So one challenge we have
422
1047000
2000
Takže jeden z cílů, který máme
17:44
is to remember,
423
1049000
2000
je si zapamatovat,
17:46
oversharing, that's not honesty.
424
1051000
3000
že přehnané sdílení, to není upřímnost.
17:49
Our manic tweeting and texting
425
1054000
2000
Naše šílené tweetování a psaní SMSek
17:51
can blind us to the fact
426
1056000
2000
mohou zakalit fakt,
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
že delikátnost slušného vyjadřování -- charakter, čestnost --
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
je to, co stále hraje roli a vždy bude.
17:59
So in this much noisier world,
429
1064000
2000
Takže v tomhle o tolik hlučnějším světě
18:01
it might make sense for us
430
1066000
2000
nám možná přijde logické
18:03
to be just a little bit more explicit
431
1068000
2000
snažit se být trošku víc důslední
18:05
about our moral code.
432
1070000
3000
co se našich mravních zásad týče.
18:08
When you combine the science of recognizing deception
433
1073000
2000
Když propojíte vědecké poznatky o rozpoznávání podvodu
18:10
with the art of looking, listening,
434
1075000
2000
s uměním jako je správně se dívat a naslouchat,
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
vyčleníte se ze zavedené praxe spolupracovat ve lžích.
18:15
You start up that path
436
1080000
2000
Začnete novou cestu,
18:17
of being just a little bit more explicit,
437
1082000
2000
budete trošičku důslednější,
18:19
because you signal to everyone around you,
438
1084000
2000
protože pošlete všem okolo signál
18:21
you say, "Hey, my world, our world,
439
1086000
3000
"Hele, můj svět, náš svět
18:24
it's going to be an honest one.
440
1089000
2000
bude pocitvý.
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
Můj svět se stává takovým, kde je pravda posilována
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
a falešnost odhalována a odsunována na okraj."
18:31
And when you do that,
443
1096000
2000
Když tohle uděláte,
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
věci okolo vás se začnou mírně měnit.
18:36
And that's the truth. Thank you.
445
1101000
3000
A to je pravda. Děkuji za pozornost.
18:39
(Applause)
446
1104000
5000
(Aplaus)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com