TEDGlobal 2011
Pamela Meyer: How to spot a liar
Pamela Meyer: Hur du känner igen en lögnare
Filmed:
Readability: 3.8
28,415,176 views
Vilken dag som helst ljuger någon för oss mellan 10 och 200 gånger, och ledtrådarna för att lägga märke till de lögnerna kan vara subtila och mot din intuition. Pamela Meyer, författaren till Liespotting, visar vilka tekniker som används av de som är tränade att känna igen bedrägeri - och hon hävdar att ärlighet är en egenskap värd att bevara.
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
Jag villl inte skrämma någon i det här rummet,
00:20
but it's just come to my attention
1
5000
2000
men det har kommit till min kännedom
00:22
that the person to your right is a liar.
2
7000
2000
att personen till höger om dig är en lögnare.
00:24
(Laughter)
3
9000
2000
(Skratt)
00:26
Also, the person to your left is a liar.
4
11000
3000
Personen till vänster är också en lögnare.
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
Och personen som sitter på just din stol är också en lögare.
00:32
We're all liars.
6
17000
2000
Vi är alla lögnare.
00:34
What I'm going to do today
7
19000
2000
Vad jag ska göra idag
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
är att jag ska visa er vad forskningen säger om varför vi alla är lögnare,
00:39
how you can become a liespotter
9
24000
2000
hur du kan se att någon ljuger.
00:41
and why you might want to go the extra mile
10
26000
3000
och varför du kanske skulle vilja anstränga dig
00:44
and go from liespotting to truth seeking,
11
29000
3000
och gå från att se tecknen på att någon ljuger till att leta efter sanningen,
00:47
and ultimately to trust building.
12
32000
2000
och slutligen till att bygga tillit.
00:49
Now speaking of trust,
13
34000
3000
På tal om tillit,
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
ända sedan jag skrev den här boken, "Liespotting" (Att se att någon ljuger),
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
Är det ingen som vill träffa mig personligen längre, nej, nej, nej, nej.
00:58
They say, "It's okay, we'll email you."
16
43000
3000
De säger "Det är okej, vi mejlar dig"
01:01
(Laughter)
17
46000
2000
(Skratt)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
Ingen vill ens ta en kopp kaffe med mig längre.
01:07
My husband's like, "Honey, deception?
19
52000
2000
Min man säger, "Älskling, bedrägeri?
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
Kanske du kunde ha fokuserat på matlagning. Vad sägs om fransk matlagning?"
01:12
So before I get started, what I'm going to do
21
57000
2000
Så innan jag börjar, vad jag ska göra
01:14
is I'm going to clarify my goal for you,
22
59000
3000
är att jag ska förtydliga mitt mål för er,
01:17
which is not to teach a game of Gotcha.
23
62000
2000
och det är inte att lära er en lek.
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
De som lägger märke till lögner är inte där petnoga ungarna,
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
de där ungarna längst bak i rummet som ropar, "Där fick jag dig allt!
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
Ditt ögonbryn ryckte till. Din näsborre vidgades.
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
Jag kollar på TV programmer 'Lie to me'. Jag ver att du ljuger."
01:30
No, liespotters are armed
28
75000
2000
Nej, de som lägger märke till lögnare är beväpnade
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
med vetenskaplig kunskap om hur man lägger märke till bedrägeri.
01:35
They use it to get to the truth,
30
80000
2000
De använder det för att få fram sanningen,
01:37
and they do what mature leaders do everyday;
31
82000
2000
och de gör vad mogna ledare gör varje dag;
01:39
they have difficult conversations with difficult people,
32
84000
3000
de har svåra samtal med svåra människor,
01:42
sometimes during very difficult times.
33
87000
2000
ibland under väldigt jobbiga perioder.
01:44
And they start up that path
34
89000
2000
Och de börjar gå den stigen
01:46
by accepting a core proposition,
35
91000
2000
genom att acceptera ett viktigt påstående,
01:48
and that proposition is the following:
36
93000
2000
och det påståendet är följande:
01:50
Lying is a cooperative act.
37
95000
3000
Att ljuga är en handlig av samarbete.
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
Tänk på det, en lögn har ingen som helst makt i att bara bli uttalad.
01:57
Its power emerges
39
102000
2000
Dess makt uppstår
01:59
when someone else agrees to believe the lie.
40
104000
2000
när någon annan går med på att tro på den.
02:01
So I know it may sound like tough love,
41
106000
2000
Så det kanske är jobbigt att höra,
02:03
but look, if at some point you got lied to,
42
108000
4000
men så här det, om någon någon gång ljugit för dig,
02:07
it's because you agreed to get lied to.
43
112000
2000
är det för att du gick med på att bli ljugen för.
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
Sanning nummer ett om lögn: Lögn är ett samarbete.
02:12
Now not all lies are harmful.
45
117000
2000
Alla lögner är inte skadliga.
02:14
Sometimes we're willing participants in deception
46
119000
3000
Ibland är vi villliga deltagare i bedrägeriet
02:17
for the sake of social dignity,
47
122000
3000
för social värdighets skull,
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
kanske för att behålla en hemlighet hemlig som borde behållas hemlig.
02:23
We say, "Nice song."
49
128000
2000
Vi säger, "Fin sång."
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
"Älskling, du ser inte fet ut i den, nej."
02:28
Or we say, favorite of the digiratti,
51
133000
2000
Eller säger vi,
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
"Du vet, jag har just fiskat upp det mejlet från skräppostfoldern.
02:33
So sorry."
53
138000
3000
Förlåt."
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
Men det finns tillfällen då vi är ovilliga deltagare i bedrägeriet.
02:39
And that can have dramatic costs for us.
55
144000
3000
Och det kan få dramatiska kostnader för oss.
02:42
Last year saw 997 billion dollars
56
147000
3000
Förra året försvann 997 miljarder dollar
02:45
in corporate fraud alone in the United States.
57
150000
4000
i företagsbedrägerier bara i USA.
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
Det är snäppet under en biljon dollar.
02:51
That's seven percent of revenues.
59
156000
2000
Det är sju procent av omsättningen.
02:53
Deception can cost billions.
60
158000
2000
Bedrägeri kan kosta miljarder.
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
Tänk Enron, Madoff, inteckningskrisen.
02:58
Or in the case of double agents and traitors,
62
163000
3000
Eller i händelse av dubbelagenter och förrädare,
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
som Robert Hanssen eller Aldrich Ames,
03:03
lies can betray our country,
64
168000
2000
kan lögner bedra vårt land,
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
de kan äventyra vår säkerhet, de kan undergräva demokrati,
03:08
they can cause the deaths of those that defend us.
66
173000
3000
de kan orsaka död av de som försvarar oss.
03:11
Deception is actually serious business.
67
176000
3000
Bedrägeri är faktiskt allvarliga saker.
03:14
This con man, Henry Oberlander,
68
179000
2000
Det finns en bedragare, Henry Oberlander,
03:16
he was such an effective con man
69
181000
2000
han var en så effektiv bedragare
03:18
British authorities say
70
183000
2000
att brittiska myndigheter säger
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
att han kunde ha underminerat hela banksystemet i västvärlden.
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
Och du hittar inte den här killen på Google; du hittar honom ingenstans.
03:25
He was interviewed once, and he said the following.
73
190000
3000
Han intervjuades en gång, och han sa följande.
03:28
He said, "Look, I've got one rule."
74
193000
2000
Han sa, "Lyssna, jag har en regel."
03:30
And this was Henry's rule, he said,
75
195000
3000
Och det här var Henrys regel, han sa,
03:33
"Look, everyone is willing to give you something.
76
198000
2000
"Se här, alla är beredda att ge dig någonting.
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
Alla är beredda att ge dig någonting i utbyte för det som de hungrar efter."
03:38
And that's the crux of it.
78
203000
2000
Och det är kärnan.
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
Om du inte vill bli bedragen, måste du veta,
03:42
what is it that you're hungry for?
80
207000
2000
Vad hungrar du efter?
03:44
And we all kind of hate to admit it.
81
209000
3000
Och vi hatar liksom alla att erkänna det.
03:47
We wish we were better husbands, better wives,
82
212000
3000
Vi önskar att vi var bättre äkta män, bättre fruar,
03:50
smarter, more powerful,
83
215000
2000
smartare, hade mer makt,
03:52
taller, richer --
84
217000
2000
var längre, rikare --
03:54
the list goes on.
85
219000
2000
listan fortsätter.
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
Lögnen är ett försök att överbrygga den klyftan,
03:58
to connect our wishes and our fantasies
87
223000
2000
att koppla ihop våra önskningar och fantasier
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
om vilka vi önskar att vi vore, hur vi önskar att vi vore
04:03
with what we're really like.
89
228000
3000
med hur vi verkligen är.
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
Och vi är verkligen villiga att fylla de där hålen i våra liv med lögner.
04:09
On a given day, studies show that you may be lied to
91
234000
3000
Studier visar, att under en dag ljuger folk för dig
04:12
anywhere from 10 to 200 times.
92
237000
2000
någonstans mellan 10 och 200 gånger.
04:14
Now granted, many of those are white lies.
93
239000
3000
Visst, många av lögnerna är vita.
04:17
But in another study,
94
242000
2000
Men en annan studie visar,
04:19
it showed that strangers lied three times
95
244000
2000
att främlingar ljög tre gånger
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
under de första 10 minuterna av sitt möte med varandra.
04:23
(Laughter)
97
248000
2000
(Skratt)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
När vi först hör de här siffrorna, hoppar vi till.
04:28
We can't believe how prevalent lying is.
99
253000
2000
Vi blir förvånade över hur vanligt förekommande lögnen är.
04:30
We're essentially against lying.
100
255000
2000
Vi är i huvudsak mot lögner
04:32
But if you look more closely,
101
257000
2000
Men om du tittar närmare på det,
04:34
the plot actually thickens.
102
259000
2000
tätnar spänningen faktiskt.
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
Vi ljuger mer för främlingar än för arbetskamrater.
04:39
Extroverts lie more than introverts.
104
264000
4000
Extroverta människor ljuger mer än introverta
04:43
Men lie eight times more about themselves
105
268000
3000
Män ljuger åtta gånger oftare om sig själva
04:46
than they do other people.
106
271000
2000
än om andra.
04:48
Women lie more to protect other people.
107
273000
3000
Kvinnor ljuger mer för att skydda andra människor.
04:51
If you're an average married couple,
108
276000
3000
Om du tillhör ett genomsnittigt gift par,
04:54
you're going to lie to your spouse
109
279000
2000
kommer du att ljuga för din partner
04:56
in one out of every 10 interactions.
110
281000
2000
i ett av 10 samspel.
04:58
Now you may think that's bad.
111
283000
2000
Nu kanske du tycker att det är dåligt.
05:00
If you're unmarried, that number drops to three.
112
285000
2000
Om du är ogift, sjunker siffran till tre.
05:02
Lying's complex.
113
287000
2000
Att ljuga är komplicerat.
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
Det är en del av både privatlivet och arbetslivet.
05:07
We're deeply ambivalent about the truth.
115
292000
2000
Vi är djupt ambivalenta inför sanningen.
05:09
We parse it out on an as-needed basis,
116
294000
2000
Vi tolkar den godtyckligt när behovet uppstår,
05:11
sometimes for very good reasons,
117
296000
2000
ibland av goda skäl,
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
andra gånger bara för att vi inte förstår luckorna i våra liv.
05:16
That's truth number two about lying.
119
301000
2000
Det är sanning nummer två om lögnen.
05:18
We're against lying,
120
303000
2000
Vi är emot att ljuga,
05:20
but we're covertly for it
121
305000
2000
Men i hemlighet är vi för det
05:22
in ways that our society has sanctioned
122
307000
2000
på sätt som vårt samhälle har sanktionerat
05:24
for centuries and centuries and centuries.
123
309000
2000
i många århundranden.
05:26
It's as old as breathing.
124
311000
2000
Lögnen är lika gammal som våra andetag.
05:28
It's part of our culture, it's part of our history.
125
313000
2000
Den är en del av vår kultur, en del av vår historia.
05:30
Think Dante, Shakespeare,
126
315000
3000
Tänk Dante, Shakespeare,
05:33
the Bible, News of the World.
127
318000
3000
Bibeln, kvällstidningarna.
05:36
(Laughter)
128
321000
2000
(Skratt)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
Lögnen har ett evolutionärt värde för oss som ras.
05:40
Researchers have long known
130
325000
2000
Forskare har länge vetat
05:42
that the more intelligent the species,
131
327000
2000
att ju högre intelligens en ras har,
05:44
the larger the neocortex,
132
329000
2000
ju större neocortex,
05:46
the more likely it is to be deceptive.
133
331000
2000
ju större risk att arten är svekfull.
05:48
Now you might remember Koko.
134
333000
2000
Ni kanske minns Koko.
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
Kommer någon ihåg gorillan Koko som undervisades i teckenspråk?
05:53
Koko was taught to communicate via sign language.
136
338000
3000
Koko lärde sig att kommunicera med teckenspråk.
05:56
Here's Koko with her kitten.
137
341000
2000
Här är Koko med sin kattunge.
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
Det är hennes söta, fluffiga lilla gosekatt.
06:01
Koko once blamed her pet kitten
139
346000
2000
En gång gav Koko kattungen skulden
06:03
for ripping a sink out of the wall.
140
348000
2000
för att ha rivit bort ett handfat från väggen.
06:05
(Laughter)
141
350000
2000
(Skratt)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
Vi är programmerade att bli flockledare.
06:09
It's starts really, really early.
143
354000
2000
Det börjar rikigt, riktigt tidigt.
06:11
How early?
144
356000
2000
Hur tidigt?
06:13
Well babies will fake a cry,
145
358000
2000
Bäbisar låtsasgråter,
06:15
pause, wait to see who's coming
146
360000
2000
pausar, väntar för att se vem som kommer
06:17
and then go right back to crying.
147
362000
2000
och fortsätter sedan att gråta.
06:19
One-year-olds learn concealment.
148
364000
2000
Ettåringar lär sig att undanhålla saker.
06:21
(Laughter)
149
366000
2000
(Skratt)
06:23
Two-year-olds bluff.
150
368000
2000
Tvååringar bluffar.
06:25
Five-year-olds lie outright.
151
370000
2000
Femåringar ljuger öppenhjärtligt.
06:27
They manipulate via flattery.
152
372000
2000
De manipulerar med hjälp av smicker.
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
Nioåringar är mästare på att skyla över.
06:32
By the time you enter college,
154
377000
2000
När du börjar på högskolan,
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
kommer du att ljuga för din mamma i ett av fem samspel.
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
När vi kommer ut i yrkeslivet och ska förtjäna vårt uppehälle,
06:40
we enter a world that is just cluttered
157
385000
2000
kommer vi in i en värld som är översållad
06:42
with spam, fake digital friends,
158
387000
2000
av skräppost, låtsasvänner i digitala medier,
06:44
partisan media,
159
389000
2000
partisk media,
06:46
ingenious identity thieves,
160
391000
2000
påhittiga identitetstjuvar,
06:48
world-class Ponzi schemers,
161
393000
2000
Ponzibedrägerier i världsklass,
06:50
a deception epidemic --
162
395000
2000
en epedimi av bedrägerier.
06:52
in short, what one author calls
163
397000
2000
kortfattat, vad en författare kallar
06:54
a post-truth society.
164
399000
3000
ett samhälle av post-sanning.
06:57
It's been very confusing
165
402000
2000
Det har varit väldigt förvirrande
06:59
for a long time now.
166
404000
3000
under en lång tid nu.
07:03
What do you do?
167
408000
2000
Vad gör du?
07:05
Well there are steps we can take
168
410000
2000
Det finns åtgärder att vidta
07:07
to navigate our way through the morass.
169
412000
2000
för att navigera genom träsket.
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
Tränade lögnletare hittar sanningen i 90% av fallen.
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
Resten av oss, vi har bara 54% rätt.
07:15
Why is it so easy to learn?
172
420000
2000
Varför är det så lätt att lära sig?
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
Det finns bra lögnare och det finns dåliga lögnare. Det finns inga originella lögnare.
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
Vi gör alla samma misstag. Vi använder alla samma tekniker.
07:23
So what I'm going to do
175
428000
2000
Så vad jag ska göra
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
är att visa er två bedrägerimönster.
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
Och sedan ska vi titta på de viktigaste punkterna och se om vi själva kan hitta dem.
07:30
We're going to start with speech.
178
435000
3000
Vi ska börja med talet.
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
Bill Clinton: Jag vill att du ska lyssna på mig.
07:35
I'm going to say this again.
180
440000
2000
Jag ska säga det här igen.
07:37
I did not have sexual relations
181
442000
3000
Jag hade inget sexuellt förhållande
07:40
with that woman, Miss Lewinsky.
182
445000
4000
med den kvinnan, Miss Lewinsky.
07:44
I never told anybody to lie,
183
449000
2000
Jag bad aldrig någon att ljuga,
07:46
not a single time, never.
184
451000
2000
inte en enda gång, aldrig.
07:48
And these allegations are false.
185
453000
3000
Och de här anklagelserna är falska.
07:51
And I need to go back to work for the American people.
186
456000
2000
Och nu behöver jag gå tillbaka till mitt arbete för det amerikanska folket.
07:53
Thank you.
187
458000
2000
Tack.
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
Pamela Meyer: Okej, vilka skvallertecken såg vi?
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
Först hörde vi vad som kallas ett icke-sammandraget förnekande.
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
Studier visar att människor som är överdrivna i sitt förnekande
08:08
will resort to formal rather than informal language.
191
473000
3000
tillgriper formellt hellre än ledigt språk.
08:11
We also heard distancing language: "that woman."
192
476000
3000
Vi hörde även distansierande språk: "den där kvinnan".
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
Vi vet att lögnare omedvetet distansierar sig själva
08:16
from their subject
194
481000
2000
från sitt subjekt
08:18
using language as their tool.
195
483000
3000
med hjälp av sitt språk.
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
Om nu Bill Clinton hade sagt, "Ärligt talat..."
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
eller Richard Nixons favorit, "I all uppriktighet..."
08:26
he would have been a dead giveaway
198
491000
2000
hade det varit ett säkert tecken
08:28
for any liespotter than knows
199
493000
2000
för alla lögnletare vet
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
att kvalificerande språk, som det kallas, kvalificerande språk som det,
08:33
further discredits the subject.
201
498000
2000
gör det ännu mindre trovärdigt.
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
Om han nu hade upprepat frågan i sin helhet,
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
eller om han hade kryddat redogörelsen med lite för många detaljer --
08:42
and we're all really glad he didn't do that --
204
507000
2000
och vi är alla glada att han inte gjorde det --
08:44
he would have further discredited himself.
205
509000
2000
hade han gjort sig själv ännu mindre trovärdig.
08:46
Freud had it right.
206
511000
2000
Freud hade rätt.
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
Freud sa att det är mer än språket som ligger bakom:
08:51
"No mortal can keep a secret.
208
516000
3000
"Ingen dödlig kan behålla en hemlighet.
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
Om hans läppar är tysta, pladdrar han med sina fingertoppar."
08:57
And we all do it no matter how powerful you are.
210
522000
3000
Och vi gör det alla, oavsett hur mycket makt vi har.
09:00
We all chatter with our fingertips.
211
525000
2000
Vi pladdrar alla med våra fingertoppar.
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
Jag ska visa er Dominique Strauss-Kahn med Obama
09:05
who's chattering with his fingertips.
213
530000
3000
som pladdrar med sina fingertoppar.
09:08
(Laughter)
214
533000
3000
(Skratt)
09:11
Now this brings us to our next pattern,
215
536000
3000
Det här för oss fram till nästa mönster
09:14
which is body language.
216
539000
3000
som är kroppsspråk.
09:17
With body language, here's what you've got to do.
217
542000
3000
Det här är vad du måste göra med kroppsspråk.
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
Du måste verkligen kasta ut dina förutfattade meningar genom dörren.
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
Låt vetenskapen dämpa din kunskap lite.
09:25
Because we think liars fidget all the time.
220
550000
3000
För vi tror alla att lögnare skruvar nervöst på sig hela tiden.
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
Men vet ni vad, de förvandlar sina överkroppar till is när de ljuger.
09:31
We think liars won't look you in the eyes.
222
556000
3000
Vi tror att lögnare inte ser dig i ögonen.
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
Men vet ni vad, de ser dig i ögonen lite för mycket
09:36
just to compensate for that myth.
224
561000
2000
bara för att väga upp för den myten.
09:38
We think warmth and smiles
225
563000
2000
Vi tror att värme och leenden
09:40
convey honesty, sincerity.
226
565000
2000
förmedlar ärlighet, uppriktighet.
09:42
But a trained liespotter
227
567000
2000
Men en vältränad lögnletare
09:44
can spot a fake smile a mile away.
228
569000
2000
ser ett låtsasleende på långt håll.
09:46
Can you all spot the fake smile here?
229
571000
3000
Ser ni alla det här falska leendet?
09:50
You can consciously contract
230
575000
2000
Du kan medvetet dra samman
09:52
the muscles in your cheeks.
231
577000
3000
musklerna i dina kinder.
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
Men det riktiga leendet sitter i ögonen, kråkfötterna vid ögonen.
09:58
They cannot be consciously contracted,
233
583000
2000
De kan inte medvetet dras ihop.
10:00
especially if you overdid the Botox.
234
585000
2000
speciellt om du använt för mycket botox.
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
Använd inte för mycket Botox; ingen kommer att tro att du är ärlig.
10:05
Now we're going to look at the hot spots.
236
590000
2000
Nu ska vi titta på de viktiga områdena.
10:07
Can you tell what's happening in a conversation?
237
592000
2000
Kan du tala om för mig vad som händer i ett samtal?
10:09
Can you start to find the hot spots
238
594000
3000
Kan du börja hitta de viktigaste områdena
10:12
to see the discrepancies
239
597000
2000
för att se avvikelserna
10:14
between someone's words and someone's actions?
240
599000
2000
mellan någons ord och någons handlingar?
10:16
Now I know it seems really obvious,
241
601000
2000
Jag vet att det verkar uppenbart,
10:18
but when you're having a conversation
242
603000
2000
men när du har en konversation
10:20
with someone you suspect of deception,
243
605000
3000
men någon du misstänker för svek,
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
är attityd den avlägset mest förbisedda men talande indikatorn.
10:26
An honest person is going to be cooperative.
245
611000
2000
En ärlig person kommer att vara samarbetsvillig.
10:28
They're going to show they're on your side.
246
613000
2000
De kommer att visa att de är på din sida.
10:30
They're going to be enthusiastic.
247
615000
2000
De kommer att vara entusiastiska.
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
De kommer att vara villiga och hjälpfulla för att hjälpa dig att hitta sanningen.
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
De kommer att vara villiga att komma med idéer, föreslå misstänkta,
10:37
provide details.
250
622000
2000
ge dig detaljer.
10:39
They're going to say, "Hey,
251
624000
2000
De kommer att säga, "Du,
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
kanske var det där killarna på lönekontoret som förfalskade checkarna."
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
De kommer att bli som galna om de känner att de har blivit orättvist anklagade
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
alltigenom hela intervjun, inte bara stundtals;
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
de kommer att vara som galna alltigenom hela intervjun.
10:52
And if you ask someone honest
256
637000
2000
Och om du frågar någon som är ärlig
10:54
what should happen to whomever did forge those checks,
257
639000
3000
vad som borde hända med vem det nu var som förfalskade de där checkarna
10:57
an honest person is much more likely
258
642000
2000
är det mycket större chans att en ärlig person
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
rekommenderar ett strängt straff hellre än ett skonsamt.
11:03
Now let's say you're having that exact same conversation
260
648000
2000
Låt oss nu säga att du har exakt samma konversation
11:05
with someone deceptive.
261
650000
2000
med någon som är oärlig.
11:07
That person may be withdrawn,
262
652000
2000
Den personen kanske är tillbakadragen,
11:09
look down, lower their voice,
263
654000
2000
tittar ner, sänker rösten,
11:11
pause, be kind of herky-jerky.
264
656000
2000
pausar, hoppar lite fram och tillbaka.
11:13
Ask a deceptive person to tell their story,
265
658000
2000
Be en oärlig person att berätta sin historia,
11:15
they're going to pepper it with way too much detail
266
660000
3000
och de kommer att krydda den med alldeles för många detaljer
11:18
in all kinds of irrelevant places.
267
663000
3000
på alla möjliga ovidkommande ställen.
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
Och så kommer de att berätta sin historia i strikt kronologisk ordning.
11:24
And what a trained interrogator does
269
669000
2000
Och vad en erfaren förhörsledare gör
11:26
is they come in and in very subtle ways
270
671000
2000
är att på ett väldigt raffinerat sätt
11:28
over the course of several hours,
271
673000
2000
under flera timmars tid,
11:30
they will ask that person to tell that story backwards,
272
675000
3000
be den personen att berätta sin berättelse baklänges,
11:33
and then they'll watch them squirm,
273
678000
2000
och kommer sedan att få se dem våndas,
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
och hålla uppskt över vilka frågor som producerar mest bedrägligt beteende.
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
Varför gör de det? Vi gör alla samma sak.
11:41
We rehearse our words,
276
686000
2000
Vi tränar in vad vi ska säga,
11:43
but we rarely rehearse our gestures.
277
688000
2000
men vi tränar sällan in våra gester.
11:45
We say "yes," we shake our heads "no."
278
690000
2000
Vi säger "ja", men skakar huvudet "nej".
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
Vi berättar väldigt övertygande historier, men rycker lite på axlarna.
11:50
We commit terrible crimes,
280
695000
2000
Vi begår fruktansvärda brott,
11:52
and we smile at the delight in getting away with it.
281
697000
3000
och ler lite åt förtjusningen över att komma undan.
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
Det leendet är känt i branschen som "bedragar-behag"
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
Och vi kommer att få se det i flera filmer nu,
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
Men innan vi börjar -- för er som inte känner till honom,
12:03
this is presidential candidate John Edwards
285
708000
3000
det här är presidentkandidaten John Edwards
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
som chockerade Amerika genom att bli far till ett utomäktenskapligt barn.
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
Vi kommer att få se honom prata om att ta ett faderskapstest.
12:12
See now if you can spot him
288
717000
2000
Se nu om ni kan lägga märke till hur han
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
säger "ja" medan han skakar huvudet "nej,"
12:16
slightly shrugging his shoulders.
290
721000
2000
och rycker lätt på axlarna.
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
(Video) John Edwards: Jag ska gladeligen ta ett test.
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
Jag vet att det inte är möjligt att det här barnet skulle kunna vara mitt,
12:23
because of the timing of events.
293
728000
2000
på grund av händelsernas tidpunkt.
12:25
So I know it's not possible.
294
730000
2000
Så jag vet att det inte är möjligt.
12:27
Happy to take a paternity test,
295
732000
2000
Jag tar gladeligen ett faderskapstest,
12:29
and would love to see it happen.
296
734000
2000
och skulle vara glad att se det hända.
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
Intervjuare: Ska du göra det snart? Finns det någon --
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
JE: Vet du, jag är bara ena sidan. Jag är bara ena sidan av testet.
12:37
But I'm happy to participate in one.
299
742000
3000
Men jag skulle gladeligen ta ett.
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
PM: Okej, de där skakningarna på huvudet är mycket enklare att lägga märke till.
12:42
once you know to look for them.
301
747000
2000
när du väl letar efter dem.
12:44
There're going to be times
302
749000
2000
Det kommer att finnas tillfällen
12:46
when someone makes one expression
303
751000
2000
när någon gör ett ansiktsuttryck
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
medan han döljer ett annat som snabbt liksom läcker igenom.
12:52
Murderers are known to leak sadness.
305
757000
2000
Mördare är kända för att läcka sorg.
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
Om ditt företag slås samman med ett annat kanske din nya kollega skakar din hand,
12:56
celebrate, go out to dinner with you
307
761000
2000
firar, äter middag med dig
12:58
and then leak an expression of anger.
308
763000
3000
och sedan läcker ett ilkset uttryck.
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
Och vi kommer inte alla att bli experter på ansiktsuttryck över en natt här,
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
men det finns ett som jag kan lära er som är väldigt farligt, och det är lätt att lära sig,
13:07
and that's the expression of contempt.
311
772000
3000
och det är uttrycket för förakt.
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
Med ilska har du två människor på en rättvis spelplan.
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
Det finns fortfarande ett ganska hälsosamt förhållande.
13:15
But when anger turns to contempt,
314
780000
2000
Men när ilska förvandlas till förakt,
13:17
you've been dismissed.
315
782000
2000
har du blivit avfärdad.
13:19
It's associated with moral superiority.
316
784000
2000
Det är förknippat med moralisk överlägsenhet.
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
Och av den anledningen är det väldigt, väldigt svårt att återhämta sig från.
13:24
Here's what it looks like.
318
789000
2000
Så här ser det ut.
13:26
It's marked by one lip corner
319
791000
2000
Det utmärkande draget är att läppens ände
13:28
pulled up and in.
320
793000
2000
dras upp och in.
13:30
It's the only asymmetrical expression.
321
795000
3000
Det är det enda asymmetriska uttrycket.
13:33
And in the presence of contempt,
322
798000
2000
Och i närvaron av förakt,
13:35
whether or not deception follows --
323
800000
2000
vare sig det åtföljs av bedrägeri eller inte --
13:37
and it doesn't always follow --
324
802000
2000
och det gör det inte alltid --
13:39
look the other way, go the other direction,
325
804000
2000
se åt ett annat håll, gå i en annan riktning,
13:41
reconsider the deal,
326
806000
2000
tänk över överenskommelsen,
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
säg, "Nej tack, jag kommer inte in för en sängfösare. Tack."
13:47
Science has surfaced
328
812000
2000
Vetenskapen har lagt märke till
13:49
many, many more indicators.
329
814000
2000
många, många fler indikatorer.
13:51
We know, for example,
330
816000
2000
Vi vet, till exempel,
13:53
we know liars will shift their blink rate,
331
818000
2000
vi vet att lögnare ändrar sin blinkningshastighet,
13:55
point their feet towards an exit.
332
820000
2000
pekar med fötterna mot en utgång.
13:57
They will take barrier objects
333
822000
2000
De kommer att använda saker som barriärer
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
och hålla dem mellan sig själva och intervjuaren.
14:02
They'll alter their vocal tone,
335
827000
2000
De kommer att ändra ton på sin röst
14:04
often making their vocal tone much lower.
336
829000
3000
ofta pratar de i ett lägre tonläge.
14:07
Now here's the deal.
337
832000
2000
Så här är det.
14:09
These behaviors are just behaviors.
338
834000
3000
De här beteendena är bara beteenden.
14:12
They're not proof of deception.
339
837000
2000
De är inte bevis på bedrägeri.
14:14
They're red flags.
340
839000
2000
De är röda flaggor.
14:16
We're human beings.
341
841000
2000
Vi är mänskliga varelser.
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
Vi gör yviga bedrägliga gester dagarna i ända.
14:21
They don't mean anything in and of themselves.
343
846000
2000
De betyder ingenting i sig själva.
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
Men när du ser dem i grupp, är det din signal.
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
Titta, lyssna, undersök, ställ lite svåra frågor,
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
ta dig ur det bekväma kunskapsläget,
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
gå in i nyfikenhetsläge, ställ fler frågor,
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
ha lite värdighet, behandla personen du talar till med samförstånd.
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
Försök inte att vara som de där människorna i TV-serierna,
14:41
that pummel their subjects into submission.
350
866000
2000
som pucklar på sin undersåtar till underkastelse.
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
Var inte för aggresiv, det fungerar inte.
14:46
Now we've talked a little bit
352
871000
2000
Vi har pratat lite
14:48
about how to talk to someone who's lying
353
873000
2000
om hur man talar med någon som ljuger
14:50
and how to spot a lie.
354
875000
2000
och hur man lägger märke till en lögn.
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
Och som jag lovade ska vi nu titta på hur sanningen ser ut.
14:55
But I'm going to show you two videos,
356
880000
2000
Men jag ska visa er två filmer,
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
två mammor -- en ljuger, en talar sanning.
15:00
And these were surfaced
358
885000
2000
Och de här hittades
15:02
by researcher David Matsumoto in California.
359
887000
2000
av forskaren David Matsumoto i Kalifornie.n
15:04
And I think they're an excellent example
360
889000
2000
Och jag tycker att de är ett utmärkt exempel på
15:06
of what the truth looks like.
361
891000
2000
hur sanningen ser ut.
15:08
This mother, Diane Downs,
362
893000
2000
Den här mamman, Diane Downs,
15:10
shot her kids at close range,
363
895000
2000
sköt sina barn på nära håll,
15:12
drove them to the hospital
364
897000
2000
körde dem till sjukhuset
15:14
while they bled all over the car,
365
899000
2000
medan de blödde ner hela bilen,
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
hävdade att en tunnhårig främling gjorde det.
15:18
And you'll see when you see the video,
367
903000
2000
Och du kommer att få se i filmen,
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
att hon inte ens kan låtsas vara en våndande mor.
15:22
What you want to look for here
369
907000
2000
Vad du vill leta efter här
15:24
is an incredible discrepancy
370
909000
2000
är en otrolig avvikelse
15:26
between horrific events that she describes
371
911000
2000
mellan de fruktansvärda händelserna hon beskriver
15:28
and her very, very cool demeanor.
372
913000
2000
och hennes väldigt, väldigt lugna uppförande.
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
Och om du tittar noga, kan du se hennes "bedragar-behag"
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
Diane Downs: På kvällen när jag sluter mina ögon,
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
kan jag se hur Christie sträckte ut handen mot mig när jag körde,
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
och blodet bara rann från hennes mun.
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
Och det --kanske kommer det också att blekna med tiden --
15:43
but I don't think so.
378
928000
2000
men jag tror inte det.
15:45
That bothers me the most.
379
930000
3000
Det är det jobbigaste.
15:55
PM: Now I'm going to show you a video
380
940000
2000
PM: Nu kommer jag att visa er en film
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
av en mor som sörjer på riktigt, Erin Runnion,
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
när hon i rätten konfronerar mannen som torterade och mördade hennes dotter.
16:03
Here you're going to see no false emotion,
383
948000
2000
Här kommer du inte att få se någon falsk känsla,
16:05
just the authentic expression of a mother's agony.
384
950000
3000
bara det äkta uttrycket av en mors vånda.
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
(Video) Erin Runnion: Jag skrev det här uttalandet på den tredje årsdagen
16:10
of the night you took my baby,
386
955000
2000
av kvällen då du tog min älskling,
16:12
and you hurt her,
387
957000
2000
och du skadade henne,
16:14
and you crushed her,
388
959000
2000
och du krossade henne,
16:16
you terrified her until her heart stopped.
389
961000
4000
du skrämde henne tills hennes hjärtade slutade att slå.
16:20
And she fought, and I know she fought you.
390
965000
3000
Och hon kämpade, och jag vet att hon kämpade.
16:23
But I know she looked at you
391
968000
2000
Men jag vet att hon tittade på dig
16:25
with those amazing brown eyes,
392
970000
2000
med sina fantastiska bruna ögon
16:27
and you still wanted to kill her.
393
972000
3000
och du ville ändå döda henne.
16:30
And I don't understand it,
394
975000
2000
Och jag förstår det inte,
16:32
and I never will.
395
977000
3000
och jag kommer aldrig att förstå det.
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
PM: Det finns inget tvivel om äktheten i de känslorna.
16:39
Now the technology around what the truth looks like
397
984000
3000
Teknologin kring hur sanningen ser ut
16:42
is progressing on, the science of it.
398
987000
3000
gör framsteg.
16:45
We know for example
399
990000
2000
Vi vet till exempel
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
att vi nu har specialiserade mätare av ögonrörelser och infraröda hjärnscanners,
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
MRIs som kan avkoda signaler som våra kroppar sänder ut
16:53
when we're trying to be deceptive.
402
998000
2000
när vi försöker använda bedrägligt beteende.
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
Och de här teknikerna kommer att marknadsföras till oss alla
16:58
as panaceas for deceit,
404
1003000
2000
som patentlösningar för att upptäcka bedrägeri,
17:00
and they will prove incredibly useful some day.
405
1005000
3000
och någon dag kommer de att vara otroligt hjälpsamma.
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
Men under tiden måste du fråga dig själv:
17:05
Who do you want on your side of the meeting,
407
1010000
2000
Vem vill du ha på din sida under mötet,
17:07
someone who's trained in getting to the truth
408
1012000
3000
någon som står på din sida i att försöka få fram sanningen
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
eller någon kille som kommer att dra en 200-kilos EEG
17:12
through the door?
410
1017000
2000
genom dörren.
17:14
Liespotters rely on human tools.
411
1019000
4000
Lögnletare förlitar sig på mänskliga verktyg.
17:18
They know, as someone once said,
412
1023000
2000
De vet, som någon sa,
17:20
"Character's who you are in the dark."
413
1025000
2000
"Karaktär är den du är i mörkret."
17:22
And what's kind of interesting
414
1027000
2000
Och vad som är ganska intressant
17:24
is that today we have so little darkness.
415
1029000
2000
är att idag har vi så lite mörker.
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
Vår värld är upplyst 24 timmar om dygnet.
17:29
It's transparent
417
1034000
2000
Den är transparent
17:31
with blogs and social networks
418
1036000
2000
med bloggar och sociala nätverk
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
som sprider sorlet av en helt ny generation av människor
17:35
that have made a choice to live their lives in public.
420
1040000
3000
som har gjort valet att leva sina liv offentligt.
17:38
It's a much more noisy world.
421
1043000
4000
Det är en mycket mer högljudd värld.
17:42
So one challenge we have
422
1047000
2000
Så en utmaning vi har
17:44
is to remember,
423
1049000
2000
är att minnas,
17:46
oversharing, that's not honesty.
424
1051000
3000
att dela med sig för mycket, det är inte ärligt.
17:49
Our manic tweeting and texting
425
1054000
2000
Vårt maniska tweetande och sms:ande
17:51
can blind us to the fact
426
1056000
2000
kan göra oss blinda för det faktum
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
att nyanserna i mänsklig anständighet - karaktärsdraget integritet -
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
är fortfarande det som spelar roll, kommer alltid att vara det som spelar roll.
17:59
So in this much noisier world,
429
1064000
2000
Så i den här mycket bullrigare världen,
18:01
it might make sense for us
430
1066000
2000
kanske det är vettigt för oss
18:03
to be just a little bit more explicit
431
1068000
2000
att vara bara lite mer tydliga
18:05
about our moral code.
432
1070000
3000
med vår moralkodex.
18:08
When you combine the science of recognizing deception
433
1073000
2000
När du kombinerar vetenskapen bakom att känna igen bedrägeri
18:10
with the art of looking, listening,
434
1075000
2000
men konsten att titta, lyssna,
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
befriar du dig dig från att samarbeta i en lögn.
18:15
You start up that path
436
1080000
2000
Du påbörjar resan
18:17
of being just a little bit more explicit,
437
1082000
2000
mot att bli bara lite mer tydlig,
18:19
because you signal to everyone around you,
438
1084000
2000
eftersom du signalerar till alla omkring dig,
18:21
you say, "Hey, my world, our world,
439
1086000
3000
du säger., "Hallå, min värld, vår värld,
18:24
it's going to be an honest one.
440
1089000
2000
ska vara en ärlig värld.
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
Min värld ska vara en värld där sanning förstärks
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
och falskhet erkänns och marginaliseras."
18:31
And when you do that,
443
1096000
2000
Och när du gör det,
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
börjar grunden runt dig att förändras bara lite.
18:36
And that's the truth. Thank you.
445
1101000
3000
Och det är sanningen. Tack.
18:39
(Applause)
446
1104000
5000
(Applåder)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com