TEDGlobal 2011
Pamela Meyer: How to spot a liar
Pamela Meyer: Come smascherare un bugiardo
Filmed:
Readability: 3.8
28,415,176 views
Ogni giorno può capitare che il prossimo ci menta dalle 10 alle 200 volte, e i segnali per capirlo possono essere impercettibili e difficili da intuire. Pamela Meyer, autrice di Liespotting, ci svela i trucchi per scoprire l'inganno -- e ci fa capire che l'onestà è una virtù che dobbiamo coltivare.
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
Bene, non voglio allarmare nessuno in questa sala,
00:20
but it's just come to my attention
1
5000
2000
ma ho appena scoperto
00:22
that the person to your right is a liar.
2
7000
2000
che la persona alla vostra destra è un bugiardo.
00:24
(Laughter)
3
9000
2000
(Risate)
00:26
Also, the person to your left is a liar.
4
11000
3000
E anche quella che vi siede a sinistra lo è.
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
Così quella che siede al vostro posto.
00:32
We're all liars.
6
17000
2000
Siamo tutti dei bugiardi.
00:34
What I'm going to do today
7
19000
2000
Quello che voglio fare adesso
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
è mostrarvi quello che dice la ricerca sul perché siamo tutti bugiardi,
00:39
how you can become a liespotter
9
24000
2000
come potete smascherare chi mente
00:41
and why you might want to go the extra mile
10
26000
3000
e perché potrebbe valer la pena fare uno sforzo in più
00:44
and go from liespotting to truth seeking,
11
29000
3000
e passare dallo smascheramento alla ricerca della verità,
00:47
and ultimately to trust building.
12
32000
2000
e infine costruire un rapporto basato sulla fiducia.
00:49
Now speaking of trust,
13
34000
3000
Ora, parlando di fiducia,
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
da quando ho scritto questo libro, "Liespotting",
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
nessuno mi vuole più incontrare di persona, no, no, no, no.
00:58
They say, "It's okay, we'll email you."
16
43000
3000
Dicono: "Va bene, ti mandiamo un'email".
01:01
(Laughter)
17
46000
2000
(Risate)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
Non riesco nemmeno ad avere un appuntamento da Starbucks.
01:07
My husband's like, "Honey, deception?
19
52000
2000
Mio marito fa: "Amore, inganno?
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
Magari potevi scegliere la cucina. Che ne dici della cucina francese?"
01:12
So before I get started, what I'm going to do
21
57000
2000
Perciò prima di iniziare, quello che farò
01:14
is I'm going to clarify my goal for you,
22
59000
3000
è rendervi chiaro il mio obiettivo,
01:17
which is not to teach a game of Gotcha.
23
62000
2000
che non consiste nell'insegnarvi il gioco di 'Ti ho beccato'.
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
Smascherare un bugiardo non significa comportarsi
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
come quei ragazzini pedanti che ti gridano: "Ti ho visto! Ti ho visto!
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
Hai mosso il sopracciglio. Hai allargato le narici.
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
Io guardo alla TV 'Lie to me'. Lo so che stai mentendo".
01:30
No, liespotters are armed
28
75000
2000
No, gli smascheratori hanno la sola arma
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
del sapere scientifico per scovare l'inganno.
01:35
They use it to get to the truth,
30
80000
2000
La usano per giungere alla verità,
01:37
and they do what mature leaders do everyday;
31
82000
2000
e fanno ciò che fanno ogni giorno i leader maturi:
01:39
they have difficult conversations with difficult people,
32
84000
3000
affrontano conversazioni difficili con gente difficile,
01:42
sometimes during very difficult times.
33
87000
2000
talvolta in periodi anch'essi difficili.
01:44
And they start up that path
34
89000
2000
E iniziano a percorrere quel cammino
01:46
by accepting a core proposition,
35
91000
2000
accettando una considerazione di base,
01:48
and that proposition is the following:
36
93000
2000
vale a dire che
01:50
Lying is a cooperative act.
37
95000
3000
il mentire è un atto collaborativo.
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
Pensateci, la menzogna non ha alcun potere di per sé.
01:57
Its power emerges
39
102000
2000
Il suo potere emerge
01:59
when someone else agrees to believe the lie.
40
104000
2000
quando l'interlocutore accetta di credere alla bugia.
02:01
So I know it may sound like tough love,
41
106000
2000
So che vi può sembrare aggressivo,
02:03
but look, if at some point you got lied to,
42
108000
4000
ma guardate, se qualche volta vi hanno mentito,
02:07
it's because you agreed to get lied to.
43
112000
2000
è perché voi glielo avete permesso.
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
Verità numero uno: Mentire è un atto collaborativo.
02:12
Now not all lies are harmful.
45
117000
2000
Ora, non tutte le bugie fanno male.
02:14
Sometimes we're willing participants in deception
46
119000
3000
A volte partecipiamo volontariamente all'inganno
02:17
for the sake of social dignity,
47
122000
3000
per mantenere una dignità sociale,
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
o forse per mantenere un segreto che non deve essere svelato.
02:23
We say, "Nice song."
49
128000
2000
Diciamo: "Bella canzone".
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
"Cara, non sei per niente grassa, no".
02:28
Or we say, favorite of the digiratti,
51
133000
2000
Oppure, tipica dei patiti del PC:
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
"Sai, ho appena ripescato la tua email dalla cartella degli 'spam'.
02:33
So sorry."
53
138000
3000
Quanto mi dispiace".
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
Ma ci sono delle volte in cui partecipiamo all'inganno nostro malgrado.
02:39
And that can have dramatic costs for us.
55
144000
3000
E questo ci potrebbe costare caro.
02:42
Last year saw 997 billion dollars
56
147000
3000
Lo scorso anno sono stati frodati
02:45
in corporate fraud alone in the United States.
57
150000
4000
997 miliardi di dollari nei soli Stati Uniti.
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
Appena meno di un trilione di dollari.
02:51
That's seven percent of revenues.
59
156000
2000
Il 7% delle entrate totali.
02:53
Deception can cost billions.
60
158000
2000
L'inganno può costare miliardi.
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
Pensato al caso Enron, a Madoff, alla crisi dei mutui.
02:58
Or in the case of double agents and traitors,
62
163000
3000
O ai doppiogiochisti e ai traditori,
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
come Robert Hanssen o Aldrich Ames,
03:03
lies can betray our country,
64
168000
2000
le menzogne possono tradire il nostro paese,
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
comprometterne la sicurezza, indebolire la democrazia,
03:08
they can cause the deaths of those that defend us.
66
173000
3000
provocare la morte di chi ci dovrebbe difendere.
03:11
Deception is actually serious business.
67
176000
3000
Di fatto l'inganno è una questione seria.
03:14
This con man, Henry Oberlander,
68
179000
2000
Quel lestofante, Henry Oberlander,
03:16
he was such an effective con man
69
181000
2000
era stato talmente scaltro,
03:18
British authorities say
70
183000
2000
riferiscono le autorità britanniche,
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
che avrebbe potuto far crollare l'intero sistema bancario occidentale.
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
E non lo scovate nemmeno su Google, non lo trovate da nessuna parte.
03:25
He was interviewed once, and he said the following.
73
190000
3000
Una volta riuscirono a intervistarlo, e disse una cosa.
03:28
He said, "Look, I've got one rule."
74
193000
2000
Disse: "Guardate, io ho una regola".
03:30
And this was Henry's rule, he said,
75
195000
3000
E questa era le regola di Henry:
03:33
"Look, everyone is willing to give you something.
76
198000
2000
"Tutti son disposti a darti qualcosa.
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
E sono pronti a dartelo in cambio della cosa che stanno bramando".
03:38
And that's the crux of it.
78
203000
2000
E questo è il punto cruciale.
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
Se non vuoi essere ingannato devi sapere bene
03:42
what is it that you're hungry for?
80
207000
2000
qual è la cosa che vorresti maggiormente.
03:44
And we all kind of hate to admit it.
81
209000
3000
E a nessuno piace ammetterlo.
03:47
We wish we were better husbands, better wives,
82
212000
3000
Vorremmo essere mariti migliori, mogli migliori,
03:50
smarter, more powerful,
83
215000
2000
più in gamba, con maggior potere,
03:52
taller, richer --
84
217000
2000
più alti, più ricchi --
03:54
the list goes on.
85
219000
2000
e la lista continua.
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
Con la menzogna cerchiamo di colmare il divario
03:58
to connect our wishes and our fantasies
87
223000
2000
tra i nostri desideri, le nostre fantasie
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
su chi vorremmo essere o diventare,
04:03
with what we're really like.
89
228000
3000
e quello che siamo in realtà.
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
E ragazzi, ditemi se non siamo pronti a riempire il vuoto con le bugie.
04:09
On a given day, studies show that you may be lied to
91
234000
3000
In una giornata tipo, si è studiato che gli altri
04:12
anywhere from 10 to 200 times.
92
237000
2000
ci possono mentire tra le 10 e le 200 volte.
04:14
Now granted, many of those are white lies.
93
239000
3000
Di sicuro la maggior parte saranno bugie innocenti.
04:17
But in another study,
94
242000
2000
Ma un'altra ricerca
04:19
it showed that strangers lied three times
95
244000
2000
ha dimostrato che tra sconosciuti ci si mente tre volte
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
durante i primi dieci minuti della prima conversazione.
04:23
(Laughter)
97
248000
2000
(Risate)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
Quando apprendiamo questa notizia ne rimaniamo sorpresi.
04:28
We can't believe how prevalent lying is.
99
253000
2000
Non possiamo credere quanto sia comune la menzogna.
04:30
We're essentially against lying.
100
255000
2000
Fondamentalmente siamo contro le bugie.
04:32
But if you look more closely,
101
257000
2000
Ma se osserviamo meglio,
04:34
the plot actually thickens.
102
259000
2000
la trama diventa più complessa.
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
Tendiamo a mentire più con gli sconosciuti che con i colleghi.
04:39
Extroverts lie more than introverts.
104
264000
4000
Una persona estroversa mente di più dell'introverso.
04:43
Men lie eight times more about themselves
105
268000
3000
Gli uomini mentono otto volte di più su se stessi
04:46
than they do other people.
106
271000
2000
che parlando di altre persone.
04:48
Women lie more to protect other people.
107
273000
3000
Le donne mentono di più per proteggere altre persone.
04:51
If you're an average married couple,
108
276000
3000
In una comune coppia sposata
04:54
you're going to lie to your spouse
109
279000
2000
si mente all'altro coniuge una volta
04:56
in one out of every 10 interactions.
110
281000
2000
ogni dieci interazioni.
04:58
Now you may think that's bad.
111
283000
2000
Ora, potreste pensare che sia una cosa sbagliata.
05:00
If you're unmarried, that number drops to three.
112
285000
2000
Se non siete sposati il numero si riduce a tre.
05:02
Lying's complex.
113
287000
2000
Mentire è una cosa complicata.
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
Fa parte del tessuto della nostra vita pubblica e privata.
05:07
We're deeply ambivalent about the truth.
115
292000
2000
Siamo profondamente ambivalenti riguardo alla verità.
05:09
We parse it out on an as-needed basis,
116
294000
2000
La dispensiamo solo se ce n'è bisogno,
05:11
sometimes for very good reasons,
117
296000
2000
a volte per delle ragioni molto buone,
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
altre perché non comprendiamo i vuoti della nostra vita.
05:16
That's truth number two about lying.
119
301000
2000
Questa è la seconda verità sulla menzogna.
05:18
We're against lying,
120
303000
2000
Siamo contro di essa,
05:20
but we're covertly for it
121
305000
2000
ma intimamente la accettiamo
05:22
in ways that our society has sanctioned
122
307000
2000
in modi che la nostra società approva
05:24
for centuries and centuries and centuries.
123
309000
2000
da secoli e secoli.
05:26
It's as old as breathing.
124
311000
2000
E' antica come il respiro.
05:28
It's part of our culture, it's part of our history.
125
313000
2000
Fa parte della nostra cultura, della nostra storia.
05:30
Think Dante, Shakespeare,
126
315000
3000
Pensate a Dante, a Shakespeare,
05:33
the Bible, News of the World.
127
318000
3000
alla Bibbia, a 'News of the World'.
05:36
(Laughter)
128
321000
2000
(Risate)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
Mentire ha un valore evolutivo per la nostra specie.
05:40
Researchers have long known
130
325000
2000
I ricercatori sanno da lungo tempo
05:42
that the more intelligent the species,
131
327000
2000
che più la specie è intelligente
05:44
the larger the neocortex,
132
329000
2000
più estesa è la neocorteccia,
05:46
the more likely it is to be deceptive.
133
331000
2000
e maggiore è la tendenza all'inganno.
05:48
Now you might remember Koko.
134
333000
2000
Forse vi ricorderete di Koko.
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
Ricordate il gorilla Koko che aveva appreso la lingua dei segni?
05:53
Koko was taught to communicate via sign language.
136
338000
3000
A Koko fu insegnato a comunicare usando questo linguaggio.
05:56
Here's Koko with her kitten.
137
341000
2000
Ecco Koko con il suo gattino.
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
Il suo bellissimo animaletto peloso.
06:01
Koko once blamed her pet kitten
139
346000
2000
Koko una volta accusò il gattino
06:03
for ripping a sink out of the wall.
140
348000
2000
di aver staccato un lavandino dal muro.
06:05
(Laughter)
141
350000
2000
(Risate)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
Siamo tutti costruiti per diventare dei numeri uno.
06:09
It's starts really, really early.
143
354000
2000
E cominciamo davvero molto presto.
06:11
How early?
144
356000
2000
Ma quanto?
06:13
Well babies will fake a cry,
145
358000
2000
Beh, i bambini possono piangere per finta,
06:15
pause, wait to see who's coming
146
360000
2000
poi smettono, guardano se arriva qualcuno,
06:17
and then go right back to crying.
147
362000
2000
e poi riprendono a piangere.
06:19
One-year-olds learn concealment.
148
364000
2000
A un anno cominciano a nascondere le cose.
06:21
(Laughter)
149
366000
2000
(Risate)
06:23
Two-year-olds bluff.
150
368000
2000
A due anni bluffano.
06:25
Five-year-olds lie outright.
151
370000
2000
A cinque mentono di proposito.
06:27
They manipulate via flattery.
152
372000
2000
Manipolano usando l'adulazione.
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
A nove anni sono già maestri.
06:32
By the time you enter college,
154
377000
2000
Per quando andrai all'università
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
avrai mentito a tua madre almeno una volta ogni cinque interazioni.
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
E quando saremo entrati nel mondo del lavoro per guadagnarci il pane,
06:40
we enter a world that is just cluttered
157
385000
2000
entreremo in un mondo pieno
06:42
with spam, fake digital friends,
158
387000
2000
di robaccia, di finti amici digitali,
06:44
partisan media,
159
389000
2000
di informazione di parte,
06:46
ingenious identity thieves,
160
391000
2000
di ingegnosi ladri di identità,
06:48
world-class Ponzi schemers,
161
393000
2000
di schemi di vendita piramidale a livello mondiale,
06:50
a deception epidemic --
162
395000
2000
un'epidemia di menzogna --
06:52
in short, what one author calls
163
397000
2000
in breve, ciò che un autore descrive
06:54
a post-truth society.
164
399000
3000
come la società del dopo-verità.
06:57
It's been very confusing
165
402000
2000
C'è stata molta confusione
06:59
for a long time now.
166
404000
3000
per un bel po' di tempo.
07:03
What do you do?
167
408000
2000
Che cosa possiamo fare?
07:05
Well there are steps we can take
168
410000
2000
Beh, ci sono delle regole
07:07
to navigate our way through the morass.
169
412000
2000
per farci strada nel pantano.
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
Gli smascheratori esperti giungono alla verità 90 volte su 100.
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
Tutti gli altri arrivano solo al 54%.
07:15
Why is it so easy to learn?
172
420000
2000
Perché è facile apprendere il sistema?
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
Ci sono solo bravi e cattivi mentitori. Non esistono mentitori originali.
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
Commettiamo tutti gli stessi errori, usiamo le stesse tecniche.
07:23
So what I'm going to do
175
428000
2000
Quello che farò
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
è mostrarvi due schemi di inganno.
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
E poi andremo ad analizzare i trucchetti e cercheremo di scoprirli da soli.
07:30
We're going to start with speech.
178
435000
3000
Cominciamo con i discorsi.
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
(Video) Bill Clinton: Voglio che mi ascoltiate.
07:35
I'm going to say this again.
180
440000
2000
Ve lo ripeterò di nuovo.
07:37
I did not have sexual relations
181
442000
3000
Non ho avuto rapporti sessuali
07:40
with that woman, Miss Lewinsky.
182
445000
4000
con quella donna, Miss Lewinsky.
07:44
I never told anybody to lie,
183
449000
2000
Non ho mai chiesto a nessuno di mentire,
07:46
not a single time, never.
184
451000
2000
nemmeno una volta, mai.
07:48
And these allegations are false.
185
453000
3000
E queste insinuazioni sono false.
07:51
And I need to go back to work for the American people.
186
456000
2000
E devo tornare al mio lavoro al servizio degli Americani.
07:53
Thank you.
187
458000
2000
Grazie.
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
Pamela Meyer: Bene, quali erano i segnali rivelatori?
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
Beh, dapprima c'è stata la cosiddetta negazione non contrattabile.
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
Studi dimostrano che le persone determinate a negare a oltranza
08:08
will resort to formal rather than informal language.
191
473000
3000
ricorreranno al linguaggio formale anziché a quello informale.
08:11
We also heard distancing language: "that woman."
192
476000
3000
Abbiamo anche sentito che prende le distanze: "quella donna".
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
Sappiamo che i bugiardi prendono inconsciamente le distanze
08:16
from their subject
194
481000
2000
dal loro soggetto
08:18
using language as their tool.
195
483000
3000
usando il linguaggio come strumento.
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
Ora, se Bill Clinton avesse detto: "Bene, a dirvi la verità..."
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
o come era solito dire Nixon: "In tutta onestà...",
08:26
he would have been a dead giveaway
198
491000
2000
sarebbe stato facilmente scoperto
08:28
for any liespotter than knows
199
493000
2000
da qualsiasi smascheratore
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
che sa come quel tipo di linguaggio getti ulteriore
08:33
further discredits the subject.
201
498000
2000
discredito sul soggetto.
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
Ora, se avesse ripetuto la domanda nella sua interezza,
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
o se avesse aggiunto troppi particolari al suo racconto --
08:42
and we're all really glad he didn't do that --
204
507000
2000
e gli siamo tutti molto grati che non l'abbia fatto --
08:44
he would have further discredited himself.
205
509000
2000
si sarebbe screditato ancora di più.
08:46
Freud had it right.
206
511000
2000
Freud lo aveva capito.
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
Freud diceva che ci sono altri segnali oltre a quelli discorsivi:
08:51
"No mortal can keep a secret.
208
516000
3000
"Nessun mortale riuscirà a mantenere un segreto.
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
Se le labbra sono chiuse, parlerà con le dita".
08:57
And we all do it no matter how powerful you are.
210
522000
3000
Lo facciamo tutti, non conta quanto siamo bravi.
09:00
We all chatter with our fingertips.
211
525000
2000
Tutti comunichiamo usando le dita.
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
Adesso vedremo Dominique Strauss-Kahn con Obama,
09:05
who's chattering with his fingertips.
213
530000
3000
che parlotta con la punta delle dita.
09:08
(Laughter)
214
533000
3000
(Risate)
09:11
Now this brings us to our next pattern,
215
536000
3000
E questo ci porta allo schema successivo,
09:14
which is body language.
216
539000
3000
ossia al linguaggio del corpo.
09:17
With body language, here's what you've got to do.
217
542000
3000
Con questo linguaggio, ecco quello che dovete fare.
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
Dovete gettare le vostre supposizioni dalla finestra.
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
Lasciate che la scienza corrobori la vostra conoscenza.
09:25
Because we think liars fidget all the time.
220
550000
3000
Noi pensiamo che i bugiardi si agitino tutto il tempo.
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
Beh, pensate un po', la parte superiore del corpo resta immobile mentre mentono.
09:31
We think liars won't look you in the eyes.
222
556000
3000
Noi pensiamo che i bugiardi non osino guardarci negli occhi.
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
E invece, indovinate un po', vi fissano anche troppo,
09:36
just to compensate for that myth.
224
561000
2000
tanto per smitizzare questa convinzione.
09:38
We think warmth and smiles
225
563000
2000
Noi pensiamo che calore umano e sorrisi
09:40
convey honesty, sincerity.
226
565000
2000
siano indicatori di onestà, di sincerità.
09:42
But a trained liespotter
227
567000
2000
Ma uno smascheratore esperto
09:44
can spot a fake smile a mile away.
228
569000
2000
può individuare un sorriso falso a un miglio di distanza.
09:46
Can you all spot the fake smile here?
229
571000
3000
Siete in grado, qui, di scoprire il sorriso falso?
09:50
You can consciously contract
230
575000
2000
E' possibile contrarre in modo consapevole
09:52
the muscles in your cheeks.
231
577000
3000
i muscoli delle guance.
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
Ma il vero sorriso è negli occhi, nelle 'zampe di gallina'.
09:58
They cannot be consciously contracted,
233
583000
2000
Queste non si riescono a contrarre volontariamente,
10:00
especially if you overdid the Botox.
234
585000
2000
specialmente se avete fatto troppo Botox.
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
Non esagerate col Botox, nessuno vi crederà onesti.
10:05
Now we're going to look at the hot spots.
236
590000
2000
E ora andiamo a vedere i segnali tipici.
10:07
Can you tell what's happening in a conversation?
237
592000
2000
Riuscite a capire cosa avviene durante una conversazione?
10:09
Can you start to find the hot spots
238
594000
3000
A scoprire i segnali,
10:12
to see the discrepancies
239
597000
2000
le discrepanze
10:14
between someone's words and someone's actions?
240
599000
2000
tra le parole e le azioni?
10:16
Now I know it seems really obvious,
241
601000
2000
So che sembra ovvio,
10:18
but when you're having a conversation
242
603000
2000
ma quando si conversa con qualcuno
10:20
with someone you suspect of deception,
243
605000
3000
che si ritiene stia mentendo,
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
l'atteggiamento è l'indicatore più trascurato ma più importante.
10:26
An honest person is going to be cooperative.
245
611000
2000
Una persona onesta tenderà a collaborare.
10:28
They're going to show they're on your side.
246
613000
2000
Vi farà capire che sta dalla vostra parte.
10:30
They're going to be enthusiastic.
247
615000
2000
Dimostrerà entusiasmo.
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
Saranno ben disposti ad aiutarvi a giungere alla verità.
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
Vi aiuteranno a formulare idee, vi faranno nomi,
10:37
provide details.
250
622000
2000
vi forniranno particolari.
10:39
They're going to say, "Hey,
251
624000
2000
Vi diranno: "Ehi,
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
forse sono stati quelli dell'ufficio pagamenti a falsificare quegli assegni".
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
Si infurieranno se sospetteranno di essere accusati ingiustamente,
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
e durante tutto il colloquio, non solo ogni tanto;
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
saranno infuriati durante l'intera conversazione.
10:52
And if you ask someone honest
256
637000
2000
E se si chiede a una persona onesta
10:54
what should happen to whomever did forge those checks,
257
639000
3000
quali misure prendere contro chi ha falsificato gli assegni,
10:57
an honest person is much more likely
258
642000
2000
vi dirà molto probabilmente di punirli
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
in modo severo, anziché blando.
11:03
Now let's say you're having that exact same conversation
260
648000
2000
Ora supponiamo che intratteniate la stessa conversazione
11:05
with someone deceptive.
261
650000
2000
con un mentitore.
11:07
That person may be withdrawn,
262
652000
2000
Si mostrerà riservato,
11:09
look down, lower their voice,
263
654000
2000
con lo sguardo basso, parlerà a bassa voce,
11:11
pause, be kind of herky-jerky.
264
656000
2000
farà delle pause, non controllerà i movimenti.
11:13
Ask a deceptive person to tell their story,
265
658000
2000
Chiedetegli di raccontarvi la sua storia,
11:15
they're going to pepper it with way too much detail
266
660000
3000
la condirà con una quantità esagerata di dettagli
11:18
in all kinds of irrelevant places.
267
663000
3000
del tutto irrilevanti.
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
E poi vi racconterà la storia in ordine cronologico.
11:24
And what a trained interrogator does
269
669000
2000
Quello che fanno gli interrogatori professionisti
11:26
is they come in and in very subtle ways
270
671000
2000
è presentarsi più volte e in modo astuto
11:28
over the course of several hours,
271
673000
2000
nel giro di diverse ore,
11:30
they will ask that person to tell that story backwards,
272
675000
3000
chiedendo alla persona di raccontare la storia a ritroso,
11:33
and then they'll watch them squirm,
273
678000
2000
e questa mostrerà esitazione.
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
Essi registreranno quali domande causino il maggior numero di menzogne.
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
Perché lo fanno? Beh tutti noi facciamo la stessa cosa.
11:41
We rehearse our words,
276
686000
2000
Ci ripetiamo a mente il discorso,
11:43
but we rarely rehearse our gestures.
277
688000
2000
ma non facciamo le prove per i movimenti.
11:45
We say "yes," we shake our heads "no."
278
690000
2000
Diciamo "sì" ma la nostra testa dice "no".
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
Raccontiamo storie molto convincenti, alziamo appena le spalle.
11:50
We commit terrible crimes,
280
695000
2000
Commettiamo crimini terribili,
11:52
and we smile at the delight in getting away with it.
281
697000
3000
ma sorridiamo al pensiero di potercela cavare.
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
Noi del settore chiamiamo il sorriso "delizia dell'inganno".
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
E lo vedremo tra poco in diversi video,
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
ma cominceremo -- per chi non lo conosce,
12:03
this is presidential candidate John Edwards
285
708000
3000
questo è il candidato alla presidenza John Edwards
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
che ha scandalizzato gli americani per un figlio illegittimo.
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
Vedremo mentre parla di un test sulla paternità.
12:12
See now if you can spot him
288
717000
2000
Vediamo se riuscite a vederlo mentre
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
dice "sì" ma la testa dice "no",
12:16
slightly shrugging his shoulders.
290
721000
2000
mentre alza appena le spalle.
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
(Video) John Edwards: Sono pronto a fare il test.
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
So che non è possibile che il bambino sia mio,
12:23
because of the timing of events.
293
728000
2000
non sarebbe plausibile per via dei tempi.
12:25
So I know it's not possible.
294
730000
2000
Non è proprio possibile.
12:27
Happy to take a paternity test,
295
732000
2000
Sarei felice di sottopormi al test di paternità,
12:29
and would love to see it happen.
296
734000
2000
non vedo l'ora.
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
Intervistatore. Lo farà presto? C'è qualcuno --
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
JE: Beh, io sono solo una parte del test.
12:37
But I'm happy to participate in one.
299
742000
3000
Ma mi farebbe piacere fare la verifica.
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
PM: E' molto più facile notare i movimenti del capo
12:42
once you know to look for them.
301
747000
2000
una volta che si sa dove guardare.
12:44
There're going to be times
302
749000
2000
Ma a volte una persona
12:46
when someone makes one expression
303
751000
2000
fa un'espressione per tentare
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
di mascherarne un'altra che è sfuggita per un attimo dal controllo.
12:52
Murderers are known to leak sadness.
305
757000
2000
Si sa che gli assassini mostrano tratti di tristezza.
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
Il vostro nuovo partner d'affari potrà stringervi la mano,
12:56
celebrate, go out to dinner with you
307
761000
2000
festeggiare, uscire a cena con voi,
12:58
and then leak an expression of anger.
308
763000
3000
e farsi sfuggire un'espressione di rabbia.
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
Non diventeremo forse tutti esperti di espressioni facciali in un giorno,
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
ma ve ne posso insegnare una molto pericolosa, facile da imparare,
13:07
and that's the expression of contempt.
311
772000
3000
ed è l'espressione di disprezzo.
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
Ora, con la rabbia, ci sono due persone che giocano ad armi pari.
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
E' ancora una relazione sana, in un certo senso.
13:15
But when anger turns to contempt,
314
780000
2000
Ma quando la rabbia si trasforma in disprezzo
13:17
you've been dismissed.
315
782000
2000
vi hanno accantonati.
13:19
It's associated with moral superiority.
316
784000
2000
Si associa al senso di superiorità morale.
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
E per questo motivo è davvero molto difficile riprendersi.
13:24
Here's what it looks like.
318
789000
2000
Ecco come si presenta.
13:26
It's marked by one lip corner
319
791000
2000
Un angolo della bocca
13:28
pulled up and in.
320
793000
2000
in dentro e verso l'alto.
13:30
It's the only asymmetrical expression.
321
795000
3000
E' l'unica espressione asimmetrica.
13:33
And in the presence of contempt,
322
798000
2000
E in presenza di disprezzo,
13:35
whether or not deception follows --
323
800000
2000
anche non seguito da bugie --
13:37
and it doesn't always follow --
324
802000
2000
cosa che non capita sempre --
13:39
look the other way, go the other direction,
325
804000
2000
guardate altrove, andate in una direzione diversa,
13:41
reconsider the deal,
326
806000
2000
riconsiderate l'accordo,
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
dite: "No grazie. Non salgo per farmi un altro goccetto. Grazie".
13:47
Science has surfaced
328
812000
2000
La scienza ha fatto venire a galla
13:49
many, many more indicators.
329
814000
2000
molti altri indicatori.
13:51
We know, for example,
330
816000
2000
Sappiamo, per esempio,
13:53
we know liars will shift their blink rate,
331
818000
2000
che chi mente tende a battere di più le ciglia,
13:55
point their feet towards an exit.
332
820000
2000
a posizionare i piedi verso l'uscita.
13:57
They will take barrier objects
333
822000
2000
Useranno degli oggetti come barriera
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
tra sé e il loro interlocutore.
14:02
They'll alter their vocal tone,
335
827000
2000
Altereranno il tono della voce,
14:04
often making their vocal tone much lower.
336
829000
3000
spesso abbassandolo di molto.
14:07
Now here's the deal.
337
832000
2000
Ma ecco il punto.
14:09
These behaviors are just behaviors.
338
834000
3000
Questi sono solo dei comportamenti.
14:12
They're not proof of deception.
339
837000
2000
Non costituiscono prova di menzogna.
14:14
They're red flags.
340
839000
2000
Sono dei segnali di avvertimento.
14:16
We're human beings.
341
841000
2000
Siamo essere umani.
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
Facciamo in continuazione movimenti strani che sembrano ingannevoli.
14:21
They don't mean anything in and of themselves.
343
846000
2000
Di per sé non hanno alcun significato.
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
Ma se ne vediamo diverse serie, allora quello è il segnale.
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
Osservate, ascoltate, indagate, fate domande dirette,
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
andate oltre la comoda modalità dell'apprendimento,
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
siate curiosi, fate più domande,
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
abbiate un po' di dignità, cercate di stabilire un rapporto con quella persona.
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
Non siate come quelli di "Law and Order" o di altri programmi televisivi
14:41
that pummel their subjects into submission.
350
866000
2000
che costringono i loro soggetti alla sottomissione.
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
Non siate troppo aggressivi, non funzionerebbe.
14:46
Now we've talked a little bit
352
871000
2000
Ora, abbiamo affrontato la questione
14:48
about how to talk to someone who's lying
353
873000
2000
di come parlare a qualcuno che sta mentendo
14:50
and how to spot a lie.
354
875000
2000
e di come individuare le bugie.
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
Come vi ho promesso, ora vedremo come si presenta la verità.
14:55
But I'm going to show you two videos,
356
880000
2000
Vi mostrerò due video,
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
due mamme -- una mente e l'altra dice la verità.
15:00
And these were surfaced
358
885000
2000
I video sono stati analizzati
15:02
by researcher David Matsumoto in California.
359
887000
2000
dal ricercatore David Matsumoto, in California.
15:04
And I think they're an excellent example
360
889000
2000
Penso che siano un eccellente esempio
15:06
of what the truth looks like.
361
891000
2000
di come si presenti la verità.
15:08
This mother, Diane Downs,
362
893000
2000
Questa mamma, Diane Downs,
15:10
shot her kids at close range,
363
895000
2000
ha sparato ai figli a distanza ravvicinata,
15:12
drove them to the hospital
364
897000
2000
li ha portati all'ospedale in auto
15:14
while they bled all over the car,
365
899000
2000
mentre sanguinavano ovunque,
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
accusando uno sconosciuto dai capelli incolti.
15:18
And you'll see when you see the video,
367
903000
2000
Vedrete che nel video non riesce nemmeno
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
a far credere di essere una mamma straziata dal dolore.
15:22
What you want to look for here
369
907000
2000
Quello che dovete cercare qui
15:24
is an incredible discrepancy
370
909000
2000
è l'incredibile discrepanza
15:26
between horrific events that she describes
371
911000
2000
tra i fatti orrendi che descrive
15:28
and her very, very cool demeanor.
372
913000
2000
e il suo atteggiamento distaccato.
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
Se ci fate caso, scorgerete la 'delizia dell'inganno' in tutto il video.
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
(Video) Diane Downs: La notte, quando chiudo gli occhi,
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
vedo Christie allungare la mano verso di me mentre guido,
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
e il sangue che le esce dalla bocca.
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
E questo -- forse col tempo il ricordo si attenuerà --
15:43
but I don't think so.
378
928000
2000
ma non credo.
15:45
That bothers me the most.
379
930000
3000
Questo è quello che mi disturba di più.
15:55
PM: Now I'm going to show you a video
380
940000
2000
PM: Ora vi mostrerò un video
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
di una mamma realmente afflitta, Erin Runnion,
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
che affronta in tribunale l'omicida e torturatore di sua figlia.
16:03
Here you're going to see no false emotion,
383
948000
2000
Qui non vedrete emozioni false,
16:05
just the authentic expression of a mother's agony.
384
950000
3000
solo l'espressione autentica di una madre distrutta.
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
(Video) E. Runnion: Ho scritto questa dichiarazione nel terzo anniversario
16:10
of the night you took my baby,
386
955000
2000
della notte in cui hai preso la mia bambina,
16:12
and you hurt her,
387
957000
2000
e le hai fatto del male,
16:14
and you crushed her,
388
959000
2000
l'hai devastata,
16:16
you terrified her until her heart stopped.
389
961000
4000
l'hai terrorizzata finché il suo cuore ha ceduto.
16:20
And she fought, and I know she fought you.
390
965000
3000
E ha combattuto, so che ha combattuto contro di te.
16:23
But I know she looked at you
391
968000
2000
Ma so che ti ha guardato negli occhi
16:25
with those amazing brown eyes,
392
970000
2000
con i suoi splendidi occhi scuri,
16:27
and you still wanted to kill her.
393
972000
3000
e tu, ancora, hai voluto ucciderla.
16:30
And I don't understand it,
394
975000
2000
E non lo capisco,
16:32
and I never will.
395
977000
3000
non lo capirò mai.
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
PM: Bene, non c'è dubbio sulla veracità di queste emozioni.
16:39
Now the technology around what the truth looks like
397
984000
3000
La tecnologia che vuole scoprire come si presenta la verità
16:42
is progressing on, the science of it.
398
987000
3000
sta facendo progressi.
16:45
We know for example
399
990000
2000
Sappiamo per esempio che ora
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
ci sono congegni che rilevano il movimento degli occhi, e scanner cerebrali
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
che decifrano i segnali inviati dal corpo
16:53
when we're trying to be deceptive.
402
998000
2000
quando cerchiamo di ingannare gli altri.
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
Cercheranno di spacciare tutte queste tecnologie
16:58
as panaceas for deceit,
404
1003000
2000
come una panacea per scovare l'inganno,
17:00
and they will prove incredibly useful some day.
405
1005000
3000
e magari un giorno saranno davvero molto utili.
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
Ma nel frattempo dovete chiedervi:
17:05
Who do you want on your side of the meeting,
407
1010000
2000
chi volete dalla vostra parte,
17:07
someone who's trained in getting to the truth
408
1012000
3000
qualcuno in grado di farvi arrivare alla verità
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
o chi si porta appresso un apparecchio per elettroencefalogrammi
17:12
through the door?
410
1017000
2000
da 200 chili?
17:14
Liespotters rely on human tools.
411
1019000
4000
Gli smascheratori di bugie usano strumenti umani.
17:18
They know, as someone once said,
412
1023000
2000
Loro sanno, come qualcuno ha detto,
17:20
"Character's who you are in the dark."
413
1025000
2000
"Che tipo di individuo sei, anche al buio".
17:22
And what's kind of interesting
414
1027000
2000
Ed è interessante notare che
17:24
is that today we have so little darkness.
415
1029000
2000
oggi sono ancora poche le zone buie.
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
Il nostro mondo è illuminato 24 ore al giorno.
17:29
It's transparent
417
1034000
2000
Ha la trasparenza
17:31
with blogs and social networks
418
1036000
2000
dei blog e dei social network
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
che mettono in piazza i fatti di tutta una nuova generazione
17:35
that have made a choice to live their lives in public.
420
1040000
3000
che ha scelto di vivere la propria vita in pubblico.
17:38
It's a much more noisy world.
421
1043000
4000
E' un mondo molto più rumoroso.
17:42
So one challenge we have
422
1047000
2000
Dunque la nostra sfida
17:44
is to remember,
423
1049000
2000
è quella di ricordare che
17:46
oversharing, that's not honesty.
424
1051000
3000
condivisione estrema non significa onestà.
17:49
Our manic tweeting and texting
425
1054000
2000
I nostri messaggini maniacali in rete
17:51
can blind us to the fact
426
1056000
2000
possono farci dimenticare
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
che le sottigliezze della decenza umana, l'integrità dell'individuo,
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
sono quello che ancora conta e che conterà sempre.
17:59
So in this much noisier world,
429
1064000
2000
E così in questo mondo molto più rumoroso
18:01
it might make sense for us
430
1066000
2000
potrebbe aver senso cercare
18:03
to be just a little bit more explicit
431
1068000
2000
di essere un po' più espliciti
18:05
about our moral code.
432
1070000
3000
riguardo il nostro codice morale.
18:08
When you combine the science of recognizing deception
433
1073000
2000
Quando si combina la scienza del riconoscimento dell'inganno
18:10
with the art of looking, listening,
434
1075000
2000
con l'arte del saper guardare ed ascoltare,
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
si riesce a smettere di essere complici di chi mente.
18:15
You start up that path
436
1080000
2000
Iniziate soltanto
18:17
of being just a little bit more explicit,
437
1082000
2000
ad essere un po' più espliciti,
18:19
because you signal to everyone around you,
438
1084000
2000
perché chi vi sta attorno se ne accorgerà,
18:21
you say, "Hey, my world, our world,
439
1086000
3000
e dite: "Ehi, il mio mondo, il nostro mondo,
18:24
it's going to be an honest one.
440
1089000
2000
sarà un mondo onesto.
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
Il mio mondo sarà un mondo dove si valorizza la verità
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
e la falsità verrà riconosciuta ed emarginata".
18:31
And when you do that,
443
1096000
2000
E appena lo farete
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
vedrete che le cose attorno a voi cominceranno a cambiare.
18:36
And that's the truth. Thank you.
445
1101000
3000
E questa è la verità. Grazie.
18:39
(Applause)
446
1104000
5000
(Applausi)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com