TEDGlobal 2011
Pamela Meyer: How to spot a liar
Pamela Meyer : Comment repérer un menteur
Filmed:
Readability: 3.8
28,415,176 views
Chaque jour, on nous ment entre 10 et 200 fois, et les indices pour détecter ces mensonges peuvent être subtils et non intuitifs. Pamela Meyer, auteur de Liespotting, nous montre les manières et les "points chauds" employés par ceux qui sont entraînés à reconnaitre le mensonge, et elle affirme que la franchise est une valeur qui mérite d'être préservée.
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
Bon, je ne veux pas alarmer qui que ce soit dans cette salle,
00:20
but it's just come to my attention
1
5000
2000
mais je viens de remarquer
00:22
that the person to your right is a liar.
2
7000
2000
que la personne à votre droite est un menteur.
00:24
(Laughter)
3
9000
2000
(Rires)
00:26
Also, the person to your left is a liar.
4
11000
3000
Aussi, la personne à votre gauche est un menteur.
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
Et la personne assise sur votre siège est aussi un menteur.
00:32
We're all liars.
6
17000
2000
Nous sommes tous des menteurs.
00:34
What I'm going to do today
7
19000
2000
Aujourd'hui, je vais vous montrer
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
ce que dit la recherche sur le fait que nous soyons tous des menteurs,
00:39
how you can become a liespotter
9
24000
2000
comment vous pouvez devenir un traqueur de mensonges
00:41
and why you might want to go the extra mile
10
26000
3000
et pourquoi vous pourriez vouloir aller plus loin
00:44
and go from liespotting to truth seeking,
11
29000
3000
et passer de la traque de mensonge à la recherche de la vérité,
00:47
and ultimately to trust building.
12
32000
2000
pour finir par la construction de confiance.
00:49
Now speaking of trust,
13
34000
3000
Et puisqu'on parle de confiance,
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
depuis que j'ai écrit ce livre, "Liespotting"
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
personne ne veut plus me rencontrer face à face, non, non, non, non, non.
00:58
They say, "It's okay, we'll email you."
16
43000
3000
On me dit, "D'accord, on vous enverra un email."
01:01
(Laughter)
17
46000
2000
(Rires)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
Je ne peux même pas avoir un rendez-vous au Starbucks.
01:07
My husband's like, "Honey, deception?
19
52000
2000
Mon mari dit, "Chérie, le mensonge?
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
Tu aurais peut-être pu te concentrer sur la cuisine. Que penses-tu de la cuisine française?
01:12
So before I get started, what I'm going to do
21
57000
2000
Alors avant que je commence, ce que je vais faire
01:14
is I'm going to clarify my goal for you,
22
59000
3000
c'est que je vais vous expliquer clairement mon but
01:17
which is not to teach a game of Gotcha.
23
62000
2000
qui n'est pas de vous apprendre à jouer à Chat.
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
Les traqueurs de mensonges ne sont pas ces pinailleurs,
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
ces gosses au fond de la classe qui crient, "je t'ai eu! Je t'ai eu!
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
Votre sourcil a tiqué. Votre narine a frémit.
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
J'ai regardé la série télé 'Lie to me.' Je sais que vous mentez."
01:30
No, liespotters are armed
28
75000
2000
Non, les traqueurs de mensonges sont armés
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
de connaissances scientifiques pour repérer le mensonge.
01:35
They use it to get to the truth,
30
80000
2000
Ils les utilisent pour arriver à la vérité,
01:37
and they do what mature leaders do everyday;
31
82000
2000
et ils font ce que les leaders matures font tous les jours ;
01:39
they have difficult conversations with difficult people,
32
84000
3000
ils ont des conversations difficiles avec des personnes difficiles,
01:42
sometimes during very difficult times.
33
87000
2000
parfois pendant des moments très difficiles.
01:44
And they start up that path
34
89000
2000
Et ils s'engagent dans cette voie
01:46
by accepting a core proposition,
35
91000
2000
en acceptant une proposition cruciale,
01:48
and that proposition is the following:
36
93000
2000
et cette proposition est la suivante :
01:50
Lying is a cooperative act.
37
95000
3000
le mensonge est un acte coopératif.
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
Réfléchissez-y, un mensonge n'a aucun pouvoir en étant simplement prononcé;
01:57
Its power emerges
39
102000
2000
son pouvoir émerge
01:59
when someone else agrees to believe the lie.
40
104000
2000
quand quelqu'un d'autre accepte de croire le mensonge.
02:01
So I know it may sound like tough love,
41
106000
2000
Je sais que ça ressemble à de l'amour vache,
02:03
but look, if at some point you got lied to,
42
108000
4000
mais vous voyez, si à un moment on vous a menti,
02:07
it's because you agreed to get lied to.
43
112000
2000
c'est parce que vous avez accepté qu'on vous mente.
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
Vérité numéro un sur le mensonge : le mensonge est un acte coopératif.
02:12
Now not all lies are harmful.
45
117000
2000
Et tous les mensonges ne sont pas néfastes.
02:14
Sometimes we're willing participants in deception
46
119000
3000
Parfois nous sommes consentants à participer au mensonge
02:17
for the sake of social dignity,
47
122000
3000
par pure dignité sociale,
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
peut-être pour garder un secret qui doit l'être, secret.
02:23
We say, "Nice song."
49
128000
2000
Nous disons, "Jolie chanson."
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
"Chérie, tu n'as pas l'air grosse là dedans, non."
02:28
Or we say, favorite of the digiratti,
51
133000
2000
Ou nous disons, un grand classique de l'élite numérique,
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
"Vous savez, je viens juste de retrouver votre email dans le dossier spam.
02:33
So sorry."
53
138000
3000
Désolé."
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
Mais parfois nous participons au mensonge à contrecœur.
02:39
And that can have dramatic costs for us.
55
144000
3000
Et cela peut avoir un coût radical pour nous.
02:42
Last year saw 997 billion dollars
56
147000
3000
L'an dernier 997 milliards de dollars
02:45
in corporate fraud alone in the United States.
57
150000
4000
ont été dépensé dans la fraude d'entreprise aux États-Unis.
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
C'est un poil en dessous d'un trillion de dollars.
02:51
That's seven percent of revenues.
59
156000
2000
C'est 7 % des revenus.
02:53
Deception can cost billions.
60
158000
2000
Le mensonge peut couter des milliards.
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
Pensez à Enron, Madoff, la crise des hypothèques.
02:58
Or in the case of double agents and traitors,
62
163000
3000
Ou dans le cas d'agents doubles et de traitres,
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
comme Robert Hanssen ou Aldrich Ames,
03:03
lies can betray our country,
64
168000
2000
les mensonges peuvent trahir notre pays,
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
ils peuvent compromettre notre sécurité, ils peuvent saper la démocratie,
03:08
they can cause the deaths of those that defend us.
66
173000
3000
ils peuvent provoquer la mort de ceux qui nous défendent.
03:11
Deception is actually serious business.
67
176000
3000
Le mensonge est en fait une affaire sérieuse.
03:14
This con man, Henry Oberlander,
68
179000
2000
Cet escroc, Henry Oberlander,
03:16
he was such an effective con man
69
181000
2000
était si efficace
03:18
British authorities say
70
183000
2000
que les autorités britanniques disent
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
qu'il aurait pu saper le système bancaire de l'Occident tout entier.
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
En vous ne trouverez pas cet homme sur Google ; on ne le trouve nulle part.
03:25
He was interviewed once, and he said the following.
73
190000
3000
Il a été interviewé une fois, et il a dit la chose suivante.
03:28
He said, "Look, I've got one rule."
74
193000
2000
Il a dit, "J'ai une règle."
03:30
And this was Henry's rule, he said,
75
195000
3000
Et voici la règle d'Henry :
03:33
"Look, everyone is willing to give you something.
76
198000
2000
" Tout le monde veut bien vous donner quelque chose.
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
Ils sont prêts à vous donner quelque chose en échange de ce qu'ils désirent."
03:38
And that's the crux of it.
78
203000
2000
Et c'est le cœur du problème.
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
Si vous ne voulez pas être trompé, vous devez savoir,
03:42
what is it that you're hungry for?
80
207000
2000
qu'est-ce que vous désirer absolument?
03:44
And we all kind of hate to admit it.
81
209000
3000
Et nous avons tous horreur de l'admettre.
03:47
We wish we were better husbands, better wives,
82
212000
3000
Nous aimerions être de meilleurs maris, de meilleures épouses,
03:50
smarter, more powerful,
83
215000
2000
plus intelligents, plus puissants,
03:52
taller, richer --
84
217000
2000
plus grands, plus riches,
03:54
the list goes on.
85
219000
2000
la liste continue.
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
Le mensonge est une tentative de combler ce manque,
03:58
to connect our wishes and our fantasies
87
223000
2000
de connecter nos souhaits et nos fantasmes
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
à propos de qui nous aimerions être, comment nous aimerions pouvoir être,
04:03
with what we're really like.
89
228000
3000
avec ce que nous sommes vraiment.
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
Et c'est vrai que nous voulons combler ces manques dans nos vies avec des mensonges
04:09
On a given day, studies show that you may be lied to
91
234000
3000
Les études montrent que pour un jour donné, on vous ment peut-être
04:12
anywhere from 10 to 200 times.
92
237000
2000
entre 10 et 200 fois.
04:14
Now granted, many of those are white lies.
93
239000
3000
Je vous l'accorde, beaucoup de ces mensonges sont de pieux mensonges.
04:17
But in another study,
94
242000
2000
Mais une autre étude
04:19
it showed that strangers lied three times
95
244000
2000
a montré que les inconnus se mentaient trois fois
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
dans les 10 premières minutes après une rencontre.
04:23
(Laughter)
97
248000
2000
(Rires)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
Quand nous entendons ces données pour la première fois, nous reculons.
04:28
We can't believe how prevalent lying is.
99
253000
2000
Nous ne pouvons pas croire à la prévalence du mensonge.
04:30
We're essentially against lying.
100
255000
2000
Nous sommes fondamentalement contre le mensonge.
04:32
But if you look more closely,
101
257000
2000
Mais si vous regardez de plus près,
04:34
the plot actually thickens.
102
259000
2000
l'intrigue s'épaissit en fait.
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
Nous mentons plus aux étrangers que nous ne mentons aux collègues.
04:39
Extroverts lie more than introverts.
104
264000
4000
Les extravertis mentent plus que les introvertis.
04:43
Men lie eight times more about themselves
105
268000
3000
Les hommes mentent huit fois plus sur eux-mêmes
04:46
than they do other people.
106
271000
2000
qu'ils ne le font à propos des autres.
04:48
Women lie more to protect other people.
107
273000
3000
Les femmes mentent plus pour protéger d'autres gens.
04:51
If you're an average married couple,
108
276000
3000
Si vous êtes un couple marié moyen,
04:54
you're going to lie to your spouse
109
279000
2000
vous allez mentir à votre conjoint
04:56
in one out of every 10 interactions.
110
281000
2000
dans 1 interaction sur 10.
04:58
Now you may think that's bad.
111
283000
2000
Vous pensez peut-être que c'est mal.
05:00
If you're unmarried, that number drops to three.
112
285000
2000
Si vous n'êtes pas mariés, ce chiffre tombe à trois.
05:02
Lying's complex.
113
287000
2000
Le mensonge est complexe.
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
Il fait partie intégrante de nos vies quotidiennes et professionnelles.
05:07
We're deeply ambivalent about the truth.
115
292000
2000
Nous sommes profondément ambivalents au sujet de la vérité.
05:09
We parse it out on an as-needed basis,
116
294000
2000
Nous le dispensons en fonction des besoins,
05:11
sometimes for very good reasons,
117
296000
2000
parfois pour de très bonnes raisons,
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
d'autre fois simplement parce que nous ne comprenons pas les manques dans nos vies.
05:16
That's truth number two about lying.
119
301000
2000
C'est la vérité numéro deux à propos du mensonge.
05:18
We're against lying,
120
303000
2000
Nous sommes contre le mensonge,
05:20
but we're covertly for it
121
305000
2000
mais en secret nous sommes pour
05:22
in ways that our society has sanctioned
122
307000
2000
de façons que notre société a sanctionnées
05:24
for centuries and centuries and centuries.
123
309000
2000
depuis des siècles et des siècles.
05:26
It's as old as breathing.
124
311000
2000
Il est aussi vieux que la respiration.
05:28
It's part of our culture, it's part of our history.
125
313000
2000
Il fait partie de notre culture.
05:30
Think Dante, Shakespeare,
126
315000
3000
Pensez à Dante, Shakespeare,
05:33
the Bible, News of the World.
127
318000
3000
la Bible, News of the World.
05:36
(Laughter)
128
321000
2000
(Rires)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
Le mensonge a pour nous en tant qu'espèces une valeur évolutionnaire.
05:40
Researchers have long known
130
325000
2000
Les chercheurs savent depuis longtemps
05:42
that the more intelligent the species,
131
327000
2000
que plus les espèces sont intelligentes,
05:44
the larger the neocortex,
132
329000
2000
plus elles ont un gros néocortex,
05:46
the more likely it is to be deceptive.
133
331000
2000
plus elle est susceptible de mentir.
05:48
Now you might remember Koko.
134
333000
2000
Vous vous souvenez peut-être de Koko
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
Est-ce que quelqu'un se rappelle de Koko, le gorille à qui on a enseigné la langue des signes?
05:53
Koko was taught to communicate via sign language.
136
338000
3000
On a appris à Koko à communiquer par langue des signes.
05:56
Here's Koko with her kitten.
137
341000
2000
Voici Koko avec son chaton.
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
C'est son mignon petit chaton.
06:01
Koko once blamed her pet kitten
139
346000
2000
Une fois, Koko a accusé son chaton
06:03
for ripping a sink out of the wall.
140
348000
2000
d'avoir arraché un évier du mur.
06:05
(Laughter)
141
350000
2000
(Rires)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
Nous sommes programmés pour devenir chefs de meute.
06:09
It's starts really, really early.
143
354000
2000
Ça commence très très tôt.
06:11
How early?
144
356000
2000
A quel point?
06:13
Well babies will fake a cry,
145
358000
2000
Et bien les bébés vont simuler des pleurs,
06:15
pause, wait to see who's coming
146
360000
2000
s'arrêter, attendre de voir qui vient
06:17
and then go right back to crying.
147
362000
2000
et puis se remettre à pleurer.
06:19
One-year-olds learn concealment.
148
364000
2000
Les enfants d'un an apprennent la dissimulation.
06:21
(Laughter)
149
366000
2000
(Rires)
06:23
Two-year-olds bluff.
150
368000
2000
Les enfants de deux ans bluffent.
06:25
Five-year-olds lie outright.
151
370000
2000
Les enfants de 5 ans mentent effrontément.
06:27
They manipulate via flattery.
152
372000
2000
Ils manipulent par la flatterie.
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
Les enfants de neuf ans maitrisent l'étouffement d'une affaire.
06:32
By the time you enter college,
154
377000
2000
Quand vous entrez à la fac,
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
vous mentez déjà à votre mère dans 1 interaction sur 5.
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
Quand nous entrons dans le monde du travail et que nous gagnons notre vie,
06:40
we enter a world that is just cluttered
157
385000
2000
nous entrons dans un monde qui est encombré
06:42
with spam, fake digital friends,
158
387000
2000
de spam, de faux amis numériques,
06:44
partisan media,
159
389000
2000
de média partisans,
06:46
ingenious identity thieves,
160
391000
2000
de voleur d'identité ingénieux,
06:48
world-class Ponzi schemers,
161
393000
2000
de fraudeurs à la pyramide financière de classe mondiale,
06:50
a deception epidemic --
162
395000
2000
une épidémie de mensonge,
06:52
in short, what one author calls
163
397000
2000
en bref ce qu'un auteur appelle
06:54
a post-truth society.
164
399000
3000
une société post-vérité.
06:57
It's been very confusing
165
402000
2000
Voilà longtemps
06:59
for a long time now.
166
404000
3000
que c'est déroutant.
07:03
What do you do?
167
408000
2000
Que faire?
07:05
Well there are steps we can take
168
410000
2000
Nous pouvons prendre des dispositions
07:07
to navigate our way through the morass.
169
412000
2000
pour nous frayer un chemin dans ce bourbier.
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
Les traqueurs de mensonges entrainés parviennent à la vérité 90 % du temps.
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
Le reste d'entre nous, nous ne tombons juste qu'à 54 %.
07:15
Why is it so easy to learn?
172
420000
2000
Pourquoi est-ce si facile à apprendre?
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
Il y a des bons menteurs et des mauvais menteurs. Il n'y a pas de vrais menteurs originaux.
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
Nous faisons tous les mêmes erreurs. Nous employons tous les mêmes techniques.
07:23
So what I'm going to do
175
428000
2000
Alors ce que je vais faire
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
c'est vous montrer deux modèles de mensonge.
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
et puis nous regarderons les points chauds et verrons si nous pouvons les trouver nous-mêmes.
07:30
We're going to start with speech.
178
435000
3000
Nous allons commencer avec le discours :
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
(Vidéo) Bill Clinton : je veux que vous m'écoutiez.
07:35
I'm going to say this again.
180
440000
2000
Je vais me répéter.
07:37
I did not have sexual relations
181
442000
3000
Je n'ai pas eu de relations sexuelles
07:40
with that woman, Miss Lewinsky.
182
445000
4000
avec cette femme, Mlle Lewinsky.
07:44
I never told anybody to lie,
183
449000
2000
Je n'ai jamais menti à personne,
07:46
not a single time, never.
184
451000
2000
pas une seule fois, jamais.
07:48
And these allegations are false.
185
453000
3000
Et ces allégations sont fausses.
07:51
And I need to go back to work for the American people.
186
456000
2000
Et je dois retourner travailler pour le peuple américain.
07:53
Thank you.
187
458000
2000
Merci.
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
Pamela Meyer : bon, quels étaient les signes révélateurs?
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
D'abord nous avons entendu ce qu'on appelle un démenti sans engagement.
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
Les études montrent que les gens qui sont fermement déterminés dans leur démenti
08:08
will resort to formal rather than informal language.
191
473000
3000
auront recours à un langage formel plutôt qu'informel.
08:11
We also heard distancing language: "that woman."
192
476000
3000
Nous avons aussi entendu un langage de distanciation : "cette femme".
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
Nous savons que les menteurs prendront inconsciemment
08:16
from their subject
194
481000
2000
leurs distances avec leur sujet
08:18
using language as their tool.
195
483000
3000
en employant le langage comme outil.
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
Si Bill Clinton avait dit, "Et bien, pour vous dire la vérité..."
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
ou la tournure préférée de Richard Nixon, "En toute franchise..."
08:26
he would have been a dead giveaway
198
491000
2000
cela aurait été très révélateur
08:28
for any liespotter than knows
199
493000
2000
pour tout traqueur de mensonge qui sait
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
que des restrictions, comme on les appelle, comme celles-là,
08:33
further discredits the subject.
201
498000
2000
discréditent encore plus le sujet.
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
Et s'il avait répété la question toute entière,
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
où s'il avait saupoudré son discours avec un peu trop de détails,
08:42
and we're all really glad he didn't do that --
204
507000
2000
et nous sommes tous heureux qu'il ne l'ait pas fait,
08:44
he would have further discredited himself.
205
509000
2000
il se serait encore plus discrédité.
08:46
Freud had it right.
206
511000
2000
Freud avait tout compris.
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
Freud a dit, regardez, il s'agit de bien plus que de discours :
08:51
"No mortal can keep a secret.
208
516000
3000
"Aucun mortel ne peut garder un secret.
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
Si ses lèvres se taisent, il bavarde avec le bout de ses doigts."
08:57
And we all do it no matter how powerful you are.
210
522000
3000
Et nous le faisons tous quelque soit notre degré de pouvoir.
09:00
We all chatter with our fingertips.
211
525000
2000
Nous bavardons tous avec le bout de nos doigts.
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
Je vais vous montrer Dominique Strauss-Kahn avec Obama
09:05
who's chattering with his fingertips.
213
530000
3000
en train de bavarder avec le bout de ses doigts.
09:08
(Laughter)
214
533000
3000
(Rires)
09:11
Now this brings us to our next pattern,
215
536000
3000
Ceci nous amène au modèle suivant,
09:14
which is body language.
216
539000
3000
qui est le langage corporel.
09:17
With body language, here's what you've got to do.
217
542000
3000
Avec le langage corporel, voici ce qu'il faut faire.
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
Vous devez vraiment oublier vos présomptions.
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
Laissez la science modérer un peu vos connaissances
09:25
Because we think liars fidget all the time.
220
550000
3000
Parce que nous pensons que les menteurs gigotent tout le temps.
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
Et bien devinez quoi, ils savent geler le haut de leur corps quand ils mentent.
09:31
We think liars won't look you in the eyes.
222
556000
3000
Nous pensons que les menteurs ne vous regarderont pas dans les yeux.
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
Et devinez quoi, ils vous regardent dans les yeux un peu trop
09:36
just to compensate for that myth.
224
561000
2000
pour compenser ce mythe.
09:38
We think warmth and smiles
225
563000
2000
Nous pensons que la chaleur humaine et les sourires
09:40
convey honesty, sincerity.
226
565000
2000
transmettent la franchise et la sincérité.
09:42
But a trained liespotter
227
567000
2000
Mais un traqueur de mensonges
09:44
can spot a fake smile a mile away.
228
569000
2000
peut repérer un sourire faux à un kilomètre.
09:46
Can you all spot the fake smile here?
229
571000
3000
Pouvez-vous repérer le faux sourire ici?
09:50
You can consciously contract
230
575000
2000
Vous pouvez consciemment contracter
09:52
the muscles in your cheeks.
231
577000
3000
les muscles de vos joues.
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
Mais le vrai sourire est dans les yeux, les pattes d'oie des yeux.
09:58
They cannot be consciously contracted,
233
583000
2000
On ne peut pas les contracter consciemment,
10:00
especially if you overdid the Botox.
234
585000
2000
en particulier si on a abusé du botox.
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
N'abusez pas du botox ; personne ne pensera que vous êtes franc.
10:05
Now we're going to look at the hot spots.
236
590000
2000
Nous allons maintenant regarder les points chauds.
10:07
Can you tell what's happening in a conversation?
237
592000
2000
Pouvez-vous dire ce qui se passe dans une conversation?
10:09
Can you start to find the hot spots
238
594000
3000
Pouvez-vous commencer à trouver les points chauds
10:12
to see the discrepancies
239
597000
2000
pour voir les contradictions
10:14
between someone's words and someone's actions?
240
599000
2000
entre les mots de quelqu'un et ses actions?
10:16
Now I know it seems really obvious,
241
601000
2000
Je sais que ça semble évident,
10:18
but when you're having a conversation
242
603000
2000
mais quand vous avez une conversation
10:20
with someone you suspect of deception,
243
605000
3000
avec quelqu'un que vous soupçonnez de mentir,
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
l'attitude est de loin l'indicateur le plus révélateur et celui qu'on remarque le moins.
10:26
An honest person is going to be cooperative.
245
611000
2000
Une personne franche sera coopérative.
10:28
They're going to show they're on your side.
246
613000
2000
Elle va vous montrer qu'elle est de votre côté.
10:30
They're going to be enthusiastic.
247
615000
2000
Elle sera enthousiaste.
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
Elle sera prête à vous aider pour vous amener à la vérité.
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
Elle sera prête à réfléchir avec vous, à nommer des suspects,
10:37
provide details.
250
622000
2000
à fournir des détails.
10:39
They're going to say, "Hey,
251
624000
2000
Elle dira, "Hé,
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
c'est peut-être les types de la comptabilité qui ont falsifié ces chèques."
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
Elle sera furieuse si elle a l'impression d'être accusée à tort
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
tout au long de l'entrevue, pas par intermittence ;
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
elle sera furieuse tout au long de l'entrevue.
10:52
And if you ask someone honest
256
637000
2000
Et si vous demandez à quelqu'un de franc
10:54
what should happen to whomever did forge those checks,
257
639000
3000
ce qu'il devrait advenir de quiconque a falsifié ces chèques,
10:57
an honest person is much more likely
258
642000
2000
une personne franche est bien plus susceptible
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
de recommander une punition stricte plutôt qu'indulgente.
11:03
Now let's say you're having that exact same conversation
260
648000
2000
Disons maintenant que vous avez exactement la même conversation
11:05
with someone deceptive.
261
650000
2000
avec quelqu'un qui ment.
11:07
That person may be withdrawn,
262
652000
2000
Cette personne peut être renfermée,
11:09
look down, lower their voice,
263
654000
2000
baisser les yeux, baisser le ton,
11:11
pause, be kind of herky-jerky.
264
656000
2000
faire des pauses, avoir un débit saccadé.
11:13
Ask a deceptive person to tell their story,
265
658000
2000
Demandez à un menteur de raconter son histoire,
11:15
they're going to pepper it with way too much detail
266
660000
3000
il va la saupoudrer de beaucoup trop de détails
11:18
in all kinds of irrelevant places.
267
663000
3000
dans toutes sortes d'endroits hors de propos.
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
Et puis il va raconter son histoire dans un ordre chronologique strict.
11:24
And what a trained interrogator does
269
669000
2000
Et un interrogateur entrainé
11:26
is they come in and in very subtle ways
270
671000
2000
vient et de manière très subtile
11:28
over the course of several hours,
271
673000
2000
sur plusieurs heures,
11:30
they will ask that person to tell that story backwards,
272
675000
3000
il demandera à cette personne de raconter son histoire à l'envers,
11:33
and then they'll watch them squirm,
273
678000
2000
et il observera alors son malaise,
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
et notera quelles questions produisent le plus grand volume de déclarations mensongères.
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
Pourquoi font-ils ça? Et bien nous faisons tous la même chose.
11:41
We rehearse our words,
276
686000
2000
Nous répétons nos mots,
11:43
but we rarely rehearse our gestures.
277
688000
2000
mais nous répétons rarement nos gestes.
11:45
We say "yes," we shake our heads "no."
278
690000
2000
Nous disons "oui", nous faisons "non" de la tête.
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
Nous racontons des histoires très convaincantes, nous haussons légèrement les épaules.
11:50
We commit terrible crimes,
280
695000
2000
Nous commettons des crimes terribles,
11:52
and we smile at the delight in getting away with it.
281
697000
3000
et nous sourions en pensant au plaisir de ne pas être punis.
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
Et dans le métier, on appelle ce sourire le" délice de gruger".
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
Et nous allons le voir dans plusieurs vidéos,
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
mais nous allons commencer, pour ceux d'entre vous qui ne le connaissent pas,
12:03
this is presidential candidate John Edwards
285
708000
3000
voici John Edwards, le candidat à la présidentielle
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
qui a choqué l'Amérique en ayant un enfant illégitime.
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
Nous allons le voir parler de faire un test de paternité.
12:12
See now if you can spot him
288
717000
2000
Voyons maintenant si vous pouvez repérer
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
quand il dit, "oui" tout en faisant "non" de la tête,
12:16
slightly shrugging his shoulders.
290
721000
2000
en haussant légèrement les épaules.
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
(Vidéo) John Edwards : J'en ferais un volontiers.
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
Je sais qu'il n'est pas possible que cet enfant soit de moi,
12:23
because of the timing of events.
293
728000
2000
à cause de la chronologie des évènements.
12:25
So I know it's not possible.
294
730000
2000
Je sais donc que ce n'est pas possible.
12:27
Happy to take a paternity test,
295
732000
2000
Je ferais volontiers un test de paternité
12:29
and would love to see it happen.
296
734000
2000
et j'aimerais que ce soit fait.
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
Journaliste : Allez-vous le faire bientôt? Y a-t-il quelqu'un ...
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
JE : Et bien je ne suis qu'un côté. Je ne suis qu'un côté du test.
12:37
But I'm happy to participate in one.
299
742000
3000
Mais je le fais volontiers.
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
PM : bon, ces mouvements de la tête sont bien plus faciles à repérer
12:42
once you know to look for them.
301
747000
2000
une fois que vous savez les chercher.
12:44
There're going to be times
302
749000
2000
Il y aura des fois
12:46
when someone makes one expression
303
751000
2000
où quelqu'un a une expression
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
tout en en masquant une autre qui se laisse entrevoir en un éclair.
12:52
Murderers are known to leak sadness.
305
757000
2000
On sait que les meurtriers laissent paraitre de la tristesse.
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
Votre nouveau partenaire commercial peut bien vous serrer la main,
12:56
celebrate, go out to dinner with you
307
761000
2000
fêter l'évènement, sortir diner avec vous
12:58
and then leak an expression of anger.
308
763000
3000
et laisser ensuite passer une expression de colère.
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
Et nous n'allons pas tous devenir des experts en expression faciale du jour au lendemain,
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
mais il y en a une que je peux vous enseigner, qui est très dangereuse et facile à apprendre
13:07
and that's the expression of contempt.
311
772000
3000
et c'est l'expression du mépris.
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
Avec la colère, vous avez deux personnes sur un pied d'égalité.
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
Ça reste malgré tout une relation saine.
13:15
But when anger turns to contempt,
314
780000
2000
Mais quand la colère se transforme en mépris,
13:17
you've been dismissed.
315
782000
2000
on vous a exclu.
13:19
It's associated with moral superiority.
316
784000
2000
Il est associé à la supériorité morale.
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
Et pour cela, il est très, très difficile de s'en remettre.
13:24
Here's what it looks like.
318
789000
2000
Voici à quoi ça ressemble.
13:26
It's marked by one lip corner
319
791000
2000
C'est marqué par un coin de lèvre
13:28
pulled up and in.
320
793000
2000
qui est relevé et rentré.
13:30
It's the only asymmetrical expression.
321
795000
3000
C'est la seule expression asymétrique.
13:33
And in the presence of contempt,
322
798000
2000
Et en présence de mépris,
13:35
whether or not deception follows --
323
800000
2000
qu'il s'en suive un mensonge ou pas,
13:37
and it doesn't always follow --
324
802000
2000
et le mensonge ne suit pas toujours,
13:39
look the other way, go the other direction,
325
804000
2000
regardez ailleurs, partez dans l'autre direction,
13:41
reconsider the deal,
326
806000
2000
reconsidérez le contrat,
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
dites "Non merci. Je ne monte pas prendre un dernier verre. Merci."
13:47
Science has surfaced
328
812000
2000
La science a mis en évidence
13:49
many, many more indicators.
329
814000
2000
de nombreux autres indicateurs.
13:51
We know, for example,
330
816000
2000
Nous savons par exemple,
13:53
we know liars will shift their blink rate,
331
818000
2000
nous savons que les menteurs vont changer de vitesse de clignement des yeux,
13:55
point their feet towards an exit.
332
820000
2000
pointer leurs pieds vers une sortie.
13:57
They will take barrier objects
333
822000
2000
Ils vont prendre des objets barrière
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
et les mettre entre eux et la personne avec qui ils parlent.
14:02
They'll alter their vocal tone,
335
827000
2000
Ils vont changer leur ton de voix,
14:04
often making their vocal tone much lower.
336
829000
3000
souvent en le baissant beaucoup.
14:07
Now here's the deal.
337
832000
2000
Voilà ce qui se passe.
14:09
These behaviors are just behaviors.
338
834000
3000
Ces comportements ne sont que des comportements.
14:12
They're not proof of deception.
339
837000
2000
Ce ne sont pas des preuves de mensonge.
14:14
They're red flags.
340
839000
2000
Ce sont des drapeaux rouges.
14:16
We're human beings.
341
841000
2000
Nous sommes des êtres humains.
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
Nous faisons des gestes agités trompeurs partout toute la journée.
14:21
They don't mean anything in and of themselves.
343
846000
2000
Ils ne signifient rien par eux-mêmes.
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
Mais quand vous en voyez toute une série, c'est votre signal.
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
Regardez, écoutez, sondez, posez des questions difficiles,
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
sortez de ce mode confortable de savoir,
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
passez en mode curiosité, posez plus de questions,
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
ayez un peu de dignité, ayez un bon rapport avec la personne à qui vous parlez.
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
N'essayez pas d'être comme ces types de " New York, police judiciaire " et autres séries télé
14:41
that pummel their subjects into submission.
350
866000
2000
qui s'acharnent sur leurs sujets pour les soumettre.
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
Ne soyez pas trop agressif, ça ne marche pas.
14:46
Now we've talked a little bit
352
871000
2000
Nous avons abordé
14:48
about how to talk to someone who's lying
353
873000
2000
la façon de parler à quelqu'un qui ment
14:50
and how to spot a lie.
354
875000
2000
et celle de repérer un mensonge.
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
Et comme je l'ai promis, nous allons maintenant examiner ce à quoi ressemble la vérité.
14:55
But I'm going to show you two videos,
356
880000
2000
Mais je vais vous montrer deux vidéos,
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
deux mères, l'une ment, l'autre qui dit la vérité.
15:00
And these were surfaced
358
885000
2000
Elles ont été mises en évidence
15:02
by researcher David Matsumoto in California.
359
887000
2000
par le chercheur David Matsumoto en Californie.
15:04
And I think they're an excellent example
360
889000
2000
Et je crois que c'est un excellent exemple
15:06
of what the truth looks like.
361
891000
2000
de ce à quoi ressemble la vérité.
15:08
This mother, Diane Downs,
362
893000
2000
Cette mère, Diane Downs,
15:10
shot her kids at close range,
363
895000
2000
a tiré sur ses enfants à bout portant,
15:12
drove them to the hospital
364
897000
2000
les a conduits à l'hôpital
15:14
while they bled all over the car,
365
899000
2000
alors qu’ils saignaient abondamment dans la voiture
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
a prétendu qu'un étranger hirsute avait fait ça.
15:18
And you'll see when you see the video,
367
903000
2000
Et vous verrez quand vous verrez la vidéo,
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
elle ne fait même pas semblant d'être une mère accablée de douleur.
15:22
What you want to look for here
369
907000
2000
Ce que vous devez chercher ici
15:24
is an incredible discrepancy
370
909000
2000
c'est un décalage incroyable
15:26
between horrific events that she describes
371
911000
2000
entre les faits horribles qu'elle décrit
15:28
and her very, very cool demeanor.
372
913000
2000
et son attitude très, très calme.
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
Et si vous regardez de près, vous verrez un florilège de mensonge tout au long de la vidéo.
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
(Vidéo) Diane Downs : la nuit, quand je ferme les yeux,
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
je peux voir Christie tendre la main vers moi pendant que je conduis,
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
et le sang qui n'arrêtait pas de sortir de sa bouche.
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
Et que, peut-être que ça s'effacera avec le temps,
15:43
but I don't think so.
378
928000
2000
mais je ne le crois pas.
15:45
That bothers me the most.
379
930000
3000
C'est ce qui me tracasse le plus.
15:55
PM: Now I'm going to show you a video
380
940000
2000
PM : Je vais vous montrer la vidéo
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
d'une vraie mère désespérée, Erin Runnion,
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
faisant face à celui qui a torturé et tué sa fille au tribunal.
16:03
Here you're going to see no false emotion,
383
948000
2000
Ici vous ne verrez pas d'émotion feinte,
16:05
just the authentic expression of a mother's agony.
384
950000
3000
rien que l'expression authentique de la souffrance d'une mère.
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
(Vidéo) Erin Runnion : J'ai écrit cette déclaration pour le 3ème anniversaire
16:10
of the night you took my baby,
386
955000
2000
de la nuit où vous avez pris mon enfant,
16:12
and you hurt her,
387
957000
2000
et où vous lui avez fait mal,
16:14
and you crushed her,
388
959000
2000
et vous l'avez écrasée,
16:16
you terrified her until her heart stopped.
389
961000
4000
vous l'avez terrifiée jusqu’à ce que son cœur s'arrête.
16:20
And she fought, and I know she fought you.
390
965000
3000
Et elle s'est battue, et je sais qu'elle vous a combattu.
16:23
But I know she looked at you
391
968000
2000
Mais je sais qu'elle vous a regardé
16:25
with those amazing brown eyes,
392
970000
2000
avec ces étonnants yeux bruns,
16:27
and you still wanted to kill her.
393
972000
3000
et vous vouliez toujours la tuer.
16:30
And I don't understand it,
394
975000
2000
Et je ne le comprends pas,
16:32
and I never will.
395
977000
3000
et je ne le comprendrai jamais.
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
PM : Il n'y a aucun doute sur la véracité de ces émotions.
16:39
Now the technology around what the truth looks like
397
984000
3000
La technologie, son aspect scientifique, qui entoure
16:42
is progressing on, the science of it.
398
987000
3000
ce à quoi la vérité ressemble avance.
16:45
We know for example
399
990000
2000
Nous savons par exemple que nous avons désormais
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
des appareils pour suivre le regard et des scanners cérébraux à infrarouges,
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
des IRM qui peuvent décoder les signaux que nos corps envoient
16:53
when we're trying to be deceptive.
402
998000
2000
quand nous essayons de mentir.
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
Et ces technologies seront bientôt sur le marché pour tout le monde,
16:58
as panaceas for deceit,
404
1003000
2000
comme une panacée contre le mensonge,
17:00
and they will prove incredibly useful some day.
405
1005000
3000
et elles s'avèreront incroyablement utiles un de ces jours.
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
Mais en attendant, vous devez vous demander :
17:05
Who do you want on your side of the meeting,
407
1010000
2000
Qui voulez-vous à vos côtés pendant la réunion,
17:07
someone who's trained in getting to the truth
408
1012000
3000
une personne entraînée à trouver la vérité
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
ou un type qui va traîner dans la salle
17:12
through the door?
410
1017000
2000
un électroencéphalogramme de 200 kilos?
17:14
Liespotters rely on human tools.
411
1019000
4000
Les traqueurs de mensonges comptent sur des outils humains.
17:18
They know, as someone once said,
412
1023000
2000
Ils savent que, comme quelqu'un a dit,
17:20
"Character's who you are in the dark."
413
1025000
2000
"L'individu c'est qui vous êtes quand vous êtes dans le noir."
17:22
And what's kind of interesting
414
1027000
2000
Et ce qui est assez intéressant
17:24
is that today we have so little darkness.
415
1029000
2000
c'est qu'aujourd'hui nous avons si peu de noir.
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
Notre monde est éclairé 24 heures sur 24.
17:29
It's transparent
417
1034000
2000
Il est transparent.
17:31
with blogs and social networks
418
1036000
2000
avec des blogs et des réseaux sociaux
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
qui diffusent le buzz de toute une nouvelle génération de gens
17:35
that have made a choice to live their lives in public.
420
1040000
3000
qui ont fait le choix de vivre leurs vies en public.
17:38
It's a much more noisy world.
421
1043000
4000
C'est un monde beaucoup plus bruyant.
17:42
So one challenge we have
422
1047000
2000
Donc un des problèmes que nous avons
17:44
is to remember,
423
1049000
2000
est de nous rappeler,
17:46
oversharing, that's not honesty.
424
1051000
3000
trop partager, ce n'est pas être franc.
17:49
Our manic tweeting and texting
425
1054000
2000
Le fait que nous envoyons frénétiquement des tweets et des textos
17:51
can blind us to the fact
426
1056000
2000
peut nous empêcher de voir
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
que les subtilités de la décence humaine, l'intégrité de l'individu,
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
c'est toujours ce qui compte, c'est ce qui comptera toujours.
17:59
So in this much noisier world,
429
1064000
2000
Alors dans ce monde bien plus bruyant,
18:01
it might make sense for us
430
1066000
2000
il pourrait être sensé que nous soyons
18:03
to be just a little bit more explicit
431
1068000
2000
un tout petit peu plus explicites
18:05
about our moral code.
432
1070000
3000
quant à notre code de moralité.
18:08
When you combine the science of recognizing deception
433
1073000
2000
Quand vous combinez la science de la reconnaissance du mensonge
18:10
with the art of looking, listening,
434
1075000
2000
avec l'art de regarder, d'écouter,
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
vous vous dispensez de collaborer à un mensonge.
18:15
You start up that path
436
1080000
2000
Vous vous engagez sur cette voie
18:17
of being just a little bit more explicit,
437
1082000
2000
pour être un petit peu plus explicite,
18:19
because you signal to everyone around you,
438
1084000
2000
parce que vous envoyez à tout le monde autour de vous
18:21
you say, "Hey, my world, our world,
439
1086000
3000
un signal qui dit, "Hé, mon monde, notre monde,
18:24
it's going to be an honest one.
440
1089000
2000
sera un monde honnête.
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
Dans mon monde, la vérité sera renforcée
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
et le mensonge sera reconnu et marginalisé."
18:31
And when you do that,
443
1096000
2000
Et quand vous faites ça,
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
le sol autour de vous commence à bouger un tout petit peu.
18:36
And that's the truth. Thank you.
445
1101000
3000
Et c'est la vérité. Merci.
18:39
(Applause)
446
1104000
5000
(Applaudissements)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com