ABOUT THE SPEAKER
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.

Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.

Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speaker
Pamela Meyer | Speaker | TED.com
TEDGlobal 2011

Pamela Meyer: How to spot a liar

Pamela Meyer : Comment repérer un menteur

Filmed:
28,415,176 views

Chaque jour, on nous ment entre 10 et 200 fois, et les indices pour détecter ces mensonges peuvent être subtils et non intuitifs. Pamela Meyer, auteur de Liespotting, nous montre les manières et les "points chauds" employés par ceux qui sont entraînés à reconnaitre le mensonge, et elle affirme que la franchise est une valeur qui mérite d'être préservée.
- Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio

Double-click the English transcript below to play the video.

00:15
Okay, now I don't want to alarmalarme anybodyn'importe qui in this roomchambre,
0
0
5000
Bon, je ne veux pas alarmer qui que ce soit dans cette salle,
00:20
but it's just come to my attentionattention
1
5000
2000
mais je viens de remarquer
00:22
that the personla personne to your right is a liarmenteur.
2
7000
2000
que la personne à votre droite est un menteur.
00:24
(LaughterRires)
3
9000
2000
(Rires)
00:26
AlsoAussi, the personla personne to your left is a liarmenteur.
4
11000
3000
Aussi, la personne à votre gauche est un menteur.
00:29
AlsoAussi the personla personne sittingséance in your very seatsdes places is a liarmenteur.
5
14000
3000
Et la personne assise sur votre siège est aussi un menteur.
00:32
We're all liarsmenteurs.
6
17000
2000
Nous sommes tous des menteurs.
00:34
What I'm going to do todayaujourd'hui
7
19000
2000
Aujourd'hui, je vais vous montrer
00:36
is I'm going to showmontrer you what the researchrecherche saysdit about why we're all liarsmenteurs,
8
21000
3000
ce que dit la recherche sur le fait que nous soyons tous des menteurs,
00:39
how you can becomedevenir a liespotterliespotter
9
24000
2000
comment vous pouvez devenir un traqueur de mensonges
00:41
and why you mightpourrait want to go the extrasupplémentaire milemile
10
26000
3000
et pourquoi vous pourriez vouloir aller plus loin
00:44
and go from liespottingliespotting to truthvérité seekingcherchant,
11
29000
3000
et passer de la traque de mensonge à la recherche de la vérité,
00:47
and ultimatelyen fin de compte to trustconfiance buildingbâtiment.
12
32000
2000
pour finir par la construction de confiance.
00:49
Now speakingParlant of trustconfiance,
13
34000
3000
Et puisqu'on parle de confiance,
00:52
ever sincedepuis I wrotea écrit this booklivre, "LiespottingLiespotting,"
14
37000
3000
depuis que j'ai écrit ce livre, "Liespotting"
00:55
no one wants to meetrencontrer me in personla personne anymoreplus, no, no, no, no, no.
15
40000
3000
personne ne veut plus me rencontrer face à face, non, non, non, non, non.
00:58
They say, "It's okay, we'llbien emailemail you."
16
43000
3000
On me dit, "D'accord, on vous enverra un email."
01:01
(LaughterRires)
17
46000
2000
(Rires)
01:03
I can't even get a coffeecafé daterendez-vous amoureux at StarbucksStarbucks.
18
48000
4000
Je ne peux même pas avoir un rendez-vous au Starbucks.
01:07
My husband'sle mari like, "HoneyMiel, deceptionDeception?
19
52000
2000
Mon mari dit, "Chérie, le mensonge?
01:09
Maybe you could have focusedconcentré on cookingcuisine. How about FrenchFrançais cookingcuisine?"
20
54000
3000
Tu aurais peut-être pu te concentrer sur la cuisine. Que penses-tu de la cuisine française?
01:12
So before I get startedcommencé, what I'm going to do
21
57000
2000
Alors avant que je commence, ce que je vais faire
01:14
is I'm going to clarifyclarifier my goalobjectif for you,
22
59000
3000
c'est que je vais vous expliquer clairement mon but
01:17
whichlequel is not to teachapprendre a gameJeu of GotchaGotcha.
23
62000
2000
qui n'est pas de vous apprendre à jouer à Chat.
01:19
LiespottersLiespotters aren'tne sont pas those nitpickynitpicky kidsdes gamins,
24
64000
2000
Les traqueurs de mensonges ne sont pas ces pinailleurs,
01:21
those kidsdes gamins in the back of the roomchambre that are shoutingen criant, "GotchaGotcha! GotchaGotcha!
25
66000
3000
ces gosses au fond de la classe qui crient, "je t'ai eu! Je t'ai eu!
01:24
Your eyebrowsourcil twitchedtremblaient. You flaredbrûlé à la torche your nostrilnarine.
26
69000
3000
Votre sourcil a tiqué. Votre narine a frémit.
01:27
I watch that TVTV showmontrer 'Lie' Lie To Me.' I know you're lyingmensonge."
27
72000
3000
J'ai regardé la série télé 'Lie to me.' Je sais que vous mentez."
01:30
No, liespottersliespotters are armedarmé
28
75000
2000
Non, les traqueurs de mensonges sont armés
01:32
with scientificscientifique knowledgeconnaissance of how to spotplace deceptionDeception.
29
77000
3000
de connaissances scientifiques pour repérer le mensonge.
01:35
They use it to get to the truthvérité,
30
80000
2000
Ils les utilisent pour arriver à la vérité,
01:37
and they do what maturemature leadersdirigeants do everydaytous les jours;
31
82000
2000
et ils font ce que les leaders matures font tous les jours ;
01:39
they have difficultdifficile conversationsconversations with difficultdifficile people,
32
84000
3000
ils ont des conversations difficiles avec des personnes difficiles,
01:42
sometimesparfois duringpendant very difficultdifficile timesfois.
33
87000
2000
parfois pendant des moments très difficiles.
01:44
And they startdébut up that pathchemin
34
89000
2000
Et ils s'engagent dans cette voie
01:46
by acceptingacceptant a corecoeur propositionproposition,
35
91000
2000
en acceptant une proposition cruciale,
01:48
and that propositionproposition is the followingSuivant:
36
93000
2000
et cette proposition est la suivante :
01:50
LyingCouché is a cooperativecoopérative actacte.
37
95000
3000
le mensonge est un acte coopératif.
01:53
Think about it, a liemensonge has no powerPuissance whatsoeverquoi que ce soit by its meresimple utteranceénonciation.
38
98000
4000
Réfléchissez-y, un mensonge n'a aucun pouvoir en étant simplement prononcé;
01:57
Its powerPuissance emergesémerge
39
102000
2000
son pouvoir émerge
01:59
when someoneQuelqu'un elseautre agreesaccepte to believe the liemensonge.
40
104000
2000
quand quelqu'un d'autre accepte de croire le mensonge.
02:01
So I know it maymai sounddu son like toughdure love,
41
106000
2000
Je sais que ça ressemble à de l'amour vache,
02:03
but look, if at some pointpoint you got liedmenti to,
42
108000
4000
mais vous voyez, si à un moment on vous a menti,
02:07
it's because you agreedD'accord to get liedmenti to.
43
112000
2000
c'est parce que vous avez accepté qu'on vous mente.
02:09
TruthVérité numbernombre one about lyingmensonge: Lying'sDu mensonge a cooperativecoopérative actacte.
44
114000
3000
Vérité numéro un sur le mensonge : le mensonge est un acte coopératif.
02:12
Now not all liesmentir are harmfulnocif.
45
117000
2000
Et tous les mensonges ne sont pas néfastes.
02:14
SometimesParfois we're willingprêt participantsparticipants in deceptionDeception
46
119000
3000
Parfois nous sommes consentants à participer au mensonge
02:17
for the sakeSaké of socialsocial dignitydignité,
47
122000
3000
par pure dignité sociale,
02:20
maybe to keep a secretsecret that should be keptconservé secretsecret, secretsecret.
48
125000
3000
peut-être pour garder un secret qui doit l'être, secret.
02:23
We say, "NiceNice songchant."
49
128000
2000
Nous disons, "Jolie chanson."
02:25
"HoneyMiel, you don't look fatgraisse in that, no."
50
130000
3000
"Chérie, tu n'as pas l'air grosse là dedans, non."
02:28
Or we say, favoritepréféré of the digirattidigiratti,
51
133000
2000
Ou nous disons, un grand classique de l'élite numérique,
02:30
"You know, I just fishedpêché that emailemail out of my spamSpam folderdossier.
52
135000
3000
"Vous savez, je viens juste de retrouver votre email dans le dossier spam.
02:33
So sorry."
53
138000
3000
Désolé."
02:36
But there are timesfois when we are unwillingpas disposé participantsparticipants in deceptionDeception.
54
141000
3000
Mais parfois nous participons au mensonge à contrecœur.
02:39
And that can have dramaticdramatique costsfrais for us.
55
144000
3000
Et cela peut avoir un coût radical pour nous.
02:42
Last yearan saw 997 billionmilliard dollarsdollars
56
147000
3000
L'an dernier 997 milliards de dollars
02:45
in corporateentreprise fraudfraude aloneseul in the UnitedUnie StatesÉtats.
57
150000
4000
ont été dépensé dans la fraude d'entreprise aux États-Unis.
02:49
That's an eyelashcils underen dessous de a trillionbillion dollarsdollars.
58
154000
2000
C'est un poil en dessous d'un trillion de dollars.
02:51
That's sevenSept percentpour cent of revenueschiffre d’affaires.
59
156000
2000
C'est 7 % des revenus.
02:53
DeceptionDeception can costCoût billionsdes milliards.
60
158000
2000
Le mensonge peut couter des milliards.
02:55
Think EnronEnron, MadoffMadoff, the mortgagehypothèque crisiscrise.
61
160000
3000
Pensez à Enron, Madoff, la crise des hypothèques.
02:58
Or in the caseCas of doubledouble agentsagents and traitorstraîtres,
62
163000
3000
Ou dans le cas d'agents doubles et de traitres,
03:01
like RobertRobert HanssenHanssen or AldrichAldrich AmesAmes,
63
166000
2000
comme Robert Hanssen ou Aldrich Ames,
03:03
liesmentir can betraytrahir our countryPays,
64
168000
2000
les mensonges peuvent trahir notre pays,
03:05
they can compromisefaire des compromis our securitySécurité, they can underminesaper democracyla démocratie,
65
170000
3000
ils peuvent compromettre notre sécurité, ils peuvent saper la démocratie,
03:08
they can causecause the deathsdes morts of those that defenddéfendre us.
66
173000
3000
ils peuvent provoquer la mort de ceux qui nous défendent.
03:11
DeceptionDeception is actuallyréellement serioussérieux businessEntreprise.
67
176000
3000
Le mensonge est en fait une affaire sérieuse.
03:14
This con man, HenryHenry OberlanderM. Oberlander,
68
179000
2000
Cet escroc, Henry Oberlander,
03:16
he was suchtel an effectiveefficace con man
69
181000
2000
était si efficace
03:18
BritishBritannique authoritiesles autorités say
70
183000
2000
que les autorités britanniques disent
03:20
he could have underminedsapé the entiretout bankingservices bancaires systemsystème of the WesternWestern worldmonde.
71
185000
3000
qu'il aurait pu saper le système bancaire de l'Occident tout entier.
03:23
And you can't find this guy on GoogleGoogle; you can't find him anywherenulle part.
72
188000
2000
En vous ne trouverez pas cet homme sur Google ; on ne le trouve nulle part.
03:25
He was interviewedinterviewé onceune fois que, and he said the followingSuivant.
73
190000
3000
Il a été interviewé une fois, et il a dit la chose suivante.
03:28
He said, "Look, I've got one ruleRègle."
74
193000
2000
Il a dit, "J'ai une règle."
03:30
And this was Henry'sHenry ruleRègle, he said,
75
195000
3000
Et voici la règle d'Henry :
03:33
"Look, everyonetoutes les personnes is willingprêt to give you something.
76
198000
2000
" Tout le monde veut bien vous donner quelque chose.
03:35
They're readyprêt to give you something for whateverpeu importe it is they're hungryaffamé for."
77
200000
3000
Ils sont prêts à vous donner quelque chose en échange de ce qu'ils désirent."
03:38
And that's the cruxCrux of it.
78
203000
2000
Et c'est le cœur du problème.
03:40
If you don't want to be deceivedtrompé, you have to know,
79
205000
2000
Si vous ne voulez pas être trompé, vous devez savoir,
03:42
what is it that you're hungryaffamé for?
80
207000
2000
qu'est-ce que vous désirer absolument?
03:44
And we all kindgentil of hatehaine to admitadmettre it.
81
209000
3000
Et nous avons tous horreur de l'admettre.
03:47
We wishsouhait we were better husbandsMaris, better wivesépouses,
82
212000
3000
Nous aimerions être de meilleurs maris, de meilleures épouses,
03:50
smarterplus intelligent, more powerfulpuissant,
83
215000
2000
plus intelligents, plus puissants,
03:52
tallerplus grand, richerplus riche --
84
217000
2000
plus grands, plus riches,
03:54
the listliste goesva on.
85
219000
2000
la liste continue.
03:56
LyingCouché is an attempttentative to bridgepont that gapécart,
86
221000
2000
Le mensonge est une tentative de combler ce manque,
03:58
to connectrelier our wishesvœux and our fantasiesfantasmes
87
223000
2000
de connecter nos souhaits et nos fantasmes
04:00
about who we wishsouhait we were, how we wishsouhait we could be,
88
225000
3000
à propos de qui nous aimerions être, comment nous aimerions pouvoir être,
04:03
with what we're really like.
89
228000
3000
avec ce que nous sommes vraiment.
04:06
And boygarçon are we willingprêt to fillremplir in those gapslacunes in our livesvies with liesmentir.
90
231000
3000
Et c'est vrai que nous voulons combler ces manques dans nos vies avec des mensonges
04:09
On a givendonné day, studiesétudes showmontrer that you maymai be liedmenti to
91
234000
3000
Les études montrent que pour un jour donné, on vous ment peut-être
04:12
anywherenulle part from 10 to 200 timesfois.
92
237000
2000
entre 10 et 200 fois.
04:14
Now grantedaccordé, manybeaucoup of those are whiteblanc liesmentir.
93
239000
3000
Je vous l'accorde, beaucoup de ces mensonges sont de pieux mensonges.
04:17
But in anotherun autre studyétude,
94
242000
2000
Mais une autre étude
04:19
it showedmontré that strangersétrangers liedmenti threeTrois timesfois
95
244000
2000
a montré que les inconnus se mentaient trois fois
04:21
withindans the first 10 minutesminutes of meetingréunion eachchaque other.
96
246000
2000
dans les 10 premières minutes après une rencontre.
04:23
(LaughterRires)
97
248000
2000
(Rires)
04:25
Now when we first hearentendre this dataLes données, we recoilrecul.
98
250000
3000
Quand nous entendons ces données pour la première fois, nous reculons.
04:28
We can't believe how prevalentfréquent lyingmensonge is.
99
253000
2000
Nous ne pouvons pas croire à la prévalence du mensonge.
04:30
We're essentiallyessentiellement againstcontre lyingmensonge.
100
255000
2000
Nous sommes fondamentalement contre le mensonge.
04:32
But if you look more closelyétroitement,
101
257000
2000
Mais si vous regardez de plus près,
04:34
the plotterrain actuallyréellement thickenss’épaissit.
102
259000
2000
l'intrigue s'épaissit en fait.
04:36
We liemensonge more to strangersétrangers than we liemensonge to coworkerscollègues de travail.
103
261000
3000
Nous mentons plus aux étrangers que nous ne mentons aux collègues.
04:39
ExtrovertsExtravertis liemensonge more than introvertsintrovertis.
104
264000
4000
Les extravertis mentent plus que les introvertis.
04:43
MenHommes liemensonge eighthuit timesfois more about themselvesse
105
268000
3000
Les hommes mentent huit fois plus sur eux-mêmes
04:46
than they do other people.
106
271000
2000
qu'ils ne le font à propos des autres.
04:48
WomenFemmes liemensonge more to protectprotéger other people.
107
273000
3000
Les femmes mentent plus pour protéger d'autres gens.
04:51
If you're an averagemoyenne marriedmarié couplecouple,
108
276000
3000
Si vous êtes un couple marié moyen,
04:54
you're going to liemensonge to your spouseépoux
109
279000
2000
vous allez mentir à votre conjoint
04:56
in one out of everychaque 10 interactionsinteractions.
110
281000
2000
dans 1 interaction sur 10.
04:58
Now you maymai think that's badmal.
111
283000
2000
Vous pensez peut-être que c'est mal.
05:00
If you're unmarriedcélibataire, that numbernombre dropsgouttes to threeTrois.
112
285000
2000
Si vous n'êtes pas mariés, ce chiffre tombe à trois.
05:02
Lying'sDu mensonge complexcomplexe.
113
287000
2000
Le mensonge est complexe.
05:04
It's woventissé into the fabricen tissu of our dailydu quotidien and our businessEntreprise livesvies.
114
289000
3000
Il fait partie intégrante de nos vies quotidiennes et professionnelles.
05:07
We're deeplyprofondément ambivalentambivalent about the truthvérité.
115
292000
2000
Nous sommes profondément ambivalents au sujet de la vérité.
05:09
We parseparse it out on an as-neededselon les besoins basisbase,
116
294000
2000
Nous le dispensons en fonction des besoins,
05:11
sometimesparfois for very good reasonsles raisons,
117
296000
2000
parfois pour de très bonnes raisons,
05:13
other timesfois just because we don't understandcomprendre the gapslacunes in our livesvies.
118
298000
3000
d'autre fois simplement parce que nous ne comprenons pas les manques dans nos vies.
05:16
That's truthvérité numbernombre two about lyingmensonge.
119
301000
2000
C'est la vérité numéro deux à propos du mensonge.
05:18
We're againstcontre lyingmensonge,
120
303000
2000
Nous sommes contre le mensonge,
05:20
but we're covertlysecrètement for it
121
305000
2000
mais en secret nous sommes pour
05:22
in waysfaçons that our societysociété has sanctionedsanctionnée par
122
307000
2000
de façons que notre société a sanctionnées
05:24
for centuriesdes siècles and centuriesdes siècles and centuriesdes siècles.
123
309000
2000
depuis des siècles et des siècles.
05:26
It's as oldvieux as breathingrespiration.
124
311000
2000
Il est aussi vieux que la respiration.
05:28
It's partpartie of our cultureCulture, it's partpartie of our historyhistoire.
125
313000
2000
Il fait partie de notre culture.
05:30
Think DanteDante, ShakespeareShakespeare,
126
315000
3000
Pensez à Dante, Shakespeare,
05:33
the BibleBible, NewsNouvelles of the WorldMonde.
127
318000
3000
la Bible, News of the World.
05:36
(LaughterRires)
128
321000
2000
(Rires)
05:38
LyingCouché has evolutionaryévolutionniste valuevaleur to us as a speciesespèce.
129
323000
2000
Le mensonge a pour nous en tant qu'espèces une valeur évolutionnaire.
05:40
ResearchersChercheurs have long knownconnu
130
325000
2000
Les chercheurs savent depuis longtemps
05:42
that the more intelligentintelligent the speciesespèce,
131
327000
2000
que plus les espèces sont intelligentes,
05:44
the largerplus grand the neocortexnéocortex,
132
329000
2000
plus elles ont un gros néocortex,
05:46
the more likelyprobable it is to be deceptivetrompeuses.
133
331000
2000
plus elle est susceptible de mentir.
05:48
Now you mightpourrait rememberrappelles toi KokoKoko.
134
333000
2000
Vous vous souvenez peut-être de Koko
05:50
Does anybodyn'importe qui rememberrappelles toi KokoKoko the gorillagorille who was taughtenseigné signsigne languagela langue?
135
335000
3000
Est-ce que quelqu'un se rappelle de Koko, le gorille à qui on a enseigné la langue des signes?
05:53
KokoKoko was taughtenseigné to communicatecommuniquer viavia signsigne languagela langue.
136
338000
3000
On a appris à Koko à communiquer par langue des signes.
05:56
Here'sVoici KokoKoko with her kittenchaton.
137
341000
2000
Voici Koko avec son chaton.
05:58
It's her cutemignon little, fluffymoelleux petanimal de compagnie kittenchaton.
138
343000
3000
C'est son mignon petit chaton.
06:01
KokoKoko onceune fois que blamedblâmé her petanimal de compagnie kittenchaton
139
346000
2000
Une fois, Koko a accusé son chaton
06:03
for rippingdéchirure a sinkévier out of the wallmur.
140
348000
2000
d'avoir arraché un évier du mur.
06:05
(LaughterRires)
141
350000
2000
(Rires)
06:07
We're hardwiredcâblé to becomedevenir leadersdirigeants of the packpack.
142
352000
2000
Nous sommes programmés pour devenir chefs de meute.
06:09
It's startsdéparts really, really earlyde bonne heure.
143
354000
2000
Ça commence très très tôt.
06:11
How earlyde bonne heure?
144
356000
2000
A quel point?
06:13
Well babiesbébés will fakefaux a crycri,
145
358000
2000
Et bien les bébés vont simuler des pleurs,
06:15
pausepause, wait to see who'squi est comingvenir
146
360000
2000
s'arrêter, attendre de voir qui vient
06:17
and then go right back to cryingpleurs.
147
362000
2000
et puis se remettre à pleurer.
06:19
One-year-oldsOne-year-olds learnapprendre concealmentdissimulation.
148
364000
2000
Les enfants d'un an apprennent la dissimulation.
06:21
(LaughterRires)
149
366000
2000
(Rires)
06:23
Two-year-oldsDeux ans bluffBluff.
150
368000
2000
Les enfants de deux ans bluffent.
06:25
Five-year-oldsFive-year-olds liemensonge outrightpure et simple.
151
370000
2000
Les enfants de 5 ans mentent effrontément.
06:27
They manipulatemanipuler viavia flatteryflatterie.
152
372000
2000
Ils manipulent par la flatterie.
06:29
Nine-year-oldsNeuf ans, mastersmaîtres of the covercouverture up.
153
374000
3000
Les enfants de neuf ans maitrisent l'étouffement d'une affaire.
06:32
By the time you enterentrer collegeUniversité,
154
377000
2000
Quand vous entrez à la fac,
06:34
you're going to liemensonge to your mommaman in one out of everychaque fivecinq interactionsinteractions.
155
379000
3000
vous mentez déjà à votre mère dans 1 interaction sur 5.
06:37
By the time we enterentrer this work worldmonde and we're breadwinnerssoutiens de famille,
156
382000
3000
Quand nous entrons dans le monde du travail et que nous gagnons notre vie,
06:40
we enterentrer a worldmonde that is just clutteredencombré
157
385000
2000
nous entrons dans un monde qui est encombré
06:42
with spamSpam, fakefaux digitalnumérique friendscopains,
158
387000
2000
de spam, de faux amis numériques,
06:44
partisanpartisan mediamédias,
159
389000
2000
de média partisans,
06:46
ingeniousingénieux identityidentité thievesvoleurs,
160
391000
2000
de voleur d'identité ingénieux,
06:48
world-classclasse mondiale PonziPonzi schemersintrigants,
161
393000
2000
de fraudeurs à la pyramide financière de classe mondiale,
06:50
a deceptionDeception epidemicépidémie --
162
395000
2000
une épidémie de mensonge,
06:52
in shortcourt, what one authorauteur callsappels
163
397000
2000
en bref ce qu'un auteur appelle
06:54
a post-truthpost-vérité societysociété.
164
399000
3000
une société post-vérité.
06:57
It's been very confusingdéroutant
165
402000
2000
Voilà longtemps
06:59
for a long time now.
166
404000
3000
que c'est déroutant.
07:03
What do you do?
167
408000
2000
Que faire?
07:05
Well there are stepspas we can take
168
410000
2000
Nous pouvons prendre des dispositions
07:07
to navigatenaviguer our way throughpar the morassbourbier.
169
412000
2000
pour nous frayer un chemin dans ce bourbier.
07:09
TrainedUne formation liespottersliespotters get to the truthvérité 90 percentpour cent of the time.
170
414000
3000
Les traqueurs de mensonges entrainés parviennent à la vérité 90 % du temps.
07:12
The restdu repos of us, we're only 54 percentpour cent accurateprécis.
171
417000
3000
Le reste d'entre nous, nous ne tombons juste qu'à 54 %.
07:15
Why is it so easyfacile to learnapprendre?
172
420000
2000
Pourquoi est-ce si facile à apprendre?
07:17
There are good liarsmenteurs and there are badmal liarsmenteurs. There are no realréal originaloriginal liarsmenteurs.
173
422000
3000
Il y a des bons menteurs et des mauvais menteurs. Il n'y a pas de vrais menteurs originaux.
07:20
We all make the sameMême mistakeserreurs. We all use the sameMême techniquestechniques.
174
425000
3000
Nous faisons tous les mêmes erreurs. Nous employons tous les mêmes techniques.
07:23
So what I'm going to do
175
428000
2000
Alors ce que je vais faire
07:25
is I'm going to showmontrer you two patternsmodèles of deceptionDeception.
176
430000
2000
c'est vous montrer deux modèles de mensonge.
07:27
And then we're going to look at the hotchaud spotsspots and see if we can find them ourselvesnous-mêmes.
177
432000
3000
et puis nous regarderons les points chauds et verrons si nous pouvons les trouver nous-mêmes.
07:30
We're going to startdébut with speechdiscours.
178
435000
3000
Nous allons commencer avec le discours :
07:33
(VideoVidéo) BillProjet de loi ClintonClinton: I want you to listen to me.
179
438000
2000
(Vidéo) Bill Clinton : je veux que vous m'écoutiez.
07:35
I'm going to say this again.
180
440000
2000
Je vais me répéter.
07:37
I did not have sexualsexuel relationsrapports
181
442000
3000
Je n'ai pas eu de relations sexuelles
07:40
with that womanfemme, MissMiss LewinskyMonica Lewinsky.
182
445000
4000
avec cette femme, Mlle Lewinsky.
07:44
I never told anybodyn'importe qui to liemensonge,
183
449000
2000
Je n'ai jamais menti à personne,
07:46
not a singleunique time, never.
184
451000
2000
pas une seule fois, jamais.
07:48
And these allegationsallégations are falsefaux.
185
453000
3000
Et ces allégations sont fausses.
07:51
And I need to go back to work for the AmericanAméricain people.
186
456000
2000
Et je dois retourner travailler pour le peuple américain.
07:53
Thank you.
187
458000
2000
Merci.
07:58
PamelaPamela MeyerMeyer: Okay, what were the telltaleTelltale signssignes?
188
463000
3000
Pamela Meyer : bon, quels étaient les signes révélateurs?
08:01
Well first we heardentendu what's knownconnu as a non-contractedsans contrat denialle déni.
189
466000
4000
D'abord nous avons entendu ce qu'on appelle un démenti sans engagement.
08:05
StudiesÉtudes showmontrer that people who are overdeterminedsurdéterminé in theirleur denialle déni
190
470000
3000
Les études montrent que les gens qui sont fermement déterminés dans leur démenti
08:08
will resortrecours to formalformel ratherplutôt than informalinformel languagela langue.
191
473000
3000
auront recours à un langage formel plutôt qu'informel.
08:11
We alsoaussi heardentendu distancingdistanciation languagela langue: "that womanfemme."
192
476000
3000
Nous avons aussi entendu un langage de distanciation : "cette femme".
08:14
We know that liarsmenteurs will unconsciouslyinconsciemment distancedistance themselvesse
193
479000
2000
Nous savons que les menteurs prendront inconsciemment
08:16
from theirleur subjectassujettir
194
481000
2000
leurs distances avec leur sujet
08:18
usingen utilisant languagela langue as theirleur tooloutil.
195
483000
3000
en employant le langage comme outil.
08:21
Now if BillProjet de loi ClintonClinton had said, "Well, to tell you the truthvérité ... "
196
486000
3000
Si Bill Clinton avait dit, "Et bien, pour vous dire la vérité..."
08:24
or RichardRichard Nixon'sPar Nixon favoritepréféré, "In all candorCandor ... "
197
489000
2000
ou la tournure préférée de Richard Nixon, "En toute franchise..."
08:26
he would have been a deadmort giveawayGiveaway
198
491000
2000
cela aurait été très révélateur
08:28
for any liespotterliespotter than knowssait
199
493000
2000
pour tout traqueur de mensonge qui sait
08:30
that qualifyingqualification languagela langue, as it's calledappelé, qualifyingqualification languagela langue like that,
200
495000
3000
que des restrictions, comme on les appelle, comme celles-là,
08:33
furtherplus loin discreditsjette le discrédit sur the subjectassujettir.
201
498000
2000
discréditent encore plus le sujet.
08:35
Now if he had repeatedrépété the questionquestion in its entiretyensemble,
202
500000
3000
Et s'il avait répété la question toute entière,
08:38
or if he had pepperedau poivre his accountCompte with a little too much detaildétail --
203
503000
4000
où s'il avait saupoudré son discours avec un peu trop de détails,
08:42
and we're all really gladcontent de he didn't do that --
204
507000
2000
et nous sommes tous heureux qu'il ne l'ait pas fait,
08:44
he would have furtherplus loin discrediteddiscréditée himselflui-même.
205
509000
2000
il se serait encore plus discrédité.
08:46
FreudFreud had it right.
206
511000
2000
Freud avait tout compris.
08:48
FreudFreud said, look, there's much more to it than speechdiscours:
207
513000
3000
Freud a dit, regardez, il s'agit de bien plus que de discours :
08:51
"No mortalmortel can keep a secretsecret.
208
516000
3000
"Aucun mortel ne peut garder un secret.
08:54
If his lipslèvres are silentsilencieux, he chatterschatteurs with his fingertipsbout des doigts."
209
519000
3000
Si ses lèvres se taisent, il bavarde avec le bout de ses doigts."
08:57
And we all do it no mattermatière how powerfulpuissant you are.
210
522000
3000
Et nous le faisons tous quelque soit notre degré de pouvoir.
09:00
We all chatterbavardage with our fingertipsbout des doigts.
211
525000
2000
Nous bavardons tous avec le bout de nos doigts.
09:02
I'm going to showmontrer you DominiqueDominique Strauss-KahnStrauss-Kahn with ObamaObama
212
527000
3000
Je vais vous montrer Dominique Strauss-Kahn avec Obama
09:05
who'squi est chatteringbroutement with his fingertipsbout des doigts.
213
530000
3000
en train de bavarder avec le bout de ses doigts.
09:08
(LaughterRires)
214
533000
3000
(Rires)
09:11
Now this bringsapporte us to our nextprochain patternmodèle,
215
536000
3000
Ceci nous amène au modèle suivant,
09:14
whichlequel is bodycorps languagela langue.
216
539000
3000
qui est le langage corporel.
09:17
With bodycorps languagela langue, here'svoici what you've got to do.
217
542000
3000
Avec le langage corporel, voici ce qu'il faut faire.
09:20
You've really got to just throwjeter your assumptionshypothèses out the doorporte.
218
545000
3000
Vous devez vraiment oublier vos présomptions.
09:23
Let the sciencescience tempertempérament your knowledgeconnaissance a little bitbit.
219
548000
2000
Laissez la science modérer un peu vos connaissances
09:25
Because we think liarsmenteurs fidgetFidget all the time.
220
550000
3000
Parce que nous pensons que les menteurs gigotent tout le temps.
09:28
Well guessdeviner what, they're knownconnu to freezegel theirleur upperplus haut bodiescorps when they're lyingmensonge.
221
553000
3000
Et bien devinez quoi, ils savent geler le haut de leur corps quand ils mentent.
09:31
We think liarsmenteurs won'thabitude look you in the eyesles yeux.
222
556000
3000
Nous pensons que les menteurs ne vous regarderont pas dans les yeux.
09:34
Well guessdeviner what, they look you in the eyesles yeux a little too much
223
559000
2000
Et devinez quoi, ils vous regardent dans les yeux un peu trop
09:36
just to compensatecompenser for that mythmythe.
224
561000
2000
pour compenser ce mythe.
09:38
We think warmthchaleur and smilesdes sourires
225
563000
2000
Nous pensons que la chaleur humaine et les sourires
09:40
conveytransmettre honestyhonnêteté, sinceritysincérité.
226
565000
2000
transmettent la franchise et la sincérité.
09:42
But a trainedqualifié liespotterliespotter
227
567000
2000
Mais un traqueur de mensonges
09:44
can spotplace a fakefaux smilesourire a milemile away.
228
569000
2000
peut repérer un sourire faux à un kilomètre.
09:46
Can you all spotplace the fakefaux smilesourire here?
229
571000
3000
Pouvez-vous repérer le faux sourire ici?
09:50
You can consciouslyconsciemment contractContrat
230
575000
2000
Vous pouvez consciemment contracter
09:52
the musclesmuscles in your cheeksjoues.
231
577000
3000
les muscles de vos joues.
09:55
But the realréal smile'sdu sourire in the eyesles yeux, the crow'sCorbeau feetpieds of the eyesles yeux.
232
580000
3000
Mais le vrai sourire est dans les yeux, les pattes d'oie des yeux.
09:58
They cannotne peux pas be consciouslyconsciemment contractedcontracté,
233
583000
2000
On ne peut pas les contracter consciemment,
10:00
especiallynotamment if you overdidexagéré the BotoxBotox.
234
585000
2000
en particulier si on a abusé du botox.
10:02
Don't overdoexagérer the BotoxBotox; nobodypersonne will think you're honesthonnête.
235
587000
3000
N'abusez pas du botox ; personne ne pensera que vous êtes franc.
10:05
Now we're going to look at the hotchaud spotsspots.
236
590000
2000
Nous allons maintenant regarder les points chauds.
10:07
Can you tell what's happeningévénement in a conversationconversation?
237
592000
2000
Pouvez-vous dire ce qui se passe dans une conversation?
10:09
Can you startdébut to find the hotchaud spotsspots
238
594000
3000
Pouvez-vous commencer à trouver les points chauds
10:12
to see the discrepanciesécarts
239
597000
2000
pour voir les contradictions
10:14
betweenentre someone'squelques uns wordsmots and someone'squelques uns actionsactes?
240
599000
2000
entre les mots de quelqu'un et ses actions?
10:16
Now I know it seemssemble really obviousévident,
241
601000
2000
Je sais que ça semble évident,
10:18
but when you're havingayant a conversationconversation
242
603000
2000
mais quand vous avez une conversation
10:20
with someoneQuelqu'un you suspectsuspect of deceptionDeception,
243
605000
3000
avec quelqu'un que vous soupçonnez de mentir,
10:23
attitudeattitude is by farloin the mostles plus overlookednégligé but tellingrécit of indicatorsindicateurs.
244
608000
3000
l'attitude est de loin l'indicateur le plus révélateur et celui qu'on remarque le moins.
10:26
An honesthonnête personla personne is going to be cooperativecoopérative.
245
611000
2000
Une personne franche sera coopérative.
10:28
They're going to showmontrer they're on your sidecôté.
246
613000
2000
Elle va vous montrer qu'elle est de votre côté.
10:30
They're going to be enthusiasticenthousiaste.
247
615000
2000
Elle sera enthousiaste.
10:32
They're going to be willingprêt and helpfulutile to gettingobtenir you to the truthvérité.
248
617000
2000
Elle sera prête à vous aider pour vous amener à la vérité.
10:34
They're going to be willingprêt to brainstormremue-méninges, nameprénom suspectssuspects,
249
619000
3000
Elle sera prête à réfléchir avec vous, à nommer des suspects,
10:37
providefournir detailsdétails.
250
622000
2000
à fournir des détails.
10:39
They're going to say, "Hey,
251
624000
2000
Elle dira, "Hé,
10:41
maybe it was those guys in payrollmasse salariale that forgedforgé those checksvérifie."
252
626000
3000
c'est peut-être les types de la comptabilité qui ont falsifié ces chèques."
10:44
They're going to be infuriatedfurieux if they sensesens they're wronglyà tort accusedaccusé
253
629000
3000
Elle sera furieuse si elle a l'impression d'être accusée à tort
10:47
throughouttout au long de the entiretout coursecours of the interviewentretien, not just in flashesbouffées de chaleur;
254
632000
2000
tout au long de l'entrevue, pas par intermittence ;
10:49
they'llils vont be infuriatedfurieux throughouttout au long de the entiretout coursecours of the interviewentretien.
255
634000
3000
elle sera furieuse tout au long de l'entrevue.
10:52
And if you askdemander someoneQuelqu'un honesthonnête
256
637000
2000
Et si vous demandez à quelqu'un de franc
10:54
what should happense produire to whomeverquiconque did forgeForge those checksvérifie,
257
639000
3000
ce qu'il devrait advenir de quiconque a falsifié ces chèques,
10:57
an honesthonnête personla personne is much more likelyprobable
258
642000
2000
une personne franche est bien plus susceptible
10:59
to recommendrecommander strictstrict ratherplutôt than lenientclémente punishmentChâtiment.
259
644000
4000
de recommander une punition stricte plutôt qu'indulgente.
11:03
Now let's say you're havingayant that exactexact sameMême conversationconversation
260
648000
2000
Disons maintenant que vous avez exactement la même conversation
11:05
with someoneQuelqu'un deceptivetrompeuses.
261
650000
2000
avec quelqu'un qui ment.
11:07
That personla personne maymai be withdrawnretiré,
262
652000
2000
Cette personne peut être renfermée,
11:09
look down, lowerinférieur theirleur voicevoix,
263
654000
2000
baisser les yeux, baisser le ton,
11:11
pausepause, be kindgentil of herky-jerkyerratiques.
264
656000
2000
faire des pauses, avoir un débit saccadé.
11:13
AskDemander a deceptivetrompeuses personla personne to tell theirleur storyrécit,
265
658000
2000
Demandez à un menteur de raconter son histoire,
11:15
they're going to pepperpoivre it with way too much detaildétail
266
660000
3000
il va la saupoudrer de beaucoup trop de détails
11:18
in all kindssortes of irrelevantsans importance placesdes endroits.
267
663000
3000
dans toutes sortes d'endroits hors de propos.
11:21
And then they're going to tell theirleur storyrécit in strictstrict chronologicalchronologique ordercommande.
268
666000
3000
Et puis il va raconter son histoire dans un ordre chronologique strict.
11:24
And what a trainedqualifié interrogatorinterrogateur does
269
669000
2000
Et un interrogateur entrainé
11:26
is they come in and in very subtlesubtil waysfaçons
270
671000
2000
vient et de manière très subtile
11:28
over the coursecours of severalnombreuses hoursheures,
271
673000
2000
sur plusieurs heures,
11:30
they will askdemander that personla personne to tell that storyrécit backwardsen arrière,
272
675000
3000
il demandera à cette personne de raconter son histoire à l'envers,
11:33
and then they'llils vont watch them squirmmal à l’aise,
273
678000
2000
et il observera alors son malaise,
11:35
and trackPiste whichlequel questionsdes questions produceproduire the highestle plus élevé volumele volume of deceptivetrompeuses tellsraconte.
274
680000
3000
et notera quelles questions produisent le plus grand volume de déclarations mensongères.
11:38
Why do they do that? Well we all do the sameMême thing.
275
683000
3000
Pourquoi font-ils ça? Et bien nous faisons tous la même chose.
11:41
We rehearserépéter our wordsmots,
276
686000
2000
Nous répétons nos mots,
11:43
but we rarelyrarement rehearserépéter our gesturesgestes.
277
688000
2000
mais nous répétons rarement nos gestes.
11:45
We say "yes," we shakesecouer our headstêtes "no."
278
690000
2000
Nous disons "oui", nous faisons "non" de la tête.
11:47
We tell very convincingconvaincant storieshistoires, we slightlylégèrement shrughaussement d’épaules our shouldersépaules.
279
692000
3000
Nous racontons des histoires très convaincantes, nous haussons légèrement les épaules.
11:50
We commitcommettre terribleterrible crimescrimes,
280
695000
2000
Nous commettons des crimes terribles,
11:52
and we smilesourire at the delightdélice in gettingobtenir away with it.
281
697000
3000
et nous sourions en pensant au plaisir de ne pas être punis.
11:55
Now that smilesourire is knownconnu in the tradeCommerce as "dupingduper delightdélice."
282
700000
3000
Et dans le métier, on appelle ce sourire le" délice de gruger".
11:58
And we're going to see that in severalnombreuses videosvidéos movingen mouvement forwardvers l'avant,
283
703000
3000
Et nous allons le voir dans plusieurs vidéos,
12:01
but we're going to startdébut -- for those of you who don't know him,
284
706000
2000
mais nous allons commencer, pour ceux d'entre vous qui ne le connaissent pas,
12:03
this is presidentialprésidentiel candidatecandidat JohnJohn EdwardsEdwards
285
708000
3000
voici John Edwards, le candidat à la présidentielle
12:06
who shockedchoqué AmericaL’Amérique by fatheringpaternité a childenfant out of wedlockmariage.
286
711000
3000
qui a choqué l'Amérique en ayant un enfant illégitime.
12:09
We're going to see him talk about gettingobtenir a paternitypaternité testtester.
287
714000
3000
Nous allons le voir parler de faire un test de paternité.
12:12
See now if you can spotplace him
288
717000
2000
Voyons maintenant si vous pouvez repérer
12:14
sayingen disant, "yes" while shakingtremblement his headtête "no,"
289
719000
2000
quand il dit, "oui" tout en faisant "non" de la tête,
12:16
slightlylégèrement shrugginghaussant les his shouldersépaules.
290
721000
2000
en haussant légèrement les épaules.
12:18
(VideoVidéo) JohnJohn EdwardsEdwards: I'd be happycontent to participateparticiper in one.
291
723000
2000
(Vidéo) John Edwards : J'en ferais un volontiers.
12:20
I know that it's not possiblepossible that this childenfant could be minemien,
292
725000
3000
Je sais qu'il n'est pas possible que cet enfant soit de moi,
12:23
because of the timingtiming of eventsévénements.
293
728000
2000
à cause de la chronologie des évènements.
12:25
So I know it's not possiblepossible.
294
730000
2000
Je sais donc que ce n'est pas possible.
12:27
HappyHeureux to take a paternitypaternité testtester,
295
732000
2000
Je ferais volontiers un test de paternité
12:29
and would love to see it happense produire.
296
734000
2000
et j'aimerais que ce soit fait.
12:31
InterviewerIntervieweur: Are you going to do that soonbientôt? Is there somebodyquelqu'un --
297
736000
3000
Journaliste : Allez-vous le faire bientôt? Y a-t-il quelqu'un ...
12:34
JEJE: Well, I'm only one sidecôté. I'm only one sidecôté of the testtester.
298
739000
3000
JE : Et bien je ne suis qu'un côté. Je ne suis qu'un côté du test.
12:37
But I'm happycontent to participateparticiper in one.
299
742000
3000
Mais je le fais volontiers.
12:40
PMPM: Okay, those headtête shakessecoue are much easierPlus facile to spotplace
300
745000
2000
PM : bon, ces mouvements de la tête sont bien plus faciles à repérer
12:42
onceune fois que you know to look for them.
301
747000
2000
une fois que vous savez les chercher.
12:44
There'reIl y a going to be timesfois
302
749000
2000
Il y aura des fois
12:46
when someoneQuelqu'un makesfait du one expressionexpression
303
751000
2000
où quelqu'un a une expression
12:48
while maskingmasquage anotherun autre that just kindgentil of leaksdes fuites throughpar in a flashflash.
304
753000
3000
tout en en masquant une autre qui se laisse entrevoir en un éclair.
12:52
MurderersMeurtriers are knownconnu to leakfuite sadnesstristesse.
305
757000
2000
On sait que les meurtriers laissent paraitre de la tristesse.
12:54
Your newNouveau jointmixte ventureentreprise partnerpartenaire mightpourrait shakesecouer your handmain,
306
759000
2000
Votre nouveau partenaire commercial peut bien vous serrer la main,
12:56
celebratecélébrer, go out to dinnerdîner with you
307
761000
2000
fêter l'évènement, sortir diner avec vous
12:58
and then leakfuite an expressionexpression of angercolère.
308
763000
3000
et laisser ensuite passer une expression de colère.
13:01
And we're not all going to becomedevenir facialsoin du visage expressionexpression expertsexperts overnightpendant la nuit here,
309
766000
3000
Et nous n'allons pas tous devenir des experts en expression faciale du jour au lendemain,
13:04
but there's one I can teachapprendre you that's very dangerousdangereux, and it's easyfacile to learnapprendre,
310
769000
3000
mais il y en a une que je peux vous enseigner, qui est très dangereuse et facile à apprendre
13:07
and that's the expressionexpression of contemptoutrage au Tribunal.
311
772000
3000
et c'est l'expression du mépris.
13:10
Now with angercolère, you've got two people on an even playingen jouant fieldchamp.
312
775000
3000
Avec la colère, vous avez deux personnes sur un pied d'égalité.
13:13
It's still somewhatquelque peu of a healthyen bonne santé relationshiprelation.
313
778000
2000
Ça reste malgré tout une relation saine.
13:15
But when angercolère turnsse tourne to contemptoutrage au Tribunal,
314
780000
2000
Mais quand la colère se transforme en mépris,
13:17
you've been dismisseda rejeté.
315
782000
2000
on vous a exclu.
13:19
It's associatedassocié with moralmoral superioritysupériorité.
316
784000
2000
Il est associé à la supériorité morale.
13:21
And for that reasonraison, it's very, very harddifficile to recoverrécupérer from.
317
786000
3000
Et pour cela, il est très, très difficile de s'en remettre.
13:24
Here'sVoici what it looksregards like.
318
789000
2000
Voici à quoi ça ressemble.
13:26
It's markedmarqué by one lippour les lèvres cornercoin
319
791000
2000
C'est marqué par un coin de lèvre
13:28
pulledtiré up and in.
320
793000
2000
qui est relevé et rentré.
13:30
It's the only asymmetricalasymétrique expressionexpression.
321
795000
3000
C'est la seule expression asymétrique.
13:33
And in the presenceprésence of contemptoutrage au Tribunal,
322
798000
2000
Et en présence de mépris,
13:35
whetherqu'il s'agisse or not deceptionDeception followssuit --
323
800000
2000
qu'il s'en suive un mensonge ou pas,
13:37
and it doesn't always followsuivre --
324
802000
2000
et le mensonge ne suit pas toujours,
13:39
look the other way, go the other directiondirection,
325
804000
2000
regardez ailleurs, partez dans l'autre direction,
13:41
reconsiderreconsidérer the dealtraiter,
326
806000
2000
reconsidérez le contrat,
13:43
say, "No thank you. I'm not comingvenir up for just one more nightcapBonnet de nuit. Thank you."
327
808000
4000
dites "Non merci. Je ne monte pas prendre un dernier verre. Merci."
13:47
ScienceScience has surfacedrefait surface
328
812000
2000
La science a mis en évidence
13:49
manybeaucoup, manybeaucoup more indicatorsindicateurs.
329
814000
2000
de nombreux autres indicateurs.
13:51
We know, for exampleExemple,
330
816000
2000
Nous savons par exemple,
13:53
we know liarsmenteurs will shiftdécalage theirleur blinkcligner ratetaux,
331
818000
2000
nous savons que les menteurs vont changer de vitesse de clignement des yeux,
13:55
pointpoint theirleur feetpieds towardsvers an exitSortie.
332
820000
2000
pointer leurs pieds vers une sortie.
13:57
They will take barrierbarrière objectsobjets
333
822000
2000
Ils vont prendre des objets barrière
13:59
and put them betweenentre themselvesse and the personla personne that is interviewinginterviewer them.
334
824000
3000
et les mettre entre eux et la personne avec qui ils parlent.
14:02
They'llIls vont altermodifier theirleur vocalvocal toneTon,
335
827000
2000
Ils vont changer leur ton de voix,
14:04
oftensouvent makingfabrication theirleur vocalvocal toneTon much lowerinférieur.
336
829000
3000
souvent en le baissant beaucoup.
14:07
Now here'svoici the dealtraiter.
337
832000
2000
Voilà ce qui se passe.
14:09
These behaviorscomportements are just behaviorscomportements.
338
834000
3000
Ces comportements ne sont que des comportements.
14:12
They're not proofpreuve of deceptionDeception.
339
837000
2000
Ce ne sont pas des preuves de mensonge.
14:14
They're redrouge flagsdrapeaux.
340
839000
2000
Ce sont des drapeaux rouges.
14:16
We're humanHumain beingsêtres.
341
841000
2000
Nous sommes des êtres humains.
14:18
We make deceptivetrompeuses flailingbattre au fléau gesturesgestes all over the placeendroit all day long.
342
843000
3000
Nous faisons des gestes agités trompeurs partout toute la journée.
14:21
They don't mean anything in and of themselvesse.
343
846000
2000
Ils ne signifient rien par eux-mêmes.
14:23
But when you see clustersgrappes of them, that's your signalsignal.
344
848000
3000
Mais quand vous en voyez toute une série, c'est votre signal.
14:26
Look, listen, probesonde, askdemander some harddifficile questionsdes questions,
345
851000
3000
Regardez, écoutez, sondez, posez des questions difficiles,
14:29
get out of that very comfortableconfortable modemode of knowingconnaissance,
346
854000
3000
sortez de ce mode confortable de savoir,
14:32
walkmarche into curiositycuriosité modemode, askdemander more questionsdes questions,
347
857000
3000
passez en mode curiosité, posez plus de questions,
14:35
have a little dignitydignité, treattraiter the personla personne you're talkingparlant to with rapportrapport.
348
860000
3000
ayez un peu de dignité, ayez un bon rapport avec la personne à qui vous parlez.
14:38
Don't try to be like those folksgens on "LawDroit & OrderOrdonnance" and those other TVTV showsmontre
349
863000
3000
N'essayez pas d'être comme ces types de " New York, police judiciaire " et autres séries télé
14:41
that pummelPummel theirleur subjectssujets into submissionprésentation.
350
866000
2000
qui s'acharnent sur leurs sujets pour les soumettre.
14:43
Don't be too aggressiveagressif, it doesn't work.
351
868000
3000
Ne soyez pas trop agressif, ça ne marche pas.
14:46
Now we'venous avons talkeda parlé a little bitbit
352
871000
2000
Nous avons abordé
14:48
about how to talk to someoneQuelqu'un who'squi est lyingmensonge
353
873000
2000
la façon de parler à quelqu'un qui ment
14:50
and how to spotplace a liemensonge.
354
875000
2000
et celle de repérer un mensonge.
14:52
And as I promisedpromis, we're now going to look at what the truthvérité looksregards like.
355
877000
3000
Et comme je l'ai promis, nous allons maintenant examiner ce à quoi ressemble la vérité.
14:55
But I'm going to showmontrer you two videosvidéos,
356
880000
2000
Mais je vais vous montrer deux vidéos,
14:57
two mothersmères -- one is lyingmensonge, one is tellingrécit the truthvérité.
357
882000
3000
deux mères, l'une ment, l'autre qui dit la vérité.
15:00
And these were surfacedrefait surface
358
885000
2000
Elles ont été mises en évidence
15:02
by researcherchercheur DavidDavid MatsumotoMatsumoto in CaliforniaCalifornie.
359
887000
2000
par le chercheur David Matsumoto en Californie.
15:04
And I think they're an excellentExcellente exampleExemple
360
889000
2000
Et je crois que c'est un excellent exemple
15:06
of what the truthvérité looksregards like.
361
891000
2000
de ce à quoi ressemble la vérité.
15:08
This mothermère, DianeDiane DownsDowns,
362
893000
2000
Cette mère, Diane Downs,
15:10
shotcoup her kidsdes gamins at closeFermer rangegamme,
363
895000
2000
a tiré sur ses enfants à bout portant,
15:12
drovea conduit them to the hospitalhôpital
364
897000
2000
les a conduits à l'hôpital
15:14
while they bledBled all over the carvoiture,
365
899000
2000
alors qu’ils saignaient abondamment dans la voiture
15:16
claimedréclamés a scraggy-hairedmaigre aux cheveux strangerétranger did it.
366
901000
2000
a prétendu qu'un étranger hirsute avait fait ça.
15:18
And you'lltu vas see when you see the videovidéo,
367
903000
2000
Et vous verrez quand vous verrez la vidéo,
15:20
she can't even pretendfaire semblant to be an agonizingangoissant mothermère.
368
905000
2000
elle ne fait même pas semblant d'être une mère accablée de douleur.
15:22
What you want to look for here
369
907000
2000
Ce que vous devez chercher ici
15:24
is an incredibleincroyable discrepancydivergence
370
909000
2000
c'est un décalage incroyable
15:26
betweenentre horrifichorrible eventsévénements that she describesdécrit
371
911000
2000
entre les faits horribles qu'elle décrit
15:28
and her very, very coolcool demeanorcomportement.
372
913000
2000
et son attitude très, très calme.
15:30
And if you look closelyétroitement, you'lltu vas see dupingduper delightdélice throughouttout au long de this videovidéo.
373
915000
3000
Et si vous regardez de près, vous verrez un florilège de mensonge tout au long de la vidéo.
15:33
(VideoVidéo) DianeDiane DownsDowns: At night when I closeFermer my eyesles yeux,
374
918000
2000
(Vidéo) Diane Downs : la nuit, quand je ferme les yeux,
15:35
I can see ChristieChristie reachingatteindre her handmain out to me while I'm drivingau volant,
375
920000
3000
je peux voir Christie tendre la main vers moi pendant que je conduis,
15:38
and the blooddu sang just keptconservé comingvenir out of her mouthbouche.
376
923000
3000
et le sang qui n'arrêtait pas de sortir de sa bouche.
15:41
And that -- maybe it'llça va fadefondu too with time --
377
926000
2000
Et que, peut-être que ça s'effacera avec le temps,
15:43
but I don't think so.
378
928000
2000
mais je ne le crois pas.
15:45
That bothersqui dérange me the mostles plus.
379
930000
3000
C'est ce qui me tracasse le plus.
15:55
PMPM: Now I'm going to showmontrer you a videovidéo
380
940000
2000
PM : Je vais vous montrer la vidéo
15:57
of an actualréel grievingdeuil mothermère, ErinErin RunnionRunnion,
381
942000
2000
d'une vraie mère désespérée, Erin Runnion,
15:59
confrontingaffronter her daughter'sfille murderermeurtrier and torturertortionnaire in courttribunal.
382
944000
4000
faisant face à celui qui a torturé et tué sa fille au tribunal.
16:03
Here you're going to see no falsefaux emotionémotion,
383
948000
2000
Ici vous ne verrez pas d'émotion feinte,
16:05
just the authenticauthentique expressionexpression of a mother'smère agonyagonie.
384
950000
3000
rien que l'expression authentique de la souffrance d'une mère.
16:08
(VideoVidéo) ErinErin RunnionRunnion: I wrotea écrit this statementdéclaration on the thirdtroisième anniversaryanniversaire
385
953000
2000
(Vidéo) Erin Runnion : J'ai écrit cette déclaration pour le 3ème anniversaire
16:10
of the night you tooka pris my babybébé,
386
955000
2000
de la nuit où vous avez pris mon enfant,
16:12
and you hurtblesser her,
387
957000
2000
et où vous lui avez fait mal,
16:14
and you crushedécrasé her,
388
959000
2000
et vous l'avez écrasée,
16:16
you terrifiedterrifié her untiljusqu'à her heartcœur stoppedarrêté.
389
961000
4000
vous l'avez terrifiée jusqu’à ce que son cœur s'arrête.
16:20
And she foughtcombattu, and I know she foughtcombattu you.
390
965000
3000
Et elle s'est battue, et je sais qu'elle vous a combattu.
16:23
But I know she lookedregardé at you
391
968000
2000
Mais je sais qu'elle vous a regardé
16:25
with those amazingincroyable brownmarron eyesles yeux,
392
970000
2000
avec ces étonnants yeux bruns,
16:27
and you still wanted to killtuer her.
393
972000
3000
et vous vouliez toujours la tuer.
16:30
And I don't understandcomprendre it,
394
975000
2000
Et je ne le comprends pas,
16:32
and I never will.
395
977000
3000
et je ne le comprendrai jamais.
16:35
PMPM: Okay, there's no doubtingmettre en doute the veracityvéracité of those emotionsémotions.
396
980000
4000
PM : Il n'y a aucun doute sur la véracité de ces émotions.
16:39
Now the technologyLa technologie around what the truthvérité looksregards like
397
984000
3000
La technologie, son aspect scientifique, qui entoure
16:42
is progressingprogresse on, the sciencescience of it.
398
987000
3000
ce à quoi la vérité ressemble avance.
16:45
We know for exampleExemple
399
990000
2000
Nous savons par exemple que nous avons désormais
16:47
that we now have specializedspécialisé eyeœil trackerstrackers and infraredinfrarouge braincerveau scansscans,
400
992000
3000
des appareils pour suivre le regard et des scanners cérébraux à infrarouges,
16:50
MRI'sMRI that can decodedécoder the signalssignaux that our bodiescorps sendenvoyer out
401
995000
3000
des IRM qui peuvent décoder les signaux que nos corps envoient
16:53
when we're tryingen essayant to be deceptivetrompeuses.
402
998000
2000
quand nous essayons de mentir.
16:55
And these technologiesles technologies are going to be marketedcommercialisé to all of us
403
1000000
3000
Et ces technologies seront bientôt sur le marché pour tout le monde,
16:58
as panaceaspanacée for deceittromperie,
404
1003000
2000
comme une panacée contre le mensonge,
17:00
and they will proveprouver incrediblyincroyablement usefulutile some day.
405
1005000
3000
et elles s'avèreront incroyablement utiles un de ces jours.
17:03
But you've got to askdemander yourselftoi même in the meantimeentre-temps:
406
1008000
2000
Mais en attendant, vous devez vous demander :
17:05
Who do you want on your sidecôté of the meetingréunion,
407
1010000
2000
Qui voulez-vous à vos côtés pendant la réunion,
17:07
someoneQuelqu'un who'squi est trainedqualifié in gettingobtenir to the truthvérité
408
1012000
3000
une personne entraînée à trouver la vérité
17:10
or some guy who'squi est going to dragtraîne a 400-pound-livre electroencephalogramélectroencéphalogramme
409
1015000
2000
ou un type qui va traîner dans la salle
17:12
throughpar the doorporte?
410
1017000
2000
un électroencéphalogramme de 200 kilos?
17:14
LiespottersLiespotters relycompter on humanHumain toolsoutils.
411
1019000
4000
Les traqueurs de mensonges comptent sur des outils humains.
17:18
They know, as someoneQuelqu'un onceune fois que said,
412
1023000
2000
Ils savent que, comme quelqu'un a dit,
17:20
"Character'sDe caractère who you are in the darkfoncé."
413
1025000
2000
"L'individu c'est qui vous êtes quand vous êtes dans le noir."
17:22
And what's kindgentil of interestingintéressant
414
1027000
2000
Et ce qui est assez intéressant
17:24
is that todayaujourd'hui we have so little darknessobscurité.
415
1029000
2000
c'est qu'aujourd'hui nous avons si peu de noir.
17:26
Our worldmonde is litallumé up 24 hoursheures a day.
416
1031000
3000
Notre monde est éclairé 24 heures sur 24.
17:29
It's transparenttransparent
417
1034000
2000
Il est transparent.
17:31
with blogsblogs and socialsocial networksréseaux
418
1036000
2000
avec des blogs et des réseaux sociaux
17:33
broadcastingradiodiffusion the buzzBuzz of a wholeentier newNouveau generationgénération of people
419
1038000
2000
qui diffusent le buzz de toute une nouvelle génération de gens
17:35
that have madefabriqué a choicechoix to livevivre theirleur livesvies in publicpublic.
420
1040000
3000
qui ont fait le choix de vivre leurs vies en public.
17:38
It's a much more noisybruyant worldmonde.
421
1043000
4000
C'est un monde beaucoup plus bruyant.
17:42
So one challengedéfi we have
422
1047000
2000
Donc un des problèmes que nous avons
17:44
is to rememberrappelles toi,
423
1049000
2000
est de nous rappeler,
17:46
oversharingoversharing, that's not honestyhonnêteté.
424
1051000
3000
trop partager, ce n'est pas être franc.
17:49
Our manicmaniaque tweetinggazouille and textingEnvoyer des SMS
425
1054000
2000
Le fait que nous envoyons frénétiquement des tweets et des textos
17:51
can blindaveugle us to the factfait
426
1056000
2000
peut nous empêcher de voir
17:53
that the subtletiessubtilités of humanHumain decencydécence -- characterpersonnage integrityintégrité --
427
1058000
3000
que les subtilités de la décence humaine, l'intégrité de l'individu,
17:56
that's still what mattersimporte, that's always what's going to mattermatière.
428
1061000
3000
c'est toujours ce qui compte, c'est ce qui comptera toujours.
17:59
So in this much noisierplus bruyant worldmonde,
429
1064000
2000
Alors dans ce monde bien plus bruyant,
18:01
it mightpourrait make sensesens for us
430
1066000
2000
il pourrait être sensé que nous soyons
18:03
to be just a little bitbit more explicitexplicite
431
1068000
2000
un tout petit peu plus explicites
18:05
about our moralmoral codecode.
432
1070000
3000
quant à notre code de moralité.
18:08
When you combinecombiner the sciencescience of recognizingreconnaissant deceptionDeception
433
1073000
2000
Quand vous combinez la science de la reconnaissance du mensonge
18:10
with the artart of looking, listeningécoute,
434
1075000
2000
avec l'art de regarder, d'écouter,
18:12
you exemptexonérées yourselftoi même from collaboratingen collaboration in a liemensonge.
435
1077000
3000
vous vous dispensez de collaborer à un mensonge.
18:15
You startdébut up that pathchemin
436
1080000
2000
Vous vous engagez sur cette voie
18:17
of beingétant just a little bitbit more explicitexplicite,
437
1082000
2000
pour être un petit peu plus explicite,
18:19
because you signalsignal to everyonetoutes les personnes around you,
438
1084000
2000
parce que vous envoyez à tout le monde autour de vous
18:21
you say, "Hey, my worldmonde, our worldmonde,
439
1086000
3000
un signal qui dit, "Hé, mon monde, notre monde,
18:24
it's going to be an honesthonnête one.
440
1089000
2000
sera un monde honnête.
18:26
My worldmonde is going to be one where truthvérité is strengthenedrenforcé
441
1091000
2000
Dans mon monde, la vérité sera renforcée
18:28
and falsehoodmensonge is recognizedreconnu and marginalizedmarginalisés."
442
1093000
3000
et le mensonge sera reconnu et marginalisé."
18:31
And when you do that,
443
1096000
2000
Et quand vous faites ça,
18:33
the groundsol around you startsdéparts to shiftdécalage just a little bitbit.
444
1098000
3000
le sol autour de vous commence à bouger un tout petit peu.
18:36
And that's the truthvérité. Thank you.
445
1101000
3000
Et c'est la vérité. Merci.
18:39
(ApplauseApplaudissements)
446
1104000
5000
(Applaudissements)
Translated by Elisabeth Buffard
Reviewed by Anna Cristiana Minoli

▲Back to top

ABOUT THE SPEAKER
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.

Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.

Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speaker
Pamela Meyer | Speaker | TED.com