ABOUT THE SPEAKER
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.

Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.

Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speaker
Pamela Meyer | Speaker | TED.com
TEDGlobal 2011

Pamela Meyer: How to spot a liar

Pamela Meyer: Pamela Meyer: Cum să detectezi mincinoșii

Filmed:
28,415,176 views

În fiecare zi, suntem mințiți de 10 până la 200 de ori, iar indiciile pentru a detecta minciunile pot fi subtile și non-intuitive. Pamela Meyer, autoarea cărții „Liespotting” („Detectarea Minciunii”) ne dezvăluie secretele celor instruiți să detecteze minciuna și susține că onestitatea e o virtute ce merită păstrată.
- Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio

Double-click the English transcript below to play the video.

00:15
Okay, now I don't want to alarmalarma anybodycineva in this roomcameră,
0
0
5000
Nu vreau să alarmez pe nimeni,
00:20
but it's just come to my attentionAtenţie
1
5000
2000
dar tocmai mi-am dat seama că persoana
din dreapta ta e un mincinos.
00:22
that the personpersoană to your right is a liarmincinos.
2
7000
2000
00:24
(LaughterRâs)
3
9000
2000
(Râsete)
00:26
AlsoDe asemenea, the personpersoană to your left is a liarmincinos.
4
11000
3000
Și vecinul din stânga e un mincinos.
00:29
AlsoDe asemenea the personpersoană sittingședință in your very seatslocuri is a liarmincinos.
5
14000
3000
Chiar cel care stă pe scaunul tău
e un mincinos.
00:32
We're all liarsmincinoşi.
6
17000
2000
Toți suntem mincinoși.
00:34
What I'm going to do todayastăzi
7
19000
2000
Azi vă voi arăta ce spun studiile
despre motivul pentru care toţi mințim,
00:36
is I'm going to showspectacol you what the researchcercetare saysspune about why we're all liarsmincinoşi,
8
21000
3000
00:39
how you can becomedeveni a liespotterliespotter
9
24000
2000
cum să detectaţi minciunile
și de ce ați dori să treceți
00:41
and why you mightar putea want to go the extrasuplimentar milemilă
10
26000
3000
de la detectarea minciunii
la căutarea adevărului
00:44
and go from liespottingLiespotting to truthadevăr seekingcăutare,
11
29000
3000
00:47
and ultimatelyîn cele din urmă to trustîncredere buildingclădire.
12
32000
2000
și, în final, la construirea încrederii.
00:49
Now speakingvorbitor of trustîncredere,
13
34000
3000
Vorbind de încredere,
de când am scris cartea „Liespotting”,
00:52
ever sincede cand I wrotea scris this bookcarte, "LiespottingLiespotting,"
14
37000
3000
00:55
no one wants to meetîntâlni me in personpersoană anymoremai, no, no, no, no, no.
15
40000
3000
nimeni nu mai vrea
să se întâlnească cu mine.
00:58
They say, "It's okay, we'llbine emaile-mail you."
16
43000
3000
Toţi spun:
„E OK, îți trimitem un email.”
01:01
(LaughterRâs)
17
46000
2000
(Râsete)
01:03
I can't even get a coffeecafea dateData at StarbucksStarbucks.
18
48000
4000
Nici măcar nu pot să beau o cafea
cu cineva la Starbucks.
01:07
My husband'ssoț like, "HoneyMiere, deceptionînşelăciune?
19
52000
2000
Soțul îmi spune:
„Dragă, despre minciună?
01:09
Maybe you could have focusedconcentrat on cookinggătire. How about FrenchFranceză cookinggătire?"
20
54000
3000
Te-ai fi putut axa pe gătit.
Eventual bucătăria franțuzească?”
01:12
So before I get starteda început, what I'm going to do
21
57000
2000
Înainte să încep, vă voi explica
care îmi e scopul.
01:14
is I'm going to clarifyclarifica my goalpoartă for you,
22
59000
3000
Nu vă învăț să jucaţi „Te-am prins!”.
01:17
whichcare is not to teacha preda a gamejoc of GotchaTe-am prins.
23
62000
2000
01:19
LiespottersLiespotters aren'tnu sunt those nitpickynitpicky kidscopii,
24
64000
2000
„Detectorii de minciuni” nu sunt copiii
din fundul sălii care strigă: Te-am prins!
01:21
those kidscopii in the back of the roomcameră that are shoutingstrigând, "GotchaTe-am prins! GotchaTe-am prins!
25
66000
3000
01:24
Your eyebrowsprânceană twitchedtwitched. You flaredars your nostrilnară.
26
69000
3000
„Ți-a zvâcnit sprânceana!
Ți-a tremurat nara!
01:27
I watch that TVTV showspectacol 'Lie' Lie To Me.' I know you're lyingminciună."
27
72000
3000
M-am uitat la emisiunea 'Minte-mă'.
Știu că minți.”
01:30
No, liespottersliespotters are armedarmate
28
75000
2000
Nu. Ei sunt înarmați cu dovezi științifice
pentru a detecta minciuna.
01:32
with scientificștiințific knowledgecunoştinţe of how to spotloc deceptionînşelăciune.
29
77000
3000
01:35
They use it to get to the truthadevăr,
30
80000
2000
Le folosesc ca să afle adevărul
și fac ce liderii maturi fac zilnic:
01:37
and they do what maturemature leadersliderii do everydayin fiecare zi;
31
82000
2000
01:39
they have difficultdificil conversationsconversații with difficultdificil people,
32
84000
3000
au discuţii dificile cu oameni dificili,
uneori în momente foarte dificile.
01:42
sometimesuneori duringpe parcursul very difficultdificil timesori.
33
87000
2000
01:44
And they startstart up that pathcale
34
89000
2000
Ei pornesc la drum,
acceptând un principiu fundamental:
01:46
by acceptingacceptarea a coremiez propositionpropoziție,
35
91000
2000
01:48
and that propositionpropoziție is the followingca urmare a:
36
93000
2000
01:50
LyingMinciuna is a cooperativeCooperativa actact.
37
95000
3000
minciuna e un act de cooperare.
01:53
Think about it, a lieminciună has no powerputere whatsoeveroricare by its meredoar utterancerostirea.
38
98000
4000
Gândiți-vă, minciuna nu are
absolut nici o putere prin simpla rostire.
01:57
Its powerputere emergesapare
39
102000
2000
Puterea ei se naşte
când cineva acceptă s-o creadă.
01:59
when someonecineva elsealtfel agreeseste de acord to believe the lieminciună.
40
104000
2000
02:01
So I know it mayMai soundsunet like toughgreu love,
41
106000
2000
Știu că e un adevăr dur,
02:03
but look, if at some pointpunct you got liedmintit to,
42
108000
4000
dar dacă ai fost vreodată mințit
e pentru că ai acceptat să fii mințit.
02:07
it's because you agreedde acord to get liedmintit to.
43
112000
2000
02:09
TruthAdevărul numbernumăr one about lyingminciună: Lying'sSituată pe a cooperativeCooperativa actact.
44
114000
3000
Adevărul nr.1:
minciuna e un act de cooperare.
02:12
Now not all liesminciuni are harmfulnociv.
45
117000
2000
Nu toate minciunile fac rău.
02:14
SometimesUneori we're willingdispus participantsparticipanți in deceptionînşelăciune
46
119000
3000
Uneori cooperăm la minciună
ca să ne păstrăm demnitatea socială,
02:17
for the sakedragul of socialsocial dignitydemnitate,
47
122000
3000
02:20
maybe to keep a secretsecret that should be keptținut secretsecret, secretsecret.
48
125000
3000
poate să păstrăm un mare secret.
02:23
We say, "Nicedrăguţ songcântec."
49
128000
2000
Spunem: „Ce cântec frumos!”
„Dragă, nu arăți grasă îmbrăcată așa.”
02:25
"HoneyMiere, you don't look fatgras in that, no."
50
130000
3000
02:28
Or we say, favoritefavorit of the digirattidigiratti,
51
133000
2000
Sau minciuna clasică a epocii IT:
02:30
"You know, I just fishedpescuit that emaile-mail out of my spamspam folderpliant.
52
135000
3000
„Tocmai am pescuit emailul tău din spam.
Scuze că răspund cu întârziere.”
02:33
So sorry."
53
138000
3000
02:36
But there are timesori when we are unwillingNu doresc participantsparticipanți in deceptionînşelăciune.
54
141000
3000
Uneori nu participăm benevol la minciună
şi asta ne poate costa scump.
02:39
And that can have dramaticdramatic costscheltuieli for us.
55
144000
3000
02:42
Last yearan saw 997 billionmiliard dollarsdolari
56
147000
3000
Anul trecut, au existat fraude corporative
de 997 miliarde dolari doar în SUA.
02:45
in corporatecorporativ fraudfraudă alonesingur in the UnitedMarea StatesStatele.
57
150000
4000
02:49
That's an eyelashgeană undersub a trilliontrilion dollarsdolari.
58
154000
2000
E cu puțin sub un trilion de dolari.
Reprezintă 7% din venitul național.
02:51
That's sevenȘapte percentla sută of revenuesveniturile.
59
156000
2000
02:53
DeceptionÎnşelăciune can costa costat billionsmiliarde.
60
158000
2000
Minciuna poate costa miliarde. Gândiți-vă
la Enron, la Madoff, la criza ipotecară.
02:55
Think EnronEnron, MadoffMadoff, the mortgagecredit ipotecar crisiscriză.
61
160000
3000
02:58
Or in the casecaz of doubledubla agentsagenţi and traitorstrădători,
62
163000
3000
În cazul agenților dubli și trădătorilor
ca Robert Hanssen sau Aldrich Ames,
03:01
like RobertRobert HanssenHanssen or AldrichUrzica AmesAmes,
63
166000
2000
03:03
liesminciuni can betraytrădează our countryțară,
64
168000
2000
minciunile ne pot trăda țara,
compromite securitatea,
03:05
they can compromisecompromite our securitySecuritate, they can underminesubmina democracydemocraţie,
65
170000
3000
submina democrația,
pot duce la moartea celor care ne apără.
03:08
they can causecauza the deathsdecese of those that defendapăra us.
66
173000
3000
03:11
DeceptionÎnşelăciune is actuallyde fapt seriousserios businessAfaceri.
67
176000
3000
Minciuna e o treabă serioasă.
03:14
This con man, HenryHenry OberlanderOleg,
68
179000
2000
Acest escroc, Henry Oberlander,
03:16
he was suchastfel de an effectiveefectiv con man
69
181000
2000
a fost atât de eficient
încât autoritățile britanice spun
03:18
BritishBritanic authoritiesAutoritățile say
70
183000
2000
03:20
he could have underminedsubminat the entireîntreg bankingbancare systemsistem of the WesternWestern worldlume.
71
185000
3000
că ar fi putut submina întregul
sistem bancar al Occidentului.
03:23
And you can't find this guy on GoogleGoogle; you can't find him anywhereoriunde.
72
188000
2000
Nu-l găseşti pe Google,
nicăieri.
03:25
He was interviewedintervievat onceo singura data, and he said the followingca urmare a.
73
190000
3000
A fost intervievat odată.
A spus: „Uitați, am o regulă.”
03:28
He said, "Look, I've got one ruleregulă."
74
193000
2000
03:30
And this was Henry'sHenry pe ruleregulă, he said,
75
195000
3000
Regula lui Henry spunea:
„Toți sunt dispuși să îți dea ceva
în schimbul a ceea ce-şi doresc.”
03:33
"Look, everyonetoata lumea is willingdispus to give you something.
76
198000
2000
03:35
They're readygata to give you something for whateverindiferent de it is they're hungryflămând for."
77
200000
3000
03:38
And that's the cruxCrucea Sudului of it.
78
203000
2000
Asta-i esența problemei:
03:40
If you don't want to be deceivedînşelat, you have to know,
79
205000
2000
Dacă nu vrei să fii mințit,
trebuie să știi ce râvnești.
03:42
what is it that you're hungryflămând for?
80
207000
2000
03:44
And we all kinddrăguț of hateură to admitadmite it.
81
209000
3000
Nu ne place să recunoaștem:
ne cam dorim să fim soţi mai buni,
03:47
We wishdori we were better husbandssoţii, better wivessoții,
82
212000
3000
soții mai bune, să fim mai inteligenți,
mai puternici, mai înalți, mai bogați...
03:50
smartermai inteligent, more powerfulputernic,
83
215000
2000
03:52
tallermai inalt, richermai bogat --
84
217000
2000
03:54
the listlistă goesmerge on.
85
219000
2000
și lista continuă.
03:56
LyingMinciuna is an attemptatentat, încercare to bridgepod that gapdecalaj,
86
221000
2000
Minciuna încearcă să micşoreze prăpastia,
03:58
to connectconectați our wishesdorește and our fantasiesfanteziile
87
223000
2000
să ne lege visele şi aspiraţiile
despre cine şi cum am vrea să fim
04:00
about who we wishdori we were, how we wishdori we could be,
88
225000
3000
04:03
with what we're really like.
89
228000
3000
cu ceea ce suntem în realitate.
04:06
And boybăiat are we willingdispus to fillcompletati in those gapslacune in our livesvieți with liesminciuni.
90
231000
3000
O, cum mai micşorăm discrepanţele
cu minciuni!
04:09
On a givendat day, studiesstudiu showspectacol that you mayMai be liedmintit to
91
234000
3000
Într-o singură zi, studiile arată
că ești mințit între 10 și 200 de ori.
04:12
anywhereoriunde from 10 to 200 timesori.
92
237000
2000
04:14
Now grantedacordat, manymulți of those are whitealb liesminciuni.
93
239000
3000
Da, multe sunt minciuni nevinovate.
04:17
But in anothero alta studystudiu,
94
242000
2000
Dar alt studiu a arătat
04:19
it showeda arătat that strangersstrăini liedmintit threeTrei timesori
95
244000
2000
că necunoscuții mint de 3 ori în 10 minute
la prima întâlnire.
04:21
withinîn the first 10 minutesminute of meetingîntâlnire eachfiecare other.
96
246000
2000
04:23
(LaughterRâs)
97
248000
2000
(Râsete)
04:25
Now when we first hearauzi this datadate, we recoilrecul.
98
250000
3000
Ne şochează când auzim asta prima dată.
Minciuna e incredibil de răspândită.
04:28
We can't believe how prevalentprevalent lyingminciună is.
99
253000
2000
04:30
We're essentiallyin esenta againstîmpotriva lyingminciună.
100
255000
2000
În principiu, suntem împotriva minciunii.
Dar dacă privești atent, se-ngroaşă gluma.
04:32
But if you look more closelyîndeaproape,
101
257000
2000
04:34
the plotintrigă actuallyde fapt thickensse ingroasa.
102
259000
2000
04:36
We lieminciună more to strangersstrăini than we lieminciună to coworkerscolegii.
103
261000
3000
Pe necunoscuți îi mințim mai mult
decât pe colegi.
04:39
ExtrovertsExtroverts lieminciună more than introvertsintrovertitii.
104
264000
4000
Extrovertiții mint mai mult
decât introvertiții.
04:43
MenBărbaţi lieminciună eightopt timesori more about themselvesînșiși
105
268000
3000
Bărbații mint de 8 ori mai mult despre ei
decât despre altcineva.
04:46
than they do other people.
106
271000
2000
04:48
WomenFemei lieminciună more to protectproteja other people.
107
273000
3000
Femeile mint mai mult
ca să protejeze pe altcineva.
04:51
If you're an averagein medie marriedcăsătorit couplecuplu,
108
276000
3000
Într-un cuplu mediu ca durată,
soţii îşi mint partenerul 1 din 10 dăţi.
04:54
you're going to lieminciună to your spousesoț
109
279000
2000
04:56
in one out of everyfiecare 10 interactionsinteracțiuni.
110
281000
2000
04:58
Now you mayMai think that's badrău.
111
283000
2000
Poate credeţi că nu e bine.
La necăsătoriţi cifra ajunge la 3 din 10.
05:00
If you're unmarriednecăsătorit, that numbernumăr dropspicături to threeTrei.
112
285000
2000
05:02
Lying'sSituată pe complexcomplex.
113
287000
2000
Minciuna e ceva complex. E întrepătrunsă
în viaţa cotidiană şi profesională.
05:04
It's wovențesut into the fabricțesătură of our dailyzilnic and our businessAfaceri livesvieți.
114
289000
3000
05:07
We're deeplyprofund ambivalentambivalentă about the truthadevăr.
115
292000
2000
Suntem ambivalenţi față de adevăr.
05:09
We parseanaliza it out on an as-neededla nevoie basisbază,
116
294000
2000
Îl folosim în funcție de nevoi,
uneori din motive serioase,
05:11
sometimesuneori for very good reasonsmotive,
117
296000
2000
05:13
other timesori just because we don't understanda intelege the gapslacune in our livesvieți.
118
298000
3000
alteori doar pentru că nu înțelegem
golurile din viețile noastre.
05:16
That's truthadevăr numbernumăr two about lyingminciună.
119
301000
2000
Ăsta-i adevărul nr. 2 despre minciună.
05:18
We're againstîmpotriva lyingminciună,
120
303000
2000
Suntem împotriva minciunii,
dar o acceptăm tacit
05:20
but we're covertlyascuns for it
121
305000
2000
05:22
in waysmoduri that our societysocietate has sanctionedsancţionat
122
307000
2000
în moduri pe care societatea
le-a sancționat de-a lungul secolelor.
05:24
for centuriessecole and centuriessecole and centuriessecole.
123
309000
2000
05:26
It's as oldvechi as breathingrespiraţie.
124
311000
2000
Minciuna e în natura noastră.
Face parte din cultura și istoria noastră.
05:28
It's partparte of our culturecultură, it's partparte of our historyistorie.
125
313000
2000
05:30
Think DanteDante, ShakespeareShakespeare,
126
315000
3000
Gândiți-vă la Dante, la Shakespeare,
la Biblie, la revista News of the World.
05:33
the BibleBiblia, NewsStiri of the WorldLumea.
127
318000
3000
05:36
(LaughterRâs)
128
321000
2000
(Râsete)
05:38
LyingMinciuna has evolutionaryevolutiv valuevaloare to us as a speciesspecie.
129
323000
2000
Minciuna are relevanță
în evoluția noastră ca specie.
05:40
ResearchersCercetătorii have long knowncunoscut
130
325000
2000
Cercetătorii au demonstrat demult:
cu cât o specie e mai inteligentă,
05:42
that the more intelligentinteligent the speciesspecie,
131
327000
2000
05:44
the largermai mare the neocortexneocortex,
132
329000
2000
cu cât neocortexul e mai mare,
cu atât specia minte mai mult.
05:46
the more likelyprobabil it is to be deceptivefrauduloase.
133
331000
2000
05:48
Now you mightar putea remembertine minte KokoKoko.
134
333000
2000
Poate vă amintiți de Koko.
05:50
Does anybodycineva remembertine minte KokoKoko the gorillagorilă who was taughtînvățat signsemn languagelimba?
135
335000
3000
Vă amintiţi de gorila Koko,
care a învățat limbajul semnelor?
05:53
KokoKoko was taughtînvățat to communicatecomunica viaprin intermediul signsemn languagelimba.
136
338000
3000
Koko a învățat să comunice prin semne.
05:56
Here'sAici este KokoKoko with her kittenpisoi.
137
341000
2000
Iat-o pe Koko cu pisoiul ei.
E animalul ei de companie pufos.
05:58
It's her cutedrăguţ little, fluffypufos petanimal de companie kittenpisoi.
138
343000
3000
Koko a dat odată vina pe pisoi,
spunând că a smuls chiuveta din perete.
06:01
KokoKoko onceo singura data blamedacuzat her petanimal de companie kittenpisoi
139
346000
2000
06:03
for rippinggrozav a sinkchiuvetă out of the wallperete.
140
348000
2000
06:05
(LaughterRâs)
141
350000
2000
(Râsete)
06:07
We're hardwiredhardwired to becomedeveni leadersliderii of the packambalaj.
142
352000
2000
Suntem programați
să devenim liderii grupului.
06:09
It's startsîncepe really, really earlydin timp.
143
354000
2000
Începem foarte, foarte devreme.
Cât de devreme?
06:11
How earlydin timp?
144
356000
2000
06:13
Well babiescopii will fakefals a crystrigăt,
145
358000
2000
Bebelușii se prefac că plâng,
se opresc, așteaptă să vadă cine vine
06:15
pausepauză, wait to see who'scine comingvenire
146
360000
2000
06:17
and then go right back to cryingplâns.
147
362000
2000
și apoi încep iar să plângă.
(Râsete)
06:19
One-year-oldsUnul de ani learnînvăța concealmenttăinuirea.
148
364000
2000
Copiii de 1 an învață să ascundă.
(Râsete)
06:21
(LaughterRâs)
149
366000
2000
06:23
Two-year-oldsDoi ani bluffcacealma.
150
368000
2000
Cei de 2 ani merg la cacealma.
06:25
Five-year-oldsCinci de ani lieminciună outrightpur şi simplu.
151
370000
2000
Cei de 5 ani mint sfruntat.
Manipulează prin măgulire.
06:27
They manipulatemanipula viaprin intermediul flatterymăgulire.
152
372000
2000
06:29
Nine-year-oldsNouă de ani, mastersmasterat of the coveracoperi up.
153
374000
3000
La 9 ani sunt maeștrii mușamalizării.
06:32
By the time you enterintroduce collegecolegiu,
154
377000
2000
Când ajungi la facultate, îți minți mama
la 1 din 5 interacțiuni.
06:34
you're going to lieminciună to your mommama in one out of everyfiecare fivecinci interactionsinteracțiuni.
155
379000
3000
Când începem munca şi ne câştigăm pâinea
intrăm într-o lume plină de fals,
06:37
By the time we enterintroduce this work worldlume and we're breadwinnersBreadwinners,
156
382000
3000
06:40
we enterintroduce a worldlume that is just clutteredaglomerat
157
385000
2000
06:42
with spamspam, fakefals digitaldigital friendsprieteni,
158
387000
2000
spam-uri, prieteni virtuali falși,
media părtinitoare,
06:44
partisanpartizan mediamass-media,
159
389000
2000
06:46
ingeniousingenios identityidentitate thieveshoți,
160
391000
2000
hoți de identitate ingenioși,
creatori isteți de jocuri piramidale...
06:48
world-classclasă mondială PonziPonzi schemersschemers,
161
393000
2000
06:50
a deceptionînşelăciune epidemicepidemie --
162
395000
2000
O epidemie a minciunii.
06:52
in shortmic de statura, what one authorautor callsapeluri
163
397000
2000
Un autor numește asta
societatea post-adevăr.
06:54
a post-truthpost-adevărul societysocietate.
164
399000
3000
06:57
It's been very confusingconfuz
165
402000
2000
Lumea e foarte derutantă
deja de foarte mult timp.
06:59
for a long time now.
166
404000
3000
07:03
What do you do?
167
408000
2000
Ce faci atunci?
07:05
Well there are stepspași we can take
168
410000
2000
Există soluţii ca să nu ne pierdem
prin hăţişul minciunilor.
07:07
to navigatenavigare our way throughprin the morassbaltă.
169
412000
2000
07:09
TrainedInstruiţi liespottersliespotters get to the truthadevăr 90 percentla sută of the time.
170
414000
3000
Cei calificați în depistarea minciunilor
află adevărul în 90% din cazuri.
07:12
The restodihnă of us, we're only 54 percentla sută accurateprecis.
171
417000
3000
Noi ceilalți doar în 54% din cazuri.
07:15
Why is it so easyuşor to learnînvăța?
172
420000
2000
De ce nu-i greu de învăţat?
07:17
There are good liarsmincinoşi and there are badrău liarsmincinoşi. There are no realreal originaloriginal liarsmincinoşi.
173
422000
3000
Unii mint bine, alții mint prost.
Nu există mincinoși originali.
07:20
We all make the samela fel mistakesgreșeli. We all use the samela fel techniquestehnici.
174
425000
3000
Toți facem aceleași greșeli.,
folosim aceleași tehnici.
07:23
So what I'm going to do
175
428000
2000
Vă voi arăta două tipare de minciună
şi vom căuta să vedem ce ne dă de gol.
07:25
is I'm going to showspectacol you two patternsmodele of deceptionînşelăciune.
176
430000
2000
07:27
And then we're going to look at the hotFierbinte spotspete and see if we can find them ourselvesnoi insine.
177
432000
3000
07:30
We're going to startstart with speechvorbire.
178
435000
3000
Vom începe cu un discurs.
07:33
(VideoPagina) BillProiect de lege ClintonClinton: I want you to listen to me.
179
438000
2000
Bill Clinton: Vreau să mă ascultați.
Voi repeta.
07:35
I'm going to say this again.
180
440000
2000
07:37
I did not have sexualsexual relationsrelaţii
181
442000
3000
Nu am întreținut relații sexuale
cu acea femeie, d-ra Lewinsky.
07:40
with that womanfemeie, MissMiss LewinskyDragos mihai.
182
445000
4000
07:44
I never told anybodycineva to lieminciună,
183
449000
2000
Nu am cerut nimănui niciodată să mintă.
Chiar niciodată.
07:46
not a singlesingur time, never.
184
451000
2000
07:48
And these allegationsacuzaţiile are falsefals.
185
453000
3000
Aceste acuzații sunt false.
07:51
And I need to go back to work for the AmericanAmerican people.
186
456000
2000
Și trebuie să mă întorc să lucrez
pentru poporul american. Mulțumesc.
07:53
Thank you.
187
458000
2000
07:58
PamelaPamela MeyerMeyer: Okay, what were the telltaleindicator signssemne?
188
463000
3000
Care sunt indiciile care îl dau de gol?
08:01
Well first we heardauzit what's knowncunoscut as a non-contractednon-contractat denialnegare.
189
466000
4000
La început auzim
ce se numește „negare formală”.
08:05
StudiesStudii showspectacol that people who are overdeterminedsupradeterminat in theiral lor denialnegare
190
470000
3000
Studiile arată că cei hotărâți să mintă
folosesc limbaj formal, nu informal.
08:08
will resortstațiune to formalformal rathermai degraba than informalneoficial languagelimba.
191
473000
3000
08:11
We alsode asemenea heardauzit distancingdistanţarea languagelimba: "that womanfemeie."
192
476000
3000
Auzim şi limbaj de distanţare:
„acea femeie.”
08:14
We know that liarsmincinoşi will unconsciouslyinconştient distancedistanţă themselvesînșiși
193
479000
2000
Mincinoșii se distanțează inconștient
de subiect prin limbaj.
08:16
from theiral lor subjectsubiect
194
481000
2000
08:18
usingutilizând languagelimba as theiral lor toolinstrument.
195
483000
3000
08:21
Now if BillProiect de lege ClintonClinton had said, "Well, to tell you the truthadevăr ... "
196
486000
3000
Dacă Bill Clinton ar fi spus:
„Ca să fiu sincer...”
08:24
or RichardRichard Nixon'sNixon favoritefavorit, "In all candorcandoare ... "
197
489000
2000
sau preferata lui Nixon:
„Cu toată candoarea...”,
08:26
he would have been a deadmort giveawayGiveaway
198
491000
2000
asta l-ar fi dat de gol
fiindcă detectorii de minciuni ştiu
08:28
for any liespotterliespotter than knowsștie
199
493000
2000
08:30
that qualifyingde calificare languagelimba, as it's calleddenumit, qualifyingde calificare languagelimba like that,
200
495000
3000
că limbajul numit „de calificare”
discreditează subiectul.
08:33
furthermai departe discreditsdiscreditează the subjectsubiect.
201
498000
2000
08:35
Now if he had repeatedrepetate the questionîntrebare in its entiretytoate elementele,
202
500000
3000
Dacă ar fi repetat întrebarea
sau dacă ar fi dat prea multe detalii,
08:38
or if he had pepperediute his accountcont with a little too much detaildetaliu --
203
503000
4000
08:42
and we're all really gladbucuros he didn't do that --
204
507000
2000
– ne bucurăm că n-a făcut asta -
s-ar fi discreditat și mai mult.
08:44
he would have furthermai departe discrediteddiscreditat himselfse.
205
509000
2000
08:46
FreudFreud had it right.
206
511000
2000
Freud avea dreptate când spunea
că nu doar cuvintele contează:
08:48
FreudFreud said, look, there's much more to it than speechvorbire:
207
513000
3000
08:51
"No mortalmuritor can keep a secretsecret.
208
516000
3000
„Niciun muritor nu poate păstra un secret.
Dacă buzele tac, vorbeşte cu degetele.”
08:54
If his lipsbuze are silenttăcut, he chatterschatters with his fingertipsvârfurile degetelor."
209
519000
3000
08:57
And we all do it no mattermaterie how powerfulputernic you are.
210
522000
3000
Toți facem asta,
indiferent cât de puternici suntem,
degetele noastre vorbesc.
09:00
We all chatterpalavrageala with our fingertipsvârfurile degetelor.
211
525000
2000
09:02
I'm going to showspectacol you DominiqueDominique Strauss-KahnStrauss-Kahn with ObamaObama
212
527000
3000
Iată-l pe Dominique Strauss-Kahn
cu Obama, iar degetele lui Obama vorbesc.
09:05
who'scine chatteringtrăncănit with his fingertipsvârfurile degetelor.
213
530000
3000
09:08
(LaughterRâs)
214
533000
3000
(Râsete)
09:11
Now this bringsaduce us to our nextUrmător → patternmodel,
215
536000
3000
Asta ne aduce la următorul tipar,
și anume limbajul trupului.
09:14
whichcare is bodycorp languagelimba.
216
539000
3000
09:17
With bodycorp languagelimba, here'saici e what you've got to do.
217
542000
3000
Iată cum trebuie să procedezi
cu limbajul trupului:
09:20
You've really got to just throwarunca your assumptionsipoteze out the dooruşă.
218
545000
3000
îți lași presupunerile la ușă
şi laşi știința să te lumineze un pic.
09:23
Let the scienceştiinţă tempertemperamentul your knowledgecunoştinţe a little bitpic.
219
548000
2000
09:25
Because we think liarsmincinoşi fidgetfrământa all the time.
220
550000
3000
Credem că mincinoșii se foiesc tot timpul.
09:28
Well guessghici what, they're knowncunoscut to freezeîngheţa theiral lor uppersuperior bodiesorganisme when they're lyingminciună.
221
553000
3000
Dimpotrivă: când mint,
nu-și mișcă trunchiul.
09:31
We think liarsmincinoşi won'tnu va look you in the eyesochi.
222
556000
3000
Credem că mincinoșii
nu te privesc în ochi.
09:34
Well guessghici what, they look you in the eyesochi a little too much
223
559000
2000
Din contră: se uită prea fix în ochii tăi
tocmai din cauza acestui mit.
09:36
just to compensatecompensa for that mythMitul.
224
561000
2000
09:38
We think warmthcaldura and smileszâmbete
225
563000
2000
Credem că zâmbetul, căldura lui,
transmite sinceritate.
09:40
conveytransmite honestyonestitate, sinceritysinceritate.
226
565000
2000
09:42
But a traineddresat liespotterliespotter
227
567000
2000
Dar cineva instruit poate detecta
un zâmbet fals de la un kilometru.
09:44
can spotloc a fakefals smilezâmbet a milemilă away.
228
569000
2000
09:46
Can you all spotloc the fakefals smilezâmbet here?
229
571000
3000
Puteți detecta zâmbetul fals?
09:50
You can consciouslyconştient contractcontracta
230
575000
2000
Îți poți contracta conștient
mușchii obrajilor.
09:52
the musclesmușchi in your cheeksobrajii.
231
577000
3000
09:55
But the realreal smile'szâmbet pe in the eyesochi, the crow'scioară pe feetpicioare of the eyesochi.
232
580000
3000
Dar zâmbetul sincer
se vede în cutele din jurul ochilor.
Acei muşchi nu se contractă conştient
mai ales dacă ai prea mult Botox.
09:58
They cannotnu poti be consciouslyconştient contractedcontractat,
233
583000
2000
10:00
especiallyin mod deosebit if you overdidexagerat the BotoxBotox.
234
585000
2000
10:02
Don't overdoexagerati the BotoxBotox; nobodynimeni will think you're honestsincer.
235
587000
3000
Nu exagerați cu Botoxul:
toți vor crede că mințiți.
10:05
Now we're going to look at the hotFierbinte spotspete.
236
590000
2000
Să analizăm punctele cheie.
10:07
Can you tell what's happeninglucru in a conversationconversaţie?
237
592000
2000
Intuiţi ce se petrece într-o discuție?
Puteți detecta punctele cheie
10:09
Can you startstart to find the hotFierbinte spotspete
238
594000
3000
ca să observaţi discrepanţele
dintre cuvinte și gesturi?
10:12
to see the discrepanciesdiscrepanţele
239
597000
2000
10:14
betweenîntre someone'se cineva wordscuvinte and someone'se cineva actionsacţiuni?
240
599000
2000
10:16
Now I know it seemspare really obviousevident,
241
601000
2000
Știu că pare evident,
10:18
but when you're havingavând a conversationconversaţie
242
603000
2000
dar când vorbești cu o persoană
pe care o suspectezi că minte,
10:20
with someonecineva you suspectsuspect of deceptionînşelăciune,
243
605000
3000
nu-i analizezi atitudinea,
deși ea spune multe.
10:23
attitudeatitudine is by fardeparte the mostcel mai overlookedtrecute cu vederea but tellingspune of indicatorsIndicatorii.
244
608000
3000
10:26
An honestsincer personpersoană is going to be cooperativeCooperativa.
245
611000
2000
O persoană cinstită va coopera.
Îți va arăta că e de partea ta.
10:28
They're going to showspectacol they're on your sidelatură.
246
613000
2000
10:30
They're going to be enthusiasticentuziast.
247
615000
2000
Va fi entuziastă, binevoitoare
și te va ajuta să afli adevărul.
10:32
They're going to be willingdispus and helpfulutil to gettingobtinerea you to the truthadevăr.
248
617000
2000
10:34
They're going to be willingdispus to brainstormbrainstorming-ul, nameNume suspectssuspecţi,
249
619000
3000
Va avea multe sugestii, va numi suspecți,
va furniza detalii.
10:37
providefurniza detailsDetalii.
250
622000
2000
10:39
They're going to say, "Hey,
251
624000
2000
Va spune: „Hei, poate cei de la salarii
au falsificat cecurile.”
10:41
maybe it was those guys in payrollsalarizare that forgedfals those checkscontroale."
252
626000
3000
10:44
They're going to be infuriatedînfuriat if they sensesens they're wronglyîn mod eronat accusedacuzat
253
629000
3000
Se vor înfuria pe tot parcursul discuției
dacă simt că sunt acuzați pe nedrept,
10:47
throughoutde-a lungul the entireîntreg coursecurs of the interviewinterviu, not just in flashesBlitz-uri;
254
632000
2000
10:49
they'llei vor be infuriatedînfuriat throughoutde-a lungul the entireîntreg coursecurs of the interviewinterviu.
255
634000
3000
nu din când în când.
vor fi înfuriați toată discuția.
10:52
And if you askcere someonecineva honestsincer
256
637000
2000
Dacă întrebi o persoană cinstită
10:54
what should happenîntâmpla to whomeveroricine did forgeforja those checkscontroale,
257
639000
3000
ce ar trebui să pățească
cel care a falsificat cecurile,
10:57
an honestsincer personpersoană is much more likelyprobabil
258
642000
2000
e probabil să recomande
o pedeapsă aspră, nu una blândă.
10:59
to recommendrecomanda strictstrict rathermai degraba than lenientindulgent punishmentpedeapsă.
259
644000
4000
11:03
Now let's say you're havingavând that exactcorect samela fel conversationconversaţie
260
648000
2000
Să spunem că ai aceeași discuție
cu o persoană care minte.
11:05
with someonecineva deceptivefrauduloase.
261
650000
2000
11:07
That personpersoană mayMai be withdrawnretrase,
262
652000
2000
Poate fi mai retrasă, poate privi în jos,
poate să vorbească încet,
11:09
look down, lowerinferior theiral lor voicevoce,
263
654000
2000
11:11
pausepauză, be kinddrăguț of herky-jerkyHerky-Jerky.
264
656000
2000
să facă pauze, să fie imprevizibilă.
11:13
AskCere a deceptivefrauduloase personpersoană to tell theiral lor storypoveste,
265
658000
2000
Cel care minte exagerează cu detaliile
legate de aspecte irelevante.
11:15
they're going to pepperPiper it with way too much detaildetaliu
266
660000
3000
11:18
in all kindstipuri of irrelevantirelevant placeslocuri.
267
663000
3000
11:21
And then they're going to tell theiral lor storypoveste in strictstrict chronologicalcronologică orderOrdin.
268
666000
3000
Și îți povestesc tot,
în ordine cronologică.
11:24
And what a traineddresat interrogatorinterogator does
269
669000
2000
Un anchetator profesionist
folosește metode subtile
11:26
is they come in and in very subtlesubtil waysmoduri
270
671000
2000
11:28
over the coursecurs of severalmai mulți hoursore,
271
673000
2000
de-a lungul a câtorva ore,
11:30
they will askcere that personpersoană to tell that storypoveste backwardsînapoi,
272
675000
3000
cere persoanei să povestească
în ordine cronologică inversă,
11:33
and then they'llei vor watch them squirmse agita,
273
678000
2000
urmărește cum se agită
11:35
and trackurmări whichcare questionsîntrebări producelegume şi fructe the highestcel mai inalt volumevolum of deceptivefrauduloase tellsspune.
274
680000
3000
și identifică întrebările care produc
cele mai multe minciuni.
11:38
Why do they do that? Well we all do the samela fel thing.
275
683000
3000
De ce?
Pentru că toți facem același lucru:
11:41
We rehearserepeta our wordscuvinte,
276
686000
2000
pregătim cuvintele,
dar rareori gesturile pe care le facem.
11:43
but we rarelyrar rehearserepeta our gesturesgesturi.
277
688000
2000
11:45
We say "yes," we shakescutura our headsCapete "no."
278
690000
2000
Spunem: „da”,
dăm din cap: „nu”.
11:47
We tell very convincingconvingător storiespovestiri, we slightlypuțin shrugdin umeri our shouldersumeri.
279
692000
3000
Spunem povești convingătoare,
ridicăm ușor umerii.
11:50
We commitcomite terribleteribil crimescrime,
280
695000
2000
Comitem infracțiuni groaznice și zâmbim
la gândul că vom scăpa basma curată.
11:52
and we smilezâmbet at the delightîncântare in gettingobtinerea away with it.
281
697000
3000
11:55
Now that smilezâmbet is knowncunoscut in the tradecomerț as "dupingduping delightîncântare."
282
700000
3000
Zâmbetul acela, experţii ştiu
că trădează duplicitatea.
11:58
And we're going to see that in severalmai mulți videosVideoclipuri movingin miscare forwardredirecţiona,
283
703000
3000
Îl vom vedea în imaginile următoare,
dar vom începe cu John Edwards,
12:01
but we're going to startstart -- for those of you who don't know him,
284
706000
2000
12:03
this is presidentialprezidenţiale candidatecandidat JohnIoan EdwardsEdwards
285
708000
3000
candidatul la președinție
care a șocat America,
12:06
who shockedșocat AmericaAmerica by fatheringpatern a childcopil out of wedlockcăsătoriei.
286
711000
3000
având un copil în afara căsătoriei.
12:09
We're going to see him talk about gettingobtinerea a paternitypaternitate testTest.
287
714000
3000
Îl vom vedea vorbind
de testul de paternitate.
12:12
See now if you can spotloc him
288
717000
2000
Încercați să observaţi când spune „da”,
dar dă din cap a „nu” şi ridică din umeri.
12:14
sayingzicală, "yes" while shakingzguduire his headcap "no,"
289
719000
2000
12:16
slightlypuțin shruggingshrugging his shouldersumeri.
290
721000
2000
12:18
(VideoPagina) JohnIoan EdwardsEdwards: I'd be happyfericit to participateparticipa in one.
291
723000
2000
John Edwards: Sunt dispus să fac testul,
știu că acel copil nu poate fi al meu,
12:20
I know that it's not possibleposibil that this childcopil could be mineA mea,
292
725000
3000
12:23
because of the timingsincronizare of eventsevenimente.
293
728000
2000
din cronologia evenimentelor.
Deci, știu că e imposibil.
12:25
So I know it's not possibleposibil.
294
730000
2000
12:27
Happyfericit to take a paternitypaternitate testTest,
295
732000
2000
Sunt gata să fac testul de paternitate.
Abia aştept.
12:29
and would love to see it happenîntâmpla.
296
734000
2000
12:31
InterviewerIntervievatorul: Are you going to do that sooncurând? Is there somebodycineva --
297
736000
3000
Reporter: Îl veți face în curând?
Mai e cineva implicat...
12:34
JEJE: Well, I'm only one sidelatură. I'm only one sidelatură of the testTest.
298
739000
3000
JE: Eu sunt singurul testat,
dar sunt dispus să-l fac.
12:37
But I'm happyfericit to participateparticipa in one.
299
742000
3000
12:40
PMPM: Okay, those headcap shakesshake-uri are much easierMai uşor to spotloc
300
745000
2000
PM: Clătinările capului
sunt uşor de observat când știi ce cauți.
12:42
onceo singura data you know to look for them.
301
747000
2000
12:44
There'reEsti going to be timesori
302
749000
2000
Uneori persoana expune o anumită mină
12:46
when someonecineva makesmărci one expressionexpresie
303
751000
2000
în timp ce maschează o alta
ce transpare pentru o secundă.
12:48
while maskingmascare anothero alta that just kinddrăguț of leaksscurgeri throughprin in a flashbliț.
304
753000
3000
12:52
MurderersCriminali are knowncunoscut to leakspărtură sadnesstristeţe.
305
757000
2000
Se știe că ucigașiilor
le scapă o mină de tristețe.
12:54
Your newnou jointcomun ventureaventura partnerpartener mightar putea shakescutura your handmână,
306
759000
2000
Noul partener de afaceri îți strânge mâna,
sărbătorește, cinează cu tine,
12:56
celebratesărbători, go out to dinnercină with you
307
761000
2000
12:58
and then leakspărtură an expressionexpresie of angerfurie.
308
763000
3000
dar apoi scapă o mină de furie.
13:01
And we're not all going to becomedeveni facialtratament facial expressionexpresie expertsexperți overnightpeste noapte here,
309
766000
3000
Nu vom deveni experți în mimică
peste noapte,
13:04
but there's one I can teacha preda you that's very dangerouspericulos, and it's easyuşor to learnînvăța,
310
769000
3000
dar vă arăt o mină foarte periculoasă,
ușor de învățat, mina de dispreț.
13:07
and that's the expressionexpresie of contemptdispreţ.
311
772000
3000
13:10
Now with angerfurie, you've got two people on an even playingjoc fieldcamp.
312
775000
3000
Când e vorba de furie,
doi oameni joacă de la egal la egal.
13:13
It's still somewhatoarecum of a healthysănătos relationshiprelaţie.
313
778000
2000
E oarecum o relație sănătoasă.
13:15
But when angerfurie turnstransformă to contemptdispreţ,
314
780000
2000
Dar când furia devine dispreț,
ești exclus.
13:17
you've been dismissedrespins.
315
782000
2000
13:19
It's associatedasociate with moralmorală superioritysuperioritatea.
316
784000
2000
Disprețul e asociat
cu superioritatea morală,
13:21
And for that reasonmotiv, it's very, very hardgreu to recoverrecupera from.
317
786000
3000
de aceea e foarte greu să îți revii.
Iată cum arată disprețul.
13:24
Here'sAici este what it looksarată like.
318
789000
2000
13:26
It's markedmarcat by one lipbuza cornercolţ
319
791000
2000
Colțul unei buze e ridicat
și tras spre interior.
13:28
pulledtras up and in.
320
793000
2000
13:30
It's the only asymmetricalasimetric expressionexpresie.
321
795000
3000
E singura expresie asimetrică.
13:33
And in the presenceprezenţă of contemptdispreţ,
322
798000
2000
Când apare disprețul,
fie urmează minciuna,
13:35
whetherdacă or not deceptionînşelăciune followsurmează --
323
800000
2000
13:37
and it doesn't always followurma --
324
802000
2000
dar nu întotdeauna.
13:39
look the other way, go the other directiondirecţie,
325
804000
2000
Fie te uiţi în altă parte,
mergi în cealaltă direcție,
13:41
reconsiderreconsidere the dealafacere,
326
806000
2000
refaci înțelegerea
sau spui „Nu, mulțumesc.
13:43
say, "No thank you. I'm not comingvenire up for just one more nightcapbăutură. Thank you."
327
808000
4000
Nu merg ca să am de unde veni.
Mulţumesc.”
13:47
ScienceStiinta has surfacedplaci
328
812000
2000
Știința a descoperit
mulţi alți indicatori.
13:49
manymulți, manymulți more indicatorsIndicatorii.
329
814000
2000
13:51
We know, for exampleexemplu,
330
816000
2000
Știm că mincinoșii
își modifică frecvența de clipire,
13:53
we know liarsmincinoşi will shiftschimb theiral lor blinkclipi din ochi raterată,
331
818000
2000
13:55
pointpunct theiral lor feetpicioare towardscătre an exitIeșire.
332
820000
2000
își orientează picioarele spre ieșire.
13:57
They will take barrierbarieră objectsobiecte
333
822000
2000
Folosesc obiecte ca barieră
între ei și cel cu care discută.
13:59
and put them betweenîntre themselvesînșiși and the personpersoană that is interviewingintervievarea them.
334
824000
3000
14:02
They'llEle vor altermodifica theiral lor vocalvocale toneton,
335
827000
2000
Își modifică vocea,
adesea coboarând tonalitatea.
14:04
oftende multe ori makingluare theiral lor vocalvocale toneton much lowerinferior.
336
829000
3000
14:07
Now here'saici e the dealafacere.
337
832000
2000
Uitați cum stau lucrurile:
14:09
These behaviorscomportamente are just behaviorscomportamente.
338
834000
3000
Aceste comportamente
sunt doar comportamente.
14:12
They're not proofdovadă of deceptionînşelăciune.
339
837000
2000
Nu sunt dovada minciunii.
Sunt semnale de alarmă.
14:14
They're redroșu flagssteaguri.
340
839000
2000
14:16
We're humanuman beingsființe.
341
841000
2000
Suntem oameni: mereu
facem gesturi largi, înșelătoare.
14:18
We make deceptivefrauduloase flailingflailing gesturesgesturi all over the placeloc all day long.
342
843000
3000
14:21
They don't mean anything in and of themselvesînșiși.
343
846000
2000
Ele în sine nu înseamnă nimic.
14:23
But when you see clustersclustere of them, that's your signalsemnal.
344
848000
3000
Dar când se adună, atunci fii atent:
privește, ascultă, testează,
14:26
Look, listen, probesondă, askcere some hardgreu questionsîntrebări,
345
851000
3000
pune întrebări dificile,
ieși din zona confortabilă,
14:29
get out of that very comfortableconfortabil modemod of knowingcunoaștere,
346
854000
3000
14:32
walkmers pe jos into curiositycuriozitate modemod, askcere more questionsîntrebări,
347
857000
3000
fii curios, pune întrebări, fii demn,
vorbeşte de la egal cu persoana,
14:35
have a little dignitydemnitate, treattrata the personpersoană you're talkingvorbind to with rapportraport.
348
860000
3000
14:38
Don't try to be like those folksoameni buni on "LawLegea & OrderComanda" and those other TVTV showsspectacole
349
863000
3000
nu fi ca cei din „Lege și Ordine”
care-și forțează subiecții să se supună.
14:41
that pummelpummel theiral lor subjectssubiecți into submissionprezentarea.
350
866000
2000
14:43
Don't be too aggressiveagresiv, it doesn't work.
351
868000
3000
Nu fi prea agresiv. Nu merge.
14:46
Now we'vene-am talkeda vorbit a little bitpic
352
871000
2000
Am văzut cum să vorbim
cu o persoană care minte
14:48
about how to talk to someonecineva who'scine lyingminciună
353
873000
2000
14:50
and how to spotloc a lieminciună.
354
875000
2000
și cum să detectăm minciuna.
14:52
And as I promiseda promis, we're now going to look at what the truthadevăr looksarată like.
355
877000
3000
Acum vom vedea cum arată adevărul.
14:55
But I'm going to showspectacol you two videosVideoclipuri,
356
880000
2000
Vă voi arăta două videoclipuri.
14:57
two mothersmame -- one is lyingminciună, one is tellingspune the truthadevăr.
357
882000
3000
Două mame: una minte,
cealaltă spune adevărul.
15:00
And these were surfacedplaci
358
885000
2000
E munca cercetătorului
David Matsumoto, în California.
15:02
by researchercercetător DavidDavid MatsumotoMatsumoto in CaliforniaCalifornia.
359
887000
2000
15:04
And I think they're an excellentexcelent exampleexemplu
360
889000
2000
Cred că sunt exemple excelente
despre cum arată adevărul.
15:06
of what the truthadevăr looksarată like.
361
891000
2000
15:08
This mothermamă, DianeDiane DownsDowns,
362
893000
2000
Această mamă – Diane Downs –
și-a împușcat copiii de aproape,
15:10
shotlovitură her kidscopii at closeînchide rangegamă,
363
895000
2000
15:12
drovea condus them to the hospitalspital
364
897000
2000
i-a dus cu mașina la spital,
în timp ce sângerau în mașină,
15:14
while they bledBled all over the carmașină,
365
899000
2000
15:16
claimeda susţinut a scraggy-hairedcu părul costeliv strangerstrăin did it.
366
901000
2000
pretinzând că un necunoscut jigărit
i-a împușcat.
15:18
And you'llveți see when you see the videovideo,
367
903000
2000
Veți vedea că nici nu se poate preface
că suferă.
15:20
she can't even pretendpretinde to be an agonizingagonizant mothermamă.
368
905000
2000
15:22
What you want to look for here
369
907000
2000
Observaţi discrepanța incredibilă
15:24
is an incredibleincredibil discrepancydiscrepanţă
370
909000
2000
dintre întâmplările tragice
pe care le descrie și atitudinea ei rece.
15:26
betweenîntre horrificoribil eventsevenimente that she describesdescrie
371
911000
2000
15:28
and her very, very coolmisto demeanorpurtare.
372
913000
2000
15:30
And if you look closelyîndeaproape, you'llveți see dupingduping delightîncântare throughoutde-a lungul this videovideo.
373
915000
3000
Fiţi atenți și cum se trădează
prin zâmbetul duplicitar.
15:33
(VideoPagina) DianeDiane DownsDowns: At night when I closeînchide my eyesochi,
374
918000
2000
Diane Downs: „Noaptea, când închid ochii,
o văd pe Christie întinzând mâinile
15:35
I can see ChristieChristie reachingajungând her handmână out to me while I'm drivingconducere,
375
920000
3000
spre mine când conduc
iar sângele șiroiește din gura ei.
15:38
and the bloodsânge just keptținut comingvenire out of her mouthgură.
376
923000
3000
15:41
And that -- maybe it'llO să fadedecolorare too with time --
377
926000
2000
Poate că asta va trece cu timpul,
dar nu cred. Ăsta e coşmarul meu.”
15:43
but I don't think so.
378
928000
2000
15:45
That bothersderanjeaza me the mostcel mai.
379
930000
3000
15:55
PMPM: Now I'm going to showspectacol you a videovideo
380
940000
2000
PM: Acum vă voi arăta un clip
al unei mame sincer îndurerate,
15:57
of an actualreal grievingdoliu mothermamă, ErinErin RunnionRunnion,
381
942000
2000
15:59
confrontingconfruntarea her daughter'sfiica lui murderercriminal and torturertorţionar in courtcurte.
382
944000
4000
Erin Runnion, înfruntându-l la tribunal
pe cel care i-a torturat și ucis fiica.
16:03
Here you're going to see no falsefals emotionemoţie,
383
948000
2000
Nu veți vedea emoții false,
16:05
just the authenticautentic expressionexpresie of a mother'smama lui agonyagonie.
384
950000
3000
doar expresia autentică
a agoniei unei mame.
16:08
(VideoPagina) ErinErin RunnionRunnion: I wrotea scris this statementafirmație on the thirdal treilea anniversaryaniversare
385
953000
2000
Erin Runnion: „Am scris declarația asta
la trei ani după ce mi-ai răpit copila,
16:10
of the night you tooka luat my babybebelus,
386
955000
2000
16:12
and you hurtrănit her,
387
957000
2000
ai făcut-o să sufere și ai zdrobit-o,
16:14
and you crushedzdrobit her,
388
959000
2000
16:16
you terrifiedîngrozit her untilpana cand her heartinimă stoppedoprit.
389
961000
4000
ai înfricoșat-o
până când i s-a oprit inimioara.
16:20
And she foughtau luptat, and I know she foughtau luptat you.
390
965000
3000
Știu că a opus rezistență.
16:23
But I know she lookedprivit at you
391
968000
2000
Dar știu că te-a privit
cu ochișorii ei căprui minunați
16:25
with those amazinguimitor brownmaro eyesochi,
392
970000
2000
16:27
and you still wanted to killucide her.
393
972000
3000
și tu tot ai vrut s-o omori.
16:30
And I don't understanda intelege it,
394
975000
2000
Nu înțeleg de ce,
nu voi înțelege niciodată.
16:32
and I never will.
395
977000
3000
16:35
PMPM: Okay, there's no doubtingpune la îndoială the veracityveridicitatea of those emotionsemoții.
396
980000
4000
PM: Fără îndoială sunt sentimente sincere.
16:39
Now the technologytehnologie around what the truthadevăr looksarată like
397
984000
3000
Ştiinţa pentru tehnologia
detectării adevărului evoluează.
16:42
is progressingprogresează on, the scienceştiinţă of it.
398
987000
3000
16:45
We know for exampleexemplu
399
990000
2000
De exemplu, acum avem aparate
ce urmăresc mișcarea ochilor,
16:47
that we now have specializedde specialitate eyeochi trackerstrackere and infraredinfraroşu braincreier scansscanările,
400
992000
3000
scanere cerebrale cu infraroşii
16:50
MRI'sRMN-ul pe that can decodeDecodare the signalssemnalele that our bodiesorganisme sendtrimite out
401
995000
3000
RMN-uri care detectează semnalele
corpului când încercăm să mințim.
16:53
when we're tryingîncercat to be deceptivefrauduloase.
402
998000
2000
16:55
And these technologiestehnologii are going to be marketedcomercializate to all of us
403
1000000
3000
Aceste tehnologii vor fi de vânzare
ca remedii pentru minciună
16:58
as panaceaspanaceas for deceitînşelăciune,
404
1003000
2000
17:00
and they will provedovedi incrediblyincredibil usefulutil some day.
405
1005000
3000
și într-o bună zi
se vor dovedi foarte utile.
17:03
But you've got to askcere yourselftu in the meantimeîntre timp:
406
1008000
2000
Dar între timp ar trebui să vă întrebați
pe cine vreți de partea voastră:
17:05
Who do you want on your sidelatură of the meetingîntâlnire,
407
1010000
2000
17:07
someonecineva who'scine traineddresat in gettingobtinerea to the truthadevăr
408
1012000
3000
pe cineva instruit să afle adevărul
17:10
or some guy who'scine going to dragtrage a 400-pound-livră electroencephalogramelectroencefalogramă
409
1015000
2000
sau pe unul care intră pe uşă
cu un encefalograf de 180 kg?
17:12
throughprin the dooruşă?
410
1017000
2000
17:14
LiespottersLiespotters relyse bazează on humanuman toolsunelte.
411
1019000
4000
Cei care detectează minciuni
se bazează pe instrumente umane.
17:18
They know, as someonecineva onceo singura data said,
412
1023000
2000
Ei știu să vadă, cum spunea cineva,
cine eşti în întuneric.
17:20
"Character'sPersonajului who you are in the darkîntuneric."
413
1025000
2000
17:22
And what's kinddrăguț of interestinginteresant
414
1027000
2000
Interesant e că azi
întunericul aproape lipsește.
17:24
is that todayastăzi we have so little darknessîntuneric.
415
1029000
2000
17:26
Our worldlume is litluminat up 24 hoursore a day.
416
1031000
3000
Lumea noastră e luminată 24 de ore.
E transparentă.
17:29
It's transparenttransparent
417
1034000
2000
17:31
with blogsbloguri and socialsocial networksrețele
418
1036000
2000
Cu bloguri și rețele sociale
în care zumzăie o generație nouă
17:33
broadcastingradiodifuziune the buzzBuzz of a wholeîntreg newnou generationgeneraţie of people
419
1038000
2000
17:35
that have madefăcut a choicealegere to livetrăi theiral lor livesvieți in publicpublic.
420
1040000
3000
care a decis să-și facă vieța publică,
lumea e mult mai zgomotoasă.
17:38
It's a much more noisyzgomotos worldlume.
421
1043000
4000
17:42
So one challengeprovocare we have
422
1047000
2000
Una dintre provocări e să ne amintim
că transparența nu înseamnă sinceritate.
17:44
is to remembertine minte,
423
1049000
2000
17:46
oversharingoversharing, that's not honestyonestitate.
424
1051000
3000
17:49
Our manicmaniacale tweetingtweeting and textingmesaje text
425
1054000
2000
Trimitem mereu tweeturi și SMS-uri
și asta ne poate face să uităm
17:51
can blindORB us to the factfapt
426
1056000
2000
17:53
that the subtletiessubtilitățile of humanuman decencydecenta -- charactercaracter integrityintegritate --
427
1058000
3000
că subtilitățile decenței umane
– caracterul, integritatea –
17:56
that's still what matterschestiuni, that's always what's going to mattermaterie.
428
1061000
3000
contează și vor conta mereu.
17:59
So in this much noisiermai zgomotos worldlume,
429
1064000
2000
În această lume zgomotoasă ar fi bine
18:01
it mightar putea make sensesens for us
430
1066000
2000
să fim un pic mai expliciți
în privința codului nostru moral.
18:03
to be just a little bitpic more explicitexplicit
431
1068000
2000
18:05
about our moralmorală codecod.
432
1070000
3000
18:08
When you combinecombina the scienceştiinţă of recognizingrecunoscând deceptionînşelăciune
433
1073000
2000
Când combini știința de a detecta minciuna
cu arta observaţiei, a ascultării,
18:10
with the artartă of looking, listeningascultare,
434
1075000
2000
18:12
you exemptscutite yourselftu from collaboratingcolaborarea in a lieminciună.
435
1077000
3000
te scuteşti să iei parte la minciună.
18:15
You startstart up that pathcale
436
1080000
2000
Pornești pe un drum
pe care ești un pic mai explicit
18:17
of beingfiind just a little bitpic more explicitexplicit,
437
1082000
2000
18:19
because you signalsemnal to everyonetoata lumea around you,
438
1084000
2000
pentru că transmiţi celor din jur:
18:21
you say, "Hey, my worldlume, our worldlume,
439
1086000
3000
Hei, lumea mea, lumea noastră,
va fi o lume sinceră.
18:24
it's going to be an honestsincer one.
440
1089000
2000
18:26
My worldlume is going to be one where truthadevăr is strengthenedconsolidat
441
1091000
2000
În lumea mea, adevărul va fi prețuit,
18:28
and falsehoodfalsitate is recognizedrecunoscut and marginalizedmarginalizate."
442
1093000
3000
iar falsitatea
identificată și marginalizată.”
18:31
And when you do that,
443
1096000
2000
Când faci asta, lumea din jur
începe să se schimbe ușor.
18:33
the groundsol around you startsîncepe to shiftschimb just a little bitpic.
444
1098000
3000
18:36
And that's the truthadevăr. Thank you.
445
1101000
3000
Ăsta-i adevărul. Mulțumesc.
18:39
(ApplauseAplauze)
446
1104000
5000
(Aplauze)
Translated by Madalina Dinita
Reviewed by Ariana Bleau Lugo

▲Back to top

ABOUT THE SPEAKER
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.

Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.

Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speaker
Pamela Meyer | Speaker | TED.com