TEDGlobal 2011
Pamela Meyer: How to spot a liar
Pamela Meyer: Pamela Meyer: Cum să detectezi mincinoșii
Filmed:
Readability: 3.8
28,415,176 views
În fiecare zi, suntem mințiți de 10 până la 200 de ori, iar indiciile pentru a detecta minciunile pot fi subtile și non-intuitive. Pamela Meyer, autoarea cărții „Liespotting” („Detectarea Minciunii”) ne dezvăluie secretele celor instruiți să detecteze minciuna și susține că onestitatea e o virtute ce merită păstrată.
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
Nu vreau să alarmez pe nimeni,
00:20
but it's just come to my attention
1
5000
2000
dar tocmai mi-am dat seama că persoana
din dreapta ta e un mincinos.
din dreapta ta e un mincinos.
00:22
that the person to your right is a liar.
2
7000
2000
00:24
(Laughter)
3
9000
2000
(Râsete)
00:26
Also, the person to your left is a liar.
4
11000
3000
Și vecinul din stânga e un mincinos.
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
Chiar cel care stă pe scaunul tău
e un mincinos.
e un mincinos.
00:32
We're all liars.
6
17000
2000
Toți suntem mincinoși.
00:34
What I'm going to do today
7
19000
2000
Azi vă voi arăta ce spun studiile
despre motivul pentru care toţi mințim,
despre motivul pentru care toţi mințim,
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
00:39
how you can become a liespotter
9
24000
2000
cum să detectaţi minciunile
și de ce ați dori să treceți
și de ce ați dori să treceți
00:41
and why you might want to go the extra mile
10
26000
3000
de la detectarea minciunii
la căutarea adevărului
la căutarea adevărului
00:44
and go from liespotting to truth seeking,
11
29000
3000
00:47
and ultimately to trust building.
12
32000
2000
și, în final, la construirea încrederii.
00:49
Now speaking of trust,
13
34000
3000
Vorbind de încredere,
de când am scris cartea „Liespotting”,
de când am scris cartea „Liespotting”,
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
nimeni nu mai vrea
să se întâlnească cu mine.
să se întâlnească cu mine.
00:58
They say, "It's okay, we'll email you."
16
43000
3000
Toţi spun:
„E OK, îți trimitem un email.”
„E OK, îți trimitem un email.”
01:01
(Laughter)
17
46000
2000
(Râsete)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
Nici măcar nu pot să beau o cafea
cu cineva la Starbucks.
cu cineva la Starbucks.
01:07
My husband's like, "Honey, deception?
19
52000
2000
Soțul îmi spune:
„Dragă, despre minciună?
„Dragă, despre minciună?
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
Te-ai fi putut axa pe gătit.
Eventual bucătăria franțuzească?”
Eventual bucătăria franțuzească?”
01:12
So before I get started, what I'm going to do
21
57000
2000
Înainte să încep, vă voi explica
care îmi e scopul.
care îmi e scopul.
01:14
is I'm going to clarify my goal for you,
22
59000
3000
Nu vă învăț să jucaţi „Te-am prins!”.
01:17
which is not to teach a game of Gotcha.
23
62000
2000
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
„Detectorii de minciuni” nu sunt copiii
din fundul sălii care strigă: Te-am prins!
din fundul sălii care strigă: Te-am prins!
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
„Ți-a zvâcnit sprânceana!
Ți-a tremurat nara!
Ți-a tremurat nara!
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
M-am uitat la emisiunea 'Minte-mă'.
Știu că minți.”
Știu că minți.”
01:30
No, liespotters are armed
28
75000
2000
Nu. Ei sunt înarmați cu dovezi științifice
pentru a detecta minciuna.
pentru a detecta minciuna.
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
01:35
They use it to get to the truth,
30
80000
2000
Le folosesc ca să afle adevărul
și fac ce liderii maturi fac zilnic:
și fac ce liderii maturi fac zilnic:
01:37
and they do what mature leaders do everyday;
31
82000
2000
01:39
they have difficult conversations with difficult people,
32
84000
3000
au discuţii dificile cu oameni dificili,
uneori în momente foarte dificile.
uneori în momente foarte dificile.
01:42
sometimes during very difficult times.
33
87000
2000
01:44
And they start up that path
34
89000
2000
Ei pornesc la drum,
acceptând un principiu fundamental:
acceptând un principiu fundamental:
01:46
by accepting a core proposition,
35
91000
2000
01:48
and that proposition is the following:
36
93000
2000
01:50
Lying is a cooperative act.
37
95000
3000
minciuna e un act de cooperare.
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
Gândiți-vă, minciuna nu are
absolut nici o putere prin simpla rostire.
absolut nici o putere prin simpla rostire.
01:57
Its power emerges
39
102000
2000
Puterea ei se naşte
când cineva acceptă s-o creadă.
când cineva acceptă s-o creadă.
01:59
when someone else agrees to believe the lie.
40
104000
2000
02:01
So I know it may sound like tough love,
41
106000
2000
Știu că e un adevăr dur,
02:03
but look, if at some point you got lied to,
42
108000
4000
dar dacă ai fost vreodată mințit
e pentru că ai acceptat să fii mințit.
e pentru că ai acceptat să fii mințit.
02:07
it's because you agreed to get lied to.
43
112000
2000
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
Adevărul nr.1:
minciuna e un act de cooperare.
minciuna e un act de cooperare.
02:12
Now not all lies are harmful.
45
117000
2000
Nu toate minciunile fac rău.
02:14
Sometimes we're willing participants in deception
46
119000
3000
Uneori cooperăm la minciună
ca să ne păstrăm demnitatea socială,
ca să ne păstrăm demnitatea socială,
02:17
for the sake of social dignity,
47
122000
3000
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
poate să păstrăm un mare secret.
02:23
We say, "Nice song."
49
128000
2000
Spunem: „Ce cântec frumos!”
„Dragă, nu arăți grasă îmbrăcată așa.”
„Dragă, nu arăți grasă îmbrăcată așa.”
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
02:28
Or we say, favorite of the digiratti,
51
133000
2000
Sau minciuna clasică a epocii IT:
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
„Tocmai am pescuit emailul tău din spam.
Scuze că răspund cu întârziere.”
Scuze că răspund cu întârziere.”
02:33
So sorry."
53
138000
3000
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
Uneori nu participăm benevol la minciună
şi asta ne poate costa scump.
şi asta ne poate costa scump.
02:39
And that can have dramatic costs for us.
55
144000
3000
02:42
Last year saw 997 billion dollars
56
147000
3000
Anul trecut, au existat fraude corporative
de 997 miliarde dolari doar în SUA.
de 997 miliarde dolari doar în SUA.
02:45
in corporate fraud alone in the United States.
57
150000
4000
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
E cu puțin sub un trilion de dolari.
Reprezintă 7% din venitul național.
Reprezintă 7% din venitul național.
02:51
That's seven percent of revenues.
59
156000
2000
02:53
Deception can cost billions.
60
158000
2000
Minciuna poate costa miliarde. Gândiți-vă
la Enron, la Madoff, la criza ipotecară.
la Enron, la Madoff, la criza ipotecară.
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
02:58
Or in the case of double agents and traitors,
62
163000
3000
În cazul agenților dubli și trădătorilor
ca Robert Hanssen sau Aldrich Ames,
ca Robert Hanssen sau Aldrich Ames,
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
03:03
lies can betray our country,
64
168000
2000
minciunile ne pot trăda țara,
compromite securitatea,
compromite securitatea,
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
submina democrația,
pot duce la moartea celor care ne apără.
pot duce la moartea celor care ne apără.
03:08
they can cause the deaths of those that defend us.
66
173000
3000
03:11
Deception is actually serious business.
67
176000
3000
Minciuna e o treabă serioasă.
03:14
This con man, Henry Oberlander,
68
179000
2000
Acest escroc, Henry Oberlander,
03:16
he was such an effective con man
69
181000
2000
a fost atât de eficient
încât autoritățile britanice spun
încât autoritățile britanice spun
03:18
British authorities say
70
183000
2000
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
că ar fi putut submina întregul
sistem bancar al Occidentului.
sistem bancar al Occidentului.
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
Nu-l găseşti pe Google,
nicăieri.
nicăieri.
03:25
He was interviewed once, and he said the following.
73
190000
3000
A fost intervievat odată.
A spus: „Uitați, am o regulă.”
A spus: „Uitați, am o regulă.”
03:28
He said, "Look, I've got one rule."
74
193000
2000
03:30
And this was Henry's rule, he said,
75
195000
3000
Regula lui Henry spunea:
„Toți sunt dispuși să îți dea ceva
în schimbul a ceea ce-şi doresc.”
în schimbul a ceea ce-şi doresc.”
03:33
"Look, everyone is willing to give you something.
76
198000
2000
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
03:38
And that's the crux of it.
78
203000
2000
Asta-i esența problemei:
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
Dacă nu vrei să fii mințit,
trebuie să știi ce râvnești.
trebuie să știi ce râvnești.
03:42
what is it that you're hungry for?
80
207000
2000
03:44
And we all kind of hate to admit it.
81
209000
3000
Nu ne place să recunoaștem:
ne cam dorim să fim soţi mai buni,
ne cam dorim să fim soţi mai buni,
03:47
We wish we were better husbands, better wives,
82
212000
3000
soții mai bune, să fim mai inteligenți,
mai puternici, mai înalți, mai bogați...
mai puternici, mai înalți, mai bogați...
03:50
smarter, more powerful,
83
215000
2000
03:52
taller, richer --
84
217000
2000
03:54
the list goes on.
85
219000
2000
și lista continuă.
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
Minciuna încearcă să micşoreze prăpastia,
03:58
to connect our wishes and our fantasies
87
223000
2000
să ne lege visele şi aspiraţiile
despre cine şi cum am vrea să fim
despre cine şi cum am vrea să fim
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
04:03
with what we're really like.
89
228000
3000
cu ceea ce suntem în realitate.
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
O, cum mai micşorăm discrepanţele
cu minciuni!
cu minciuni!
04:09
On a given day, studies show that you may be lied to
91
234000
3000
Într-o singură zi, studiile arată
că ești mințit între 10 și 200 de ori.
că ești mințit între 10 și 200 de ori.
04:12
anywhere from 10 to 200 times.
92
237000
2000
04:14
Now granted, many of those are white lies.
93
239000
3000
Da, multe sunt minciuni nevinovate.
04:17
But in another study,
94
242000
2000
Dar alt studiu a arătat
04:19
it showed that strangers lied three times
95
244000
2000
că necunoscuții mint de 3 ori în 10 minute
la prima întâlnire.
la prima întâlnire.
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
04:23
(Laughter)
97
248000
2000
(Râsete)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
Ne şochează când auzim asta prima dată.
Minciuna e incredibil de răspândită.
Minciuna e incredibil de răspândită.
04:28
We can't believe how prevalent lying is.
99
253000
2000
04:30
We're essentially against lying.
100
255000
2000
În principiu, suntem împotriva minciunii.
Dar dacă privești atent, se-ngroaşă gluma.
Dar dacă privești atent, se-ngroaşă gluma.
04:32
But if you look more closely,
101
257000
2000
04:34
the plot actually thickens.
102
259000
2000
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
Pe necunoscuți îi mințim mai mult
decât pe colegi.
decât pe colegi.
04:39
Extroverts lie more than introverts.
104
264000
4000
Extrovertiții mint mai mult
decât introvertiții.
decât introvertiții.
04:43
Men lie eight times more about themselves
105
268000
3000
Bărbații mint de 8 ori mai mult despre ei
decât despre altcineva.
decât despre altcineva.
04:46
than they do other people.
106
271000
2000
04:48
Women lie more to protect other people.
107
273000
3000
Femeile mint mai mult
ca să protejeze pe altcineva.
ca să protejeze pe altcineva.
04:51
If you're an average married couple,
108
276000
3000
Într-un cuplu mediu ca durată,
soţii îşi mint partenerul 1 din 10 dăţi.
soţii îşi mint partenerul 1 din 10 dăţi.
04:54
you're going to lie to your spouse
109
279000
2000
04:56
in one out of every 10 interactions.
110
281000
2000
04:58
Now you may think that's bad.
111
283000
2000
Poate credeţi că nu e bine.
La necăsătoriţi cifra ajunge la 3 din 10.
La necăsătoriţi cifra ajunge la 3 din 10.
05:00
If you're unmarried, that number drops to three.
112
285000
2000
05:02
Lying's complex.
113
287000
2000
Minciuna e ceva complex. E întrepătrunsă
în viaţa cotidiană şi profesională.
în viaţa cotidiană şi profesională.
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
05:07
We're deeply ambivalent about the truth.
115
292000
2000
Suntem ambivalenţi față de adevăr.
05:09
We parse it out on an as-needed basis,
116
294000
2000
Îl folosim în funcție de nevoi,
uneori din motive serioase,
uneori din motive serioase,
05:11
sometimes for very good reasons,
117
296000
2000
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
alteori doar pentru că nu înțelegem
golurile din viețile noastre.
golurile din viețile noastre.
05:16
That's truth number two about lying.
119
301000
2000
Ăsta-i adevărul nr. 2 despre minciună.
05:18
We're against lying,
120
303000
2000
Suntem împotriva minciunii,
dar o acceptăm tacit
dar o acceptăm tacit
05:20
but we're covertly for it
121
305000
2000
05:22
in ways that our society has sanctioned
122
307000
2000
în moduri pe care societatea
le-a sancționat de-a lungul secolelor.
le-a sancționat de-a lungul secolelor.
05:24
for centuries and centuries and centuries.
123
309000
2000
05:26
It's as old as breathing.
124
311000
2000
Minciuna e în natura noastră.
Face parte din cultura și istoria noastră.
Face parte din cultura și istoria noastră.
05:28
It's part of our culture, it's part of our history.
125
313000
2000
05:30
Think Dante, Shakespeare,
126
315000
3000
Gândiți-vă la Dante, la Shakespeare,
la Biblie, la revista News of the World.
la Biblie, la revista News of the World.
05:33
the Bible, News of the World.
127
318000
3000
05:36
(Laughter)
128
321000
2000
(Râsete)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
Minciuna are relevanță
în evoluția noastră ca specie.
în evoluția noastră ca specie.
05:40
Researchers have long known
130
325000
2000
Cercetătorii au demonstrat demult:
cu cât o specie e mai inteligentă,
cu cât o specie e mai inteligentă,
05:42
that the more intelligent the species,
131
327000
2000
05:44
the larger the neocortex,
132
329000
2000
cu cât neocortexul e mai mare,
cu atât specia minte mai mult.
cu atât specia minte mai mult.
05:46
the more likely it is to be deceptive.
133
331000
2000
05:48
Now you might remember Koko.
134
333000
2000
Poate vă amintiți de Koko.
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
Vă amintiţi de gorila Koko,
care a învățat limbajul semnelor?
care a învățat limbajul semnelor?
05:53
Koko was taught to communicate via sign language.
136
338000
3000
Koko a învățat să comunice prin semne.
05:56
Here's Koko with her kitten.
137
341000
2000
Iat-o pe Koko cu pisoiul ei.
E animalul ei de companie pufos.
E animalul ei de companie pufos.
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
Koko a dat odată vina pe pisoi,
spunând că a smuls chiuveta din perete.
spunând că a smuls chiuveta din perete.
06:01
Koko once blamed her pet kitten
139
346000
2000
06:03
for ripping a sink out of the wall.
140
348000
2000
06:05
(Laughter)
141
350000
2000
(Râsete)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
Suntem programați
să devenim liderii grupului.
să devenim liderii grupului.
06:09
It's starts really, really early.
143
354000
2000
Începem foarte, foarte devreme.
Cât de devreme?
Cât de devreme?
06:11
How early?
144
356000
2000
06:13
Well babies will fake a cry,
145
358000
2000
Bebelușii se prefac că plâng,
se opresc, așteaptă să vadă cine vine
se opresc, așteaptă să vadă cine vine
06:15
pause, wait to see who's coming
146
360000
2000
06:17
and then go right back to crying.
147
362000
2000
și apoi încep iar să plângă.
(Râsete)
(Râsete)
06:19
One-year-olds learn concealment.
148
364000
2000
Copiii de 1 an învață să ascundă.
(Râsete)
(Râsete)
06:21
(Laughter)
149
366000
2000
06:23
Two-year-olds bluff.
150
368000
2000
Cei de 2 ani merg la cacealma.
06:25
Five-year-olds lie outright.
151
370000
2000
Cei de 5 ani mint sfruntat.
Manipulează prin măgulire.
Manipulează prin măgulire.
06:27
They manipulate via flattery.
152
372000
2000
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
La 9 ani sunt maeștrii mușamalizării.
06:32
By the time you enter college,
154
377000
2000
Când ajungi la facultate, îți minți mama
la 1 din 5 interacțiuni.
la 1 din 5 interacțiuni.
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
Când începem munca şi ne câştigăm pâinea
intrăm într-o lume plină de fals,
intrăm într-o lume plină de fals,
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
06:40
we enter a world that is just cluttered
157
385000
2000
06:42
with spam, fake digital friends,
158
387000
2000
spam-uri, prieteni virtuali falși,
media părtinitoare,
media părtinitoare,
06:44
partisan media,
159
389000
2000
06:46
ingenious identity thieves,
160
391000
2000
hoți de identitate ingenioși,
creatori isteți de jocuri piramidale...
creatori isteți de jocuri piramidale...
06:48
world-class Ponzi schemers,
161
393000
2000
06:50
a deception epidemic --
162
395000
2000
O epidemie a minciunii.
06:52
in short, what one author calls
163
397000
2000
Un autor numește asta
societatea post-adevăr.
societatea post-adevăr.
06:54
a post-truth society.
164
399000
3000
06:57
It's been very confusing
165
402000
2000
Lumea e foarte derutantă
deja de foarte mult timp.
deja de foarte mult timp.
06:59
for a long time now.
166
404000
3000
07:03
What do you do?
167
408000
2000
Ce faci atunci?
07:05
Well there are steps we can take
168
410000
2000
Există soluţii ca să nu ne pierdem
prin hăţişul minciunilor.
prin hăţişul minciunilor.
07:07
to navigate our way through the morass.
169
412000
2000
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
Cei calificați în depistarea minciunilor
află adevărul în 90% din cazuri.
află adevărul în 90% din cazuri.
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
Noi ceilalți doar în 54% din cazuri.
07:15
Why is it so easy to learn?
172
420000
2000
De ce nu-i greu de învăţat?
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
Unii mint bine, alții mint prost.
Nu există mincinoși originali.
Nu există mincinoși originali.
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
Toți facem aceleași greșeli.,
folosim aceleași tehnici.
folosim aceleași tehnici.
07:23
So what I'm going to do
175
428000
2000
Vă voi arăta două tipare de minciună
şi vom căuta să vedem ce ne dă de gol.
şi vom căuta să vedem ce ne dă de gol.
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
07:30
We're going to start with speech.
178
435000
3000
Vom începe cu un discurs.
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
Bill Clinton: Vreau să mă ascultați.
Voi repeta.
Voi repeta.
07:35
I'm going to say this again.
180
440000
2000
07:37
I did not have sexual relations
181
442000
3000
Nu am întreținut relații sexuale
cu acea femeie, d-ra Lewinsky.
cu acea femeie, d-ra Lewinsky.
07:40
with that woman, Miss Lewinsky.
182
445000
4000
07:44
I never told anybody to lie,
183
449000
2000
Nu am cerut nimănui niciodată să mintă.
Chiar niciodată.
Chiar niciodată.
07:46
not a single time, never.
184
451000
2000
07:48
And these allegations are false.
185
453000
3000
Aceste acuzații sunt false.
07:51
And I need to go back to work for the American people.
186
456000
2000
Și trebuie să mă întorc să lucrez
pentru poporul american. Mulțumesc.
pentru poporul american. Mulțumesc.
07:53
Thank you.
187
458000
2000
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
Care sunt indiciile care îl dau de gol?
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
La început auzim
ce se numește „negare formală”.
ce se numește „negare formală”.
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
Studiile arată că cei hotărâți să mintă
folosesc limbaj formal, nu informal.
folosesc limbaj formal, nu informal.
08:08
will resort to formal rather than informal language.
191
473000
3000
08:11
We also heard distancing language: "that woman."
192
476000
3000
Auzim şi limbaj de distanţare:
„acea femeie.”
„acea femeie.”
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
Mincinoșii se distanțează inconștient
de subiect prin limbaj.
de subiect prin limbaj.
08:16
from their subject
194
481000
2000
08:18
using language as their tool.
195
483000
3000
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
Dacă Bill Clinton ar fi spus:
„Ca să fiu sincer...”
„Ca să fiu sincer...”
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
sau preferata lui Nixon:
„Cu toată candoarea...”,
„Cu toată candoarea...”,
08:26
he would have been a dead giveaway
198
491000
2000
asta l-ar fi dat de gol
fiindcă detectorii de minciuni ştiu
fiindcă detectorii de minciuni ştiu
08:28
for any liespotter than knows
199
493000
2000
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
că limbajul numit „de calificare”
discreditează subiectul.
discreditează subiectul.
08:33
further discredits the subject.
201
498000
2000
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
Dacă ar fi repetat întrebarea
sau dacă ar fi dat prea multe detalii,
sau dacă ar fi dat prea multe detalii,
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
08:42
and we're all really glad he didn't do that --
204
507000
2000
– ne bucurăm că n-a făcut asta -
s-ar fi discreditat și mai mult.
s-ar fi discreditat și mai mult.
08:44
he would have further discredited himself.
205
509000
2000
08:46
Freud had it right.
206
511000
2000
Freud avea dreptate când spunea
că nu doar cuvintele contează:
că nu doar cuvintele contează:
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
08:51
"No mortal can keep a secret.
208
516000
3000
„Niciun muritor nu poate păstra un secret.
Dacă buzele tac, vorbeşte cu degetele.”
Dacă buzele tac, vorbeşte cu degetele.”
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
08:57
And we all do it no matter how powerful you are.
210
522000
3000
Toți facem asta,
indiferent cât de puternici suntem,
degetele noastre vorbesc.
degetele noastre vorbesc.
09:00
We all chatter with our fingertips.
211
525000
2000
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
Iată-l pe Dominique Strauss-Kahn
cu Obama, iar degetele lui Obama vorbesc.
cu Obama, iar degetele lui Obama vorbesc.
09:05
who's chattering with his fingertips.
213
530000
3000
09:08
(Laughter)
214
533000
3000
(Râsete)
09:11
Now this brings us to our next pattern,
215
536000
3000
Asta ne aduce la următorul tipar,
și anume limbajul trupului.
și anume limbajul trupului.
09:14
which is body language.
216
539000
3000
09:17
With body language, here's what you've got to do.
217
542000
3000
Iată cum trebuie să procedezi
cu limbajul trupului:
cu limbajul trupului:
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
îți lași presupunerile la ușă
şi laşi știința să te lumineze un pic.
şi laşi știința să te lumineze un pic.
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
09:25
Because we think liars fidget all the time.
220
550000
3000
Credem că mincinoșii se foiesc tot timpul.
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
Dimpotrivă: când mint,
nu-și mișcă trunchiul.
nu-și mișcă trunchiul.
09:31
We think liars won't look you in the eyes.
222
556000
3000
Credem că mincinoșii
nu te privesc în ochi.
nu te privesc în ochi.
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
Din contră: se uită prea fix în ochii tăi
tocmai din cauza acestui mit.
tocmai din cauza acestui mit.
09:36
just to compensate for that myth.
224
561000
2000
09:38
We think warmth and smiles
225
563000
2000
Credem că zâmbetul, căldura lui,
transmite sinceritate.
transmite sinceritate.
09:40
convey honesty, sincerity.
226
565000
2000
09:42
But a trained liespotter
227
567000
2000
Dar cineva instruit poate detecta
un zâmbet fals de la un kilometru.
un zâmbet fals de la un kilometru.
09:44
can spot a fake smile a mile away.
228
569000
2000
09:46
Can you all spot the fake smile here?
229
571000
3000
Puteți detecta zâmbetul fals?
09:50
You can consciously contract
230
575000
2000
Îți poți contracta conștient
mușchii obrajilor.
mușchii obrajilor.
09:52
the muscles in your cheeks.
231
577000
3000
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
Dar zâmbetul sincer
se vede în cutele din jurul ochilor.
se vede în cutele din jurul ochilor.
Acei muşchi nu se contractă conştient
mai ales dacă ai prea mult Botox.
mai ales dacă ai prea mult Botox.
09:58
They cannot be consciously contracted,
233
583000
2000
10:00
especially if you overdid the Botox.
234
585000
2000
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
Nu exagerați cu Botoxul:
toți vor crede că mințiți.
toți vor crede că mințiți.
10:05
Now we're going to look at the hot spots.
236
590000
2000
Să analizăm punctele cheie.
10:07
Can you tell what's happening in a conversation?
237
592000
2000
Intuiţi ce se petrece într-o discuție?
Puteți detecta punctele cheie
Puteți detecta punctele cheie
10:09
Can you start to find the hot spots
238
594000
3000
ca să observaţi discrepanţele
dintre cuvinte și gesturi?
dintre cuvinte și gesturi?
10:12
to see the discrepancies
239
597000
2000
10:14
between someone's words and someone's actions?
240
599000
2000
10:16
Now I know it seems really obvious,
241
601000
2000
Știu că pare evident,
10:18
but when you're having a conversation
242
603000
2000
dar când vorbești cu o persoană
pe care o suspectezi că minte,
pe care o suspectezi că minte,
10:20
with someone you suspect of deception,
243
605000
3000
nu-i analizezi atitudinea,
deși ea spune multe.
deși ea spune multe.
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
10:26
An honest person is going to be cooperative.
245
611000
2000
O persoană cinstită va coopera.
Îți va arăta că e de partea ta.
Îți va arăta că e de partea ta.
10:28
They're going to show they're on your side.
246
613000
2000
10:30
They're going to be enthusiastic.
247
615000
2000
Va fi entuziastă, binevoitoare
și te va ajuta să afli adevărul.
și te va ajuta să afli adevărul.
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
Va avea multe sugestii, va numi suspecți,
va furniza detalii.
va furniza detalii.
10:37
provide details.
250
622000
2000
10:39
They're going to say, "Hey,
251
624000
2000
Va spune: „Hei, poate cei de la salarii
au falsificat cecurile.”
au falsificat cecurile.”
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
Se vor înfuria pe tot parcursul discuției
dacă simt că sunt acuzați pe nedrept,
dacă simt că sunt acuzați pe nedrept,
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
nu din când în când.
vor fi înfuriați toată discuția.
vor fi înfuriați toată discuția.
10:52
And if you ask someone honest
256
637000
2000
Dacă întrebi o persoană cinstită
10:54
what should happen to whomever did forge those checks,
257
639000
3000
ce ar trebui să pățească
cel care a falsificat cecurile,
cel care a falsificat cecurile,
10:57
an honest person is much more likely
258
642000
2000
e probabil să recomande
o pedeapsă aspră, nu una blândă.
o pedeapsă aspră, nu una blândă.
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
11:03
Now let's say you're having that exact same conversation
260
648000
2000
Să spunem că ai aceeași discuție
cu o persoană care minte.
cu o persoană care minte.
11:05
with someone deceptive.
261
650000
2000
11:07
That person may be withdrawn,
262
652000
2000
Poate fi mai retrasă, poate privi în jos,
poate să vorbească încet,
poate să vorbească încet,
11:09
look down, lower their voice,
263
654000
2000
11:11
pause, be kind of herky-jerky.
264
656000
2000
să facă pauze, să fie imprevizibilă.
11:13
Ask a deceptive person to tell their story,
265
658000
2000
Cel care minte exagerează cu detaliile
legate de aspecte irelevante.
legate de aspecte irelevante.
11:15
they're going to pepper it with way too much detail
266
660000
3000
11:18
in all kinds of irrelevant places.
267
663000
3000
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
Și îți povestesc tot,
în ordine cronologică.
în ordine cronologică.
11:24
And what a trained interrogator does
269
669000
2000
Un anchetator profesionist
folosește metode subtile
folosește metode subtile
11:26
is they come in and in very subtle ways
270
671000
2000
11:28
over the course of several hours,
271
673000
2000
de-a lungul a câtorva ore,
11:30
they will ask that person to tell that story backwards,
272
675000
3000
cere persoanei să povestească
în ordine cronologică inversă,
în ordine cronologică inversă,
11:33
and then they'll watch them squirm,
273
678000
2000
urmărește cum se agită
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
și identifică întrebările care produc
cele mai multe minciuni.
cele mai multe minciuni.
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
De ce?
Pentru că toți facem același lucru:
Pentru că toți facem același lucru:
11:41
We rehearse our words,
276
686000
2000
pregătim cuvintele,
dar rareori gesturile pe care le facem.
dar rareori gesturile pe care le facem.
11:43
but we rarely rehearse our gestures.
277
688000
2000
11:45
We say "yes," we shake our heads "no."
278
690000
2000
Spunem: „da”,
dăm din cap: „nu”.
dăm din cap: „nu”.
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
Spunem povești convingătoare,
ridicăm ușor umerii.
ridicăm ușor umerii.
11:50
We commit terrible crimes,
280
695000
2000
Comitem infracțiuni groaznice și zâmbim
la gândul că vom scăpa basma curată.
la gândul că vom scăpa basma curată.
11:52
and we smile at the delight in getting away with it.
281
697000
3000
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
Zâmbetul acela, experţii ştiu
că trădează duplicitatea.
că trădează duplicitatea.
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
Îl vom vedea în imaginile următoare,
dar vom începe cu John Edwards,
dar vom începe cu John Edwards,
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
12:03
this is presidential candidate John Edwards
285
708000
3000
candidatul la președinție
care a șocat America,
care a șocat America,
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
având un copil în afara căsătoriei.
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
Îl vom vedea vorbind
de testul de paternitate.
de testul de paternitate.
12:12
See now if you can spot him
288
717000
2000
Încercați să observaţi când spune „da”,
dar dă din cap a „nu” şi ridică din umeri.
dar dă din cap a „nu” şi ridică din umeri.
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
12:16
slightly shrugging his shoulders.
290
721000
2000
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
John Edwards: Sunt dispus să fac testul,
știu că acel copil nu poate fi al meu,
știu că acel copil nu poate fi al meu,
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
12:23
because of the timing of events.
293
728000
2000
din cronologia evenimentelor.
Deci, știu că e imposibil.
Deci, știu că e imposibil.
12:25
So I know it's not possible.
294
730000
2000
12:27
Happy to take a paternity test,
295
732000
2000
Sunt gata să fac testul de paternitate.
Abia aştept.
Abia aştept.
12:29
and would love to see it happen.
296
734000
2000
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
Reporter: Îl veți face în curând?
Mai e cineva implicat...
Mai e cineva implicat...
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
JE: Eu sunt singurul testat,
dar sunt dispus să-l fac.
dar sunt dispus să-l fac.
12:37
But I'm happy to participate in one.
299
742000
3000
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
PM: Clătinările capului
sunt uşor de observat când știi ce cauți.
sunt uşor de observat când știi ce cauți.
12:42
once you know to look for them.
301
747000
2000
12:44
There're going to be times
302
749000
2000
Uneori persoana expune o anumită mină
12:46
when someone makes one expression
303
751000
2000
în timp ce maschează o alta
ce transpare pentru o secundă.
ce transpare pentru o secundă.
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
12:52
Murderers are known to leak sadness.
305
757000
2000
Se știe că ucigașiilor
le scapă o mină de tristețe.
le scapă o mină de tristețe.
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
Noul partener de afaceri îți strânge mâna,
sărbătorește, cinează cu tine,
sărbătorește, cinează cu tine,
12:56
celebrate, go out to dinner with you
307
761000
2000
12:58
and then leak an expression of anger.
308
763000
3000
dar apoi scapă o mină de furie.
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
Nu vom deveni experți în mimică
peste noapte,
peste noapte,
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
dar vă arăt o mină foarte periculoasă,
ușor de învățat, mina de dispreț.
ușor de învățat, mina de dispreț.
13:07
and that's the expression of contempt.
311
772000
3000
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
Când e vorba de furie,
doi oameni joacă de la egal la egal.
doi oameni joacă de la egal la egal.
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
E oarecum o relație sănătoasă.
13:15
But when anger turns to contempt,
314
780000
2000
Dar când furia devine dispreț,
ești exclus.
ești exclus.
13:17
you've been dismissed.
315
782000
2000
13:19
It's associated with moral superiority.
316
784000
2000
Disprețul e asociat
cu superioritatea morală,
cu superioritatea morală,
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
de aceea e foarte greu să îți revii.
Iată cum arată disprețul.
Iată cum arată disprețul.
13:24
Here's what it looks like.
318
789000
2000
13:26
It's marked by one lip corner
319
791000
2000
Colțul unei buze e ridicat
și tras spre interior.
și tras spre interior.
13:28
pulled up and in.
320
793000
2000
13:30
It's the only asymmetrical expression.
321
795000
3000
E singura expresie asimetrică.
13:33
And in the presence of contempt,
322
798000
2000
Când apare disprețul,
fie urmează minciuna,
fie urmează minciuna,
13:35
whether or not deception follows --
323
800000
2000
13:37
and it doesn't always follow --
324
802000
2000
dar nu întotdeauna.
13:39
look the other way, go the other direction,
325
804000
2000
Fie te uiţi în altă parte,
mergi în cealaltă direcție,
mergi în cealaltă direcție,
13:41
reconsider the deal,
326
806000
2000
refaci înțelegerea
sau spui „Nu, mulțumesc.
sau spui „Nu, mulțumesc.
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
Nu merg ca să am de unde veni.
Mulţumesc.”
Mulţumesc.”
13:47
Science has surfaced
328
812000
2000
Știința a descoperit
mulţi alți indicatori.
mulţi alți indicatori.
13:49
many, many more indicators.
329
814000
2000
13:51
We know, for example,
330
816000
2000
Știm că mincinoșii
își modifică frecvența de clipire,
își modifică frecvența de clipire,
13:53
we know liars will shift their blink rate,
331
818000
2000
13:55
point their feet towards an exit.
332
820000
2000
își orientează picioarele spre ieșire.
13:57
They will take barrier objects
333
822000
2000
Folosesc obiecte ca barieră
între ei și cel cu care discută.
între ei și cel cu care discută.
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
14:02
They'll alter their vocal tone,
335
827000
2000
Își modifică vocea,
adesea coboarând tonalitatea.
adesea coboarând tonalitatea.
14:04
often making their vocal tone much lower.
336
829000
3000
14:07
Now here's the deal.
337
832000
2000
Uitați cum stau lucrurile:
14:09
These behaviors are just behaviors.
338
834000
3000
Aceste comportamente
sunt doar comportamente.
sunt doar comportamente.
14:12
They're not proof of deception.
339
837000
2000
Nu sunt dovada minciunii.
Sunt semnale de alarmă.
Sunt semnale de alarmă.
14:14
They're red flags.
340
839000
2000
14:16
We're human beings.
341
841000
2000
Suntem oameni: mereu
facem gesturi largi, înșelătoare.
facem gesturi largi, înșelătoare.
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
14:21
They don't mean anything in and of themselves.
343
846000
2000
Ele în sine nu înseamnă nimic.
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
Dar când se adună, atunci fii atent:
privește, ascultă, testează,
privește, ascultă, testează,
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
pune întrebări dificile,
ieși din zona confortabilă,
ieși din zona confortabilă,
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
fii curios, pune întrebări, fii demn,
vorbeşte de la egal cu persoana,
vorbeşte de la egal cu persoana,
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
nu fi ca cei din „Lege și Ordine”
care-și forțează subiecții să se supună.
care-și forțează subiecții să se supună.
14:41
that pummel their subjects into submission.
350
866000
2000
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
Nu fi prea agresiv. Nu merge.
14:46
Now we've talked a little bit
352
871000
2000
Am văzut cum să vorbim
cu o persoană care minte
cu o persoană care minte
14:48
about how to talk to someone who's lying
353
873000
2000
14:50
and how to spot a lie.
354
875000
2000
și cum să detectăm minciuna.
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
Acum vom vedea cum arată adevărul.
14:55
But I'm going to show you two videos,
356
880000
2000
Vă voi arăta două videoclipuri.
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
Două mame: una minte,
cealaltă spune adevărul.
cealaltă spune adevărul.
15:00
And these were surfaced
358
885000
2000
E munca cercetătorului
David Matsumoto, în California.
David Matsumoto, în California.
15:02
by researcher David Matsumoto in California.
359
887000
2000
15:04
And I think they're an excellent example
360
889000
2000
Cred că sunt exemple excelente
despre cum arată adevărul.
despre cum arată adevărul.
15:06
of what the truth looks like.
361
891000
2000
15:08
This mother, Diane Downs,
362
893000
2000
Această mamă – Diane Downs –
și-a împușcat copiii de aproape,
și-a împușcat copiii de aproape,
15:10
shot her kids at close range,
363
895000
2000
15:12
drove them to the hospital
364
897000
2000
i-a dus cu mașina la spital,
în timp ce sângerau în mașină,
în timp ce sângerau în mașină,
15:14
while they bled all over the car,
365
899000
2000
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
pretinzând că un necunoscut jigărit
i-a împușcat.
i-a împușcat.
15:18
And you'll see when you see the video,
367
903000
2000
Veți vedea că nici nu se poate preface
că suferă.
că suferă.
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
15:22
What you want to look for here
369
907000
2000
Observaţi discrepanța incredibilă
15:24
is an incredible discrepancy
370
909000
2000
dintre întâmplările tragice
pe care le descrie și atitudinea ei rece.
pe care le descrie și atitudinea ei rece.
15:26
between horrific events that she describes
371
911000
2000
15:28
and her very, very cool demeanor.
372
913000
2000
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
Fiţi atenți și cum se trădează
prin zâmbetul duplicitar.
prin zâmbetul duplicitar.
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
Diane Downs: „Noaptea, când închid ochii,
o văd pe Christie întinzând mâinile
o văd pe Christie întinzând mâinile
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
spre mine când conduc
iar sângele șiroiește din gura ei.
iar sângele șiroiește din gura ei.
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
Poate că asta va trece cu timpul,
dar nu cred. Ăsta e coşmarul meu.”
dar nu cred. Ăsta e coşmarul meu.”
15:43
but I don't think so.
378
928000
2000
15:45
That bothers me the most.
379
930000
3000
15:55
PM: Now I'm going to show you a video
380
940000
2000
PM: Acum vă voi arăta un clip
al unei mame sincer îndurerate,
al unei mame sincer îndurerate,
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
Erin Runnion, înfruntându-l la tribunal
pe cel care i-a torturat și ucis fiica.
pe cel care i-a torturat și ucis fiica.
16:03
Here you're going to see no false emotion,
383
948000
2000
Nu veți vedea emoții false,
16:05
just the authentic expression of a mother's agony.
384
950000
3000
doar expresia autentică
a agoniei unei mame.
a agoniei unei mame.
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
Erin Runnion: „Am scris declarația asta
la trei ani după ce mi-ai răpit copila,
la trei ani după ce mi-ai răpit copila,
16:10
of the night you took my baby,
386
955000
2000
16:12
and you hurt her,
387
957000
2000
ai făcut-o să sufere și ai zdrobit-o,
16:14
and you crushed her,
388
959000
2000
16:16
you terrified her until her heart stopped.
389
961000
4000
ai înfricoșat-o
până când i s-a oprit inimioara.
până când i s-a oprit inimioara.
16:20
And she fought, and I know she fought you.
390
965000
3000
Știu că a opus rezistență.
16:23
But I know she looked at you
391
968000
2000
Dar știu că te-a privit
cu ochișorii ei căprui minunați
cu ochișorii ei căprui minunați
16:25
with those amazing brown eyes,
392
970000
2000
16:27
and you still wanted to kill her.
393
972000
3000
și tu tot ai vrut s-o omori.
16:30
And I don't understand it,
394
975000
2000
Nu înțeleg de ce,
nu voi înțelege niciodată.
nu voi înțelege niciodată.
16:32
and I never will.
395
977000
3000
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
PM: Fără îndoială sunt sentimente sincere.
16:39
Now the technology around what the truth looks like
397
984000
3000
Ştiinţa pentru tehnologia
detectării adevărului evoluează.
detectării adevărului evoluează.
16:42
is progressing on, the science of it.
398
987000
3000
16:45
We know for example
399
990000
2000
De exemplu, acum avem aparate
ce urmăresc mișcarea ochilor,
ce urmăresc mișcarea ochilor,
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
scanere cerebrale cu infraroşii
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
RMN-uri care detectează semnalele
corpului când încercăm să mințim.
corpului când încercăm să mințim.
16:53
when we're trying to be deceptive.
402
998000
2000
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
Aceste tehnologii vor fi de vânzare
ca remedii pentru minciună
ca remedii pentru minciună
16:58
as panaceas for deceit,
404
1003000
2000
17:00
and they will prove incredibly useful some day.
405
1005000
3000
și într-o bună zi
se vor dovedi foarte utile.
se vor dovedi foarte utile.
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
Dar între timp ar trebui să vă întrebați
pe cine vreți de partea voastră:
pe cine vreți de partea voastră:
17:05
Who do you want on your side of the meeting,
407
1010000
2000
17:07
someone who's trained in getting to the truth
408
1012000
3000
pe cineva instruit să afle adevărul
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
sau pe unul care intră pe uşă
cu un encefalograf de 180 kg?
cu un encefalograf de 180 kg?
17:12
through the door?
410
1017000
2000
17:14
Liespotters rely on human tools.
411
1019000
4000
Cei care detectează minciuni
se bazează pe instrumente umane.
se bazează pe instrumente umane.
17:18
They know, as someone once said,
412
1023000
2000
Ei știu să vadă, cum spunea cineva,
cine eşti în întuneric.
cine eşti în întuneric.
17:20
"Character's who you are in the dark."
413
1025000
2000
17:22
And what's kind of interesting
414
1027000
2000
Interesant e că azi
întunericul aproape lipsește.
întunericul aproape lipsește.
17:24
is that today we have so little darkness.
415
1029000
2000
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
Lumea noastră e luminată 24 de ore.
E transparentă.
E transparentă.
17:29
It's transparent
417
1034000
2000
17:31
with blogs and social networks
418
1036000
2000
Cu bloguri și rețele sociale
în care zumzăie o generație nouă
în care zumzăie o generație nouă
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
17:35
that have made a choice to live their lives in public.
420
1040000
3000
care a decis să-și facă vieța publică,
lumea e mult mai zgomotoasă.
lumea e mult mai zgomotoasă.
17:38
It's a much more noisy world.
421
1043000
4000
17:42
So one challenge we have
422
1047000
2000
Una dintre provocări e să ne amintim
că transparența nu înseamnă sinceritate.
că transparența nu înseamnă sinceritate.
17:44
is to remember,
423
1049000
2000
17:46
oversharing, that's not honesty.
424
1051000
3000
17:49
Our manic tweeting and texting
425
1054000
2000
Trimitem mereu tweeturi și SMS-uri
și asta ne poate face să uităm
și asta ne poate face să uităm
17:51
can blind us to the fact
426
1056000
2000
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
că subtilitățile decenței umane
– caracterul, integritatea –
– caracterul, integritatea –
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
contează și vor conta mereu.
17:59
So in this much noisier world,
429
1064000
2000
În această lume zgomotoasă ar fi bine
18:01
it might make sense for us
430
1066000
2000
să fim un pic mai expliciți
în privința codului nostru moral.
în privința codului nostru moral.
18:03
to be just a little bit more explicit
431
1068000
2000
18:05
about our moral code.
432
1070000
3000
18:08
When you combine the science of recognizing deception
433
1073000
2000
Când combini știința de a detecta minciuna
cu arta observaţiei, a ascultării,
cu arta observaţiei, a ascultării,
18:10
with the art of looking, listening,
434
1075000
2000
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
te scuteşti să iei parte la minciună.
18:15
You start up that path
436
1080000
2000
Pornești pe un drum
pe care ești un pic mai explicit
pe care ești un pic mai explicit
18:17
of being just a little bit more explicit,
437
1082000
2000
18:19
because you signal to everyone around you,
438
1084000
2000
pentru că transmiţi celor din jur:
18:21
you say, "Hey, my world, our world,
439
1086000
3000
Hei, lumea mea, lumea noastră,
va fi o lume sinceră.
va fi o lume sinceră.
18:24
it's going to be an honest one.
440
1089000
2000
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
În lumea mea, adevărul va fi prețuit,
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
iar falsitatea
identificată și marginalizată.”
identificată și marginalizată.”
18:31
And when you do that,
443
1096000
2000
Când faci asta, lumea din jur
începe să se schimbe ușor.
începe să se schimbe ușor.
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
18:36
And that's the truth. Thank you.
445
1101000
3000
Ăsta-i adevărul. Mulțumesc.
18:39
(Applause)
446
1104000
5000
(Aplauze)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com