TEDGlobal 2011
Pamela Meyer: How to spot a liar
Pamela Meyer: Como detectar um mentiroso
Filmed:
Readability: 3.8
28,415,176 views
A cada dia que passa mentem-nos entre 10 a 200 vezes, e as pistas para detectar essas mentiras podem ser subtis e contra-intuitivas. Pamela Meyer, autora de Liespotting, mostra-nos os meios e os pontos chave usados por aqueles que são treinados para reconhecer o engano -- e argumenta que a sinceridade é um valor que vale a pena preservar.
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
Ora bem, eu não quero alarmar ninguém aqui nesta sala,
00:20
but it's just come to my attention
1
5000
2000
mas chegou ao meu conhecimento
00:22
that the person to your right is a liar.
2
7000
2000
que a pessoa sentada à vossa direita é um mentiroso.
00:24
(Laughter)
3
9000
2000
(Risos)
00:26
Also, the person to your left is a liar.
4
11000
3000
Além disso, a pessoa sentada à vossa esquerda é um mentiroso.
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
Além disso, a pessoa sentada no vosso próprio lugar é um mentiroso.
00:32
We're all liars.
6
17000
2000
Somos todos mentirosos.
00:34
What I'm going to do today
7
19000
2000
O que vou fazer hoje
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
é mostrar-vos o que os estudos dizem sobre por que somos todos mentirosos,
00:39
how you can become a liespotter
9
24000
2000
sobre como podemos tornar-nos detectores de mentiras
00:41
and why you might want to go the extra mile
10
26000
3000
e porque poderemos querer ir mais além
00:44
and go from liespotting to truth seeking,
11
29000
3000
e ir da detecção de mentiras até à procura da verdade,
00:47
and ultimately to trust building.
12
32000
2000
e, em última instância, à construção da confiança.
00:49
Now speaking of trust,
13
34000
3000
Agora, falando de confiança,
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
desde que escrevi este livro, "Liespotting,"
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
nunca mais ninguém me quis conhecer pessoalmente, não, não, não, não, não.
00:58
They say, "It's okay, we'll email you."
16
43000
3000
Dizem, "Tudo bem, mandamos um e-mail."
01:01
(Laughter)
17
46000
2000
(Risos)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
Nem sequer consigo marcar um encontro no Starbucks.
01:07
My husband's like, "Honey, deception?
19
52000
2000
O meu marido diz, "Querida, engano?
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
Talvez pudesses ter-te especializado em culinária. Que tal culinária francesa?"
01:12
So before I get started, what I'm going to do
21
57000
2000
Por isso, antes de começar, o que vou fazer
01:14
is I'm going to clarify my goal for you,
22
59000
3000
é clarificar o meu objectivo junto de vós,
01:17
which is not to teach a game of Gotcha.
23
62000
2000
que não é ensinar um jogo de Apanhei-te.
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
Os apanhadores de mentiras (Liespotters) não são aqueles miúdos picuinhas,
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
aqueles miúdos na última fila da sala de aulas a gritar, "Apanhei-te! Apanhei-te!
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
A tua sobrancelha estremeceu. A tua narina dilatou.
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
Vi aquele programa de TV 'Lie To Me' (Mente-me). Sei que estás a mentir."
01:30
No, liespotters are armed
28
75000
2000
Não, os apanhadores de mentiras estão armados
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
com conhecimento científico sobre como detectar o engano.
01:35
They use it to get to the truth,
30
80000
2000
Usam-no para chegar à verdade,
01:37
and they do what mature leaders do everyday;
31
82000
2000
e fazem o que os líderes maduros fazem todos os dias;
01:39
they have difficult conversations with difficult people,
32
84000
3000
têm conversas difíceis com pessoas difíceis,
01:42
sometimes during very difficult times.
33
87000
2000
por vezes durante tempos muito difíceis.
01:44
And they start up that path
34
89000
2000
E iniciam esse caminho
01:46
by accepting a core proposition,
35
91000
2000
aceitando uma premissa fundamental,
01:48
and that proposition is the following:
36
93000
2000
e essa premissa é a seguinte:
01:50
Lying is a cooperative act.
37
95000
3000
Mentir é um acto cooperativo.
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
Pensem nisso, uma mentira não tem qualquer poder com a sua simples expressão.
01:57
Its power emerges
39
102000
2000
O seu poder emerge
01:59
when someone else agrees to believe the lie.
40
104000
2000
quando outra pessoa concorda em acreditar na mentira.
02:01
So I know it may sound like tough love,
41
106000
2000
Por isso sei que pode soar a amor duro,
02:03
but look, if at some point you got lied to,
42
108000
4000
mas olhem, se a dada altura vos mentem,
02:07
it's because you agreed to get lied to.
43
112000
2000
é porque concordaram que vos mentissem.
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
Verdade número um acerca da mentira: Mentir é um acto cooperativo.
02:12
Now not all lies are harmful.
45
117000
2000
Ora, nem todas as mentiras são prejudiciais.
02:14
Sometimes we're willing participants in deception
46
119000
3000
Às vezes somos participantes voluntários no engano
02:17
for the sake of social dignity,
47
122000
3000
para o bem da dignidade social,
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
talvez para manter um segredo que deve ser mantido secreto, secreto.
02:23
We say, "Nice song."
49
128000
2000
Dizemos, "Bela canção."
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
"Querida, o vestido não te faz parecer gorda, não."
02:28
Or we say, favorite of the digiratti,
51
133000
2000
Ou dizemos, desculpa favorita dos amantes de informática,
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
"Sabes, só agora encontrei esse e-mail na minha pasta de spam.
02:33
So sorry."
53
138000
3000
Desculpa lá."
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
Mas há alturas em que somos participantes involuntários no engano.
02:39
And that can have dramatic costs for us.
55
144000
3000
E isso pode ter custos dramáticos para nós.
02:42
Last year saw 997 billion dollars
56
147000
3000
No ano passado houve 997 mil milhões de dólares
02:45
in corporate fraud alone in the United States.
57
150000
4000
em fraude empresarial só nos Estados Unidos.
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
É uma migalha menos que um bilião de dólares.
02:51
That's seven percent of revenues.
59
156000
2000
São sete por cento das receitas.
02:53
Deception can cost billions.
60
158000
2000
O engano pode custar biliões.
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
Pensem na Enron, no Madoff, na crise das hipotecas.
02:58
Or in the case of double agents and traitors,
62
163000
3000
Ou nos casos dos agentes duplos e dos traidores,
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
como Robert Hanssen ou Aldrich Ames,
03:03
lies can betray our country,
64
168000
2000
as mentiras podem trair o nosso país,
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
podem comprometer a nossa segurança, podem sabotar a democracia,
03:08
they can cause the deaths of those that defend us.
66
173000
3000
podem causar a morte daqueles que nos defendem.
03:11
Deception is actually serious business.
67
176000
3000
O engano é na verdade um assunto sério.
03:14
This con man, Henry Oberlander,
68
179000
2000
Este burlão, Henry Oberlander,
03:16
he was such an effective con man
69
181000
2000
era um burlão tão eficiente
03:18
British authorities say
70
183000
2000
que as autoridades britânicas dizem
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
que ele pode ter sabotado todo o sistema bancário do mundo ocidental.
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
E vocês não conseguem encontrar este tipo no Google; não conseguem encontrá-lo em lado nenhum.
03:25
He was interviewed once, and he said the following.
73
190000
3000
Foi entrevistado uma vez, e disse o seguinte.
03:28
He said, "Look, I've got one rule."
74
193000
2000
Disse: "Olhem, tenho uma regra."
03:30
And this was Henry's rule, he said,
75
195000
3000
E esta era a regra de Henry, disse ele:
03:33
"Look, everyone is willing to give you something.
76
198000
2000
"Olhem, toda a gente está disposta a dar-nos algo.
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
Estão prontas a dar-nos algo em troca daquilo por que estão sedentas, seja isso o que for."
03:38
And that's the crux of it.
78
203000
2000
E é esse o busílis, o ponto essencial.
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
Se não querem ser enganados, têm de saber,
03:42
what is it that you're hungry for?
80
207000
2000
de que é que estão sedentos?
03:44
And we all kind of hate to admit it.
81
209000
3000
E todos nós, de alguma forma, detestamos admiti-lo.
03:47
We wish we were better husbands, better wives,
82
212000
3000
Gostaríamos de ser melhores maridos, melhores esposas,
03:50
smarter, more powerful,
83
215000
2000
mais espertos, mais poderosos,
03:52
taller, richer --
84
217000
2000
mais altos, mais ricos --
03:54
the list goes on.
85
219000
2000
a lista continua.
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
Mentir é uma tentativa para colmatar essa lacuna,
03:58
to connect our wishes and our fantasies
87
223000
2000
para ligar os nossos desejos e as nossas fantasias
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
acerca de quem desejamos ser, como desejamos ser,
04:03
with what we're really like.
89
228000
3000
com o que realmente somos.
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
E estamos mesmo dispostos a preencher essas lacunas das nossas vidas com mentiras.
04:09
On a given day, studies show that you may be lied to
91
234000
3000
A cada dia que passa, os estudos mostram que podem mentir-nos
04:12
anywhere from 10 to 200 times.
92
237000
2000
desde 10 a 200 vezes.
04:14
Now granted, many of those are white lies.
93
239000
3000
É garantido, muitas delas são mentiras inofensivas.
04:17
But in another study,
94
242000
2000
Mas noutro estudo
04:19
it showed that strangers lied three times
95
244000
2000
é mostrado que os estranhos mentem três vezes mais
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
nos primeiros 10 minutos após se conhecerem.
04:23
(Laughter)
97
248000
2000
(Risos)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
Ora, quando escutamos estes dados pela primeira vez, recuamos.
04:28
We can't believe how prevalent lying is.
99
253000
2000
Não conseguimos acreditar quão prevalente é a mentira.
04:30
We're essentially against lying.
100
255000
2000
Somos fundamentalmente contra a mentira.
04:32
But if you look more closely,
101
257000
2000
Mas se olharmos mais atentamente,
04:34
the plot actually thickens.
102
259000
2000
na verdade, o enredo complica-se.
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
Mentimos mais a desconhecidos do que a colegas de trabalho.
04:39
Extroverts lie more than introverts.
104
264000
4000
Os extrovertidos mentem mais do que os introvertidos.
04:43
Men lie eight times more about themselves
105
268000
3000
Os homens mentem oito vezes mais acerca deles próprios
04:46
than they do other people.
106
271000
2000
do que acerca de outras pessoas.
04:48
Women lie more to protect other people.
107
273000
3000
As mulheres mentem mais para proteger outras pessoas.
04:51
If you're an average married couple,
108
276000
3000
No perfil médio das pessoas casadas,
04:54
you're going to lie to your spouse
109
279000
2000
mente-se ao cônjuge
04:56
in one out of every 10 interactions.
110
281000
2000
em uma de cada 10 interacções.
04:58
Now you may think that's bad.
111
283000
2000
Ora, podem pensar que isso é mau.
05:00
If you're unmarried, that number drops to three.
112
285000
2000
Se não forem casados, o número desce para três.
05:02
Lying's complex.
113
287000
2000
A mentira é complexa.
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
Está misturada no tecido das nossas vidas quotidianas e profissionais.
05:07
We're deeply ambivalent about the truth.
115
292000
2000
Somos profundamente ambivalentes acerca da verdade.
05:09
We parse it out on an as-needed basis,
116
294000
2000
Analisamo-la sintacticamente quando precisamos,
05:11
sometimes for very good reasons,
117
296000
2000
às vezes por razões muito boas,
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
outras vezes simplesmente porque não entendemos as lacunas nas nossas vidas.
05:16
That's truth number two about lying.
119
301000
2000
É a verdade número dois acerca da mentira.
05:18
We're against lying,
120
303000
2000
Somos contra a mentira,
05:20
but we're covertly for it
121
305000
2000
mas somos, secretamente, a seu favor
05:22
in ways that our society has sanctioned
122
307000
2000
em formas que a nossa sociedade sancionou
05:24
for centuries and centuries and centuries.
123
309000
2000
durante séculos e séculos e séculos.
05:26
It's as old as breathing.
124
311000
2000
É tão antigo como o respirar.
05:28
It's part of our culture, it's part of our history.
125
313000
2000
Faz parte da nossa cultura, faz parte da nossa história.
05:30
Think Dante, Shakespeare,
126
315000
3000
Pensem em Dante, em Shakespeare,
05:33
the Bible, News of the World.
127
318000
3000
na Bíblia, no News of the World.
05:36
(Laughter)
128
321000
2000
(Risos)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
Mentir tem valor evolucionário para nós enquanto espécie.
05:40
Researchers have long known
130
325000
2000
Os investigadores sabem há muito tempo
05:42
that the more intelligent the species,
131
327000
2000
que quanto mais inteligente é a espécie,
05:44
the larger the neocortex,
132
329000
2000
quanto maior é o neocórtex,
05:46
the more likely it is to be deceptive.
133
331000
2000
maior é a probabilidade de a espécie ser enganadora.
05:48
Now you might remember Koko.
134
333000
2000
Talvez se lembrem de Koko.
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
Alguém se lembra do gorila Koko a quem foi ensinada a língua gestual?
05:53
Koko was taught to communicate via sign language.
136
338000
3000
Koko aprendeu a comunicar com a língua gestual.
05:56
Here's Koko with her kitten.
137
341000
2000
Aqui está a Koko com o seu gatinho.
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
É o seu lindo gatinho, o seu gatinho fofinho de estimação.
06:01
Koko once blamed her pet kitten
139
346000
2000
Koko uma vez culpou o seu gatinho
06:03
for ripping a sink out of the wall.
140
348000
2000
por arrancar um lavatório da parede.
06:05
(Laughter)
141
350000
2000
(Risos)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
Estamos programados para nos tornarmos líderes do grupo.
06:09
It's starts really, really early.
143
354000
2000
Começa mesmo muito, muito cedo.
06:11
How early?
144
356000
2000
Quão cedo?
06:13
Well babies will fake a cry,
145
358000
2000
Bem, os bebés fingem o choro,
06:15
pause, wait to see who's coming
146
360000
2000
param, esperam para ver quem vem
06:17
and then go right back to crying.
147
362000
2000
e depois voltam a chorar.
06:19
One-year-olds learn concealment.
148
364000
2000
Os bebés de um ano aprendem a dissimulação.
06:21
(Laughter)
149
366000
2000
(Risos)
06:23
Two-year-olds bluff.
150
368000
2000
Os de dois anos aprendem o bluff.
06:25
Five-year-olds lie outright.
151
370000
2000
Os de cinco anos a mentira descarada.
06:27
They manipulate via flattery.
152
372000
2000
Manipulam através do elogio.
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
Os de nove anos, são mestres do encobrimento.
06:32
By the time you enter college,
154
377000
2000
Pela altura em que se entra na universidade,
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
iremos mentir à nossa mãe uma vez em cada cinco interacções.
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
Pela altura em que entramos neste mercado de trabalho e somos chefes de família,
06:40
we enter a world that is just cluttered
157
385000
2000
entramos num mundo que está simplesmente atulhado
06:42
with spam, fake digital friends,
158
387000
2000
de spam, falsos amigos digitais,
06:44
partisan media,
159
389000
2000
media parciais,
06:46
ingenious identity thieves,
160
391000
2000
engenhosos ladrões de identidades,
06:48
world-class Ponzi schemers,
161
393000
2000
burlões do esquema Ponzi de classe mundial,
06:50
a deception epidemic --
162
395000
2000
uma epidemia de engano --
06:52
in short, what one author calls
163
397000
2000
em resumo, o que um autor chama
06:54
a post-truth society.
164
399000
3000
uma sociedade pós-verdade.
06:57
It's been very confusing
165
402000
2000
Tem sido muito confuso
06:59
for a long time now.
166
404000
3000
durante muito tempo.
07:03
What do you do?
167
408000
2000
O que é que se faz?
07:05
Well there are steps we can take
168
410000
2000
Bem, há medidas que podemos tomar
07:07
to navigate our way through the morass.
169
412000
2000
para navegar através do pântano.
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
Os apanhadores de mentiras experientes chegam à verdade 90% das vezes.
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
Os restantes só acertamos 54% das vezes.
07:15
Why is it so easy to learn?
172
420000
2000
Porque é que é tão fácil de aprender?
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
Há bons mentirosos e há maus mentirosos. Não há verdadeiros mentirosos originais.
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
Todos cometemos os mesmos erros. Todos usamos as mesmas técnicas.
07:23
So what I'm going to do
175
428000
2000
Por isso, o que vou fazer
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
é mostrar-vos dois padrões de engano.
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
E a seguir vamos olhar para os pontos-chave e ver se conseguimos encontrá-los sozinhos.
07:30
We're going to start with speech.
178
435000
3000
Vamos começar pelo discurso.
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
(Vídeo) Bill Clinton: "Quero que me escutem.
07:35
I'm going to say this again.
180
440000
2000
Vou dizê-lo de novo.
07:37
I did not have sexual relations
181
442000
3000
Não tive relações sexuais
07:40
with that woman, Miss Lewinsky.
182
445000
4000
com aquela mulher, a senhora Lewinsky.
07:44
I never told anybody to lie,
183
449000
2000
Nunca disse a ninguém para mentir,
07:46
not a single time, never.
184
451000
2000
nem uma única vez, nunca.
07:48
And these allegations are false.
185
453000
3000
E estas alegações são falsas.
07:51
And I need to go back to work for the American people.
186
456000
2000
E preciso de regressar ao trabalho pelo povo americano.
07:53
Thank you.
187
458000
2000
Obrigado."
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
Pamela Meyer: Ok, onde estão os sinais denunciadores?
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
Bem, primeiro ouvimos o que é conhecido como uma negação não-contraída.
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
Estudos mostram que as pessoas com uma determinação acima da média na sua negação
08:08
will resort to formal rather than informal language.
191
473000
3000
irão recorrer a linguagem formal em vez de linguagem informal.
08:11
We also heard distancing language: "that woman."
192
476000
3000
Também ouvimos linguagem de distanciamento: "aquela mulher."
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
Sabemos que os mentirosos inconscientemente irão distanciar-se
08:16
from their subject
194
481000
2000
do seu assunto
08:18
using language as their tool.
195
483000
3000
usando a linguagem como ferramenta.
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
Ora se Bill Clinton tivesse dito, "Bem, para dizer a verdade..."
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
ou a favorita do Richard Nixon, "Com toda a candura..."
08:26
he would have been a dead giveaway
198
491000
2000
teria sido de caras um indicador
08:28
for any liespotter than knows
199
493000
2000
para qualquer apanhar de mentiras que sabe
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
que a linguagem qualificativa, como é chamada, linguagem qualificativa como essa,
08:33
further discredits the subject.
201
498000
2000
descredibiliza ainda mais o sujeito.
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
Ora, se ele tivesse repetido a questão na sua totalidade,
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
ou se ele tivesse temperado o seu relato com demasiados detalhes --
08:42
and we're all really glad he didn't do that --
204
507000
2000
e estamos todos muito gratos que não o tenha feito --
08:44
he would have further discredited himself.
205
509000
2000
ter-se-ia descredibilizado ainda mais.
08:46
Freud had it right.
206
511000
2000
Freud tinha razão.
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
Freud disse, olhem, há muito mais para além do discurso:
08:51
"No mortal can keep a secret.
208
516000
3000
"Nenhum mortal consegue manter um segredo.
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
Se os seus lábios estão silenciosos, ele palra com as pontas dos dedos."
08:57
And we all do it no matter how powerful you are.
210
522000
3000
E todos o fazemos, não importa quão poderosos somos.
09:00
We all chatter with our fingertips.
211
525000
2000
Todos palramos com as pontas dos nossos dedos.
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
Vou mostrar-vos Dominique Strauss-Kahn com Obama
09:05
who's chattering with his fingertips.
213
530000
3000
palrando com as pontas dos dedos.
09:08
(Laughter)
214
533000
3000
(Risos)
09:11
Now this brings us to our next pattern,
215
536000
3000
Isto traz-nos ao nosso próximo padrão,
09:14
which is body language.
216
539000
3000
que é a linguagem corporal.
09:17
With body language, here's what you've got to do.
217
542000
3000
Com a linguagem corporal, eis o que temos de fazer.
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
Na verdade, temos simplesmente de deitar fora os nossos pressupostos.
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
Deixem a ciência temperar um pouco o vosso conhecimento.
09:25
Because we think liars fidget all the time.
220
550000
3000
Porque pensamos que os mentirosos estão constantemente irrequietos.
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
Pois bem, são conhecidos por paralisar a parte superior do corpo quando estão a mentir.
09:31
We think liars won't look you in the eyes.
222
556000
3000
Pensamos que os mentirosos não nos olham nos olhos.
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
Pois bem, eles olham-nos nos olhos um pouco demais
09:36
just to compensate for that myth.
224
561000
2000
para poderem compensar esse mito.
09:38
We think warmth and smiles
225
563000
2000
Pensamos que cordialidade e sorrisos
09:40
convey honesty, sincerity.
226
565000
2000
transmitem honestidade, sinceridade.
09:42
But a trained liespotter
227
567000
2000
Mas um apanhador de mentiras experiente
09:44
can spot a fake smile a mile away.
228
569000
2000
consegue detectar um sorriso falso a um quilómetro de distância.
09:46
Can you all spot the fake smile here?
229
571000
3000
Aqui, conseguem todos detectar um sorriso falso?
09:50
You can consciously contract
230
575000
2000
Conseguimos contrair conscientemente
09:52
the muscles in your cheeks.
231
577000
3000
os músculos das bochechas.
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
Mas o sorriso real é nos olhos, nos pés de galinha dos olhos.
09:58
They cannot be consciously contracted,
233
583000
2000
Não é possível contraí-los conscientemente,
10:00
especially if you overdid the Botox.
234
585000
2000
especialmente se exageraram no Botox.
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
Não exagerem no Botox; ninguém vai acreditar que são honestos.
10:05
Now we're going to look at the hot spots.
236
590000
2000
Agora vamos observar os pontos-chave.
10:07
Can you tell what's happening in a conversation?
237
592000
2000
Conseguem ver o que está a acontecer numa conversa?
10:09
Can you start to find the hot spots
238
594000
3000
Conseguem começar a descobrir os pontos-chave
10:12
to see the discrepancies
239
597000
2000
para ver as discrepâncias
10:14
between someone's words and someone's actions?
240
599000
2000
entre as palavras de alguém e as suas acções?
10:16
Now I know it seems really obvious,
241
601000
2000
Eu sei que parece muito óbvio,
10:18
but when you're having a conversation
242
603000
2000
mas quando estamos a ter uma conversa
10:20
with someone you suspect of deception,
243
605000
3000
com alguém que suspeitamos estar a enganar-nos,
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
a atitude é, de longe, o indicador mais negligenciado e, no entanto, mais revelador.
10:26
An honest person is going to be cooperative.
245
611000
2000
Uma pessoa honesta será cooperativa.
10:28
They're going to show they're on your side.
246
613000
2000
Irá mostrar que está do vosso lado.
10:30
They're going to be enthusiastic.
247
615000
2000
Será entusiástica.
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
Será prestável e estará disposta a fazer-vos chegar à verdade.
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
Irão estar dispostos a fazer brainstorm, nomear suspeitos,
10:37
provide details.
250
622000
2000
fornecer detalhes.
10:39
They're going to say, "Hey,
251
624000
2000
Irão dizer, "Olhe,
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
talvez tenham sido aqueles tipos nos pagamentos que falsificaram os cheques."
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
Irão ficar furiosos se sentirem que foram acusados injustamente
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
no decurso de toda a entrevista, não apenas em alguns momentos,
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
irão ficar furiosos durante toda a entrevista.
10:52
And if you ask someone honest
256
637000
2000
E se perguntarem a alguém honesto
10:54
what should happen to whomever did forge those checks,
257
639000
3000
o que deve acontecer a alguém que falsificou os cheques,
10:57
an honest person is much more likely
258
642000
2000
uma pessoa honesta mais provavelmente
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
recomenda uma punição severa do que uma punição leve.
11:03
Now let's say you're having that exact same conversation
260
648000
2000
Agora imaginemos que estão a ter exactamente a mesma conversa
11:05
with someone deceptive.
261
650000
2000
com alguém enganoso.
11:07
That person may be withdrawn,
262
652000
2000
Essa pessoa pode ser esquiva,
11:09
look down, lower their voice,
263
654000
2000
olhar para baixo, baixar a voz,
11:11
pause, be kind of herky-jerky.
264
656000
2000
fazer pausas, ser imprevisível.
11:13
Ask a deceptive person to tell their story,
265
658000
2000
Peçam a uma pessoa enganosa para contar a sua história,
11:15
they're going to pepper it with way too much detail
266
660000
3000
e ela vai temperá-la com demasiados detalhes
11:18
in all kinds of irrelevant places.
267
663000
3000
em todos os momentos mais irrelevantes.
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
E vai ainda contar a sua história em ordem cronológica estricta.
11:24
And what a trained interrogator does
269
669000
2000
E o que um interrogador experiente faz
11:26
is they come in and in very subtle ways
270
671000
2000
é fazer a abordagem de forma subtil
11:28
over the course of several hours,
271
673000
2000
ao longo de várias horas
11:30
they will ask that person to tell that story backwards,
272
675000
3000
irão pedir a essa pessoa para contar a sua história de trás para a frente,
11:33
and then they'll watch them squirm,
273
678000
2000
e depois ficam a vê-los a espernear,
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
e identificar que perguntas produzem o maior volume de indicadores de engano.
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
Porque é que eles fazem isso? Bem, todos nós fazemos a mesma coisa.
11:41
We rehearse our words,
276
686000
2000
Ensaiamos as nossas palavras,
11:43
but we rarely rehearse our gestures.
277
688000
2000
mas raramente ensaiamos os nossos gestos.
11:45
We say "yes," we shake our heads "no."
278
690000
2000
Dizemos "sim", abanamos a cabeça "não".
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
Contamos histórias muito convincentes, abanamos ligeiramente os ombros.
11:50
We commit terrible crimes,
280
695000
2000
Cometemos crimes terríveis,
11:52
and we smile at the delight in getting away with it.
281
697000
3000
e sorrimos perante o prazer de sairmos impunes.
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
Ora este sorriso é conhecido no nosso ofício como o "deleite da engano".
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
E vamos vê-lo em vários vídeos mais à frente,
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
mas vamos começar -- para aqueles que não o conhecem,
12:03
this is presidential candidate John Edwards
285
708000
3000
este é o candidato presidencial John Edwards
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
que chocou a América ao assumir a paternidade de um filho fora do casamento.
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
Vamos ouvi-lo a falar sobre fazer um teste de paternidade.
12:12
See now if you can spot him
288
717000
2000
Vejam se conseguem detectar
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
quando diz, "sim" ao mesmo tempo que abana a cabeça "não",
12:16
slightly shrugging his shoulders.
290
721000
2000
ligeiramente encolhendo os ombros.
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
(Vídeo) John Edwards: Tenho todo o prazer em participar num [teste].
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
Sei que não é possível que esta criança seja minha,
12:23
because of the timing of events.
293
728000
2000
por causa da altura em que aconteceram os eventos.
12:25
So I know it's not possible.
294
730000
2000
Por isso sei que não é possível.
12:27
Happy to take a paternity test,
295
732000
2000
Todo o gosto em fazer um teste de paternidade,
12:29
and would love to see it happen.
296
734000
2000
e gostaria muito de vê-lo acontecer.
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
Entrevistador: Irá fazê-lo em breve? Há alguém --
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
JE: Bem, sou apenas uma das partes. Sou apenas uma das partes do teste.
12:37
But I'm happy to participate in one.
299
742000
3000
Mas tenho todo o gosto em participar.
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
PM: Ok, aqueles abanares de cabeça são muito mais fáceis de detectar
12:42
once you know to look for them.
301
747000
2000
assim que sabemos procurar por eles.
12:44
There're going to be times
302
749000
2000
Vai haver alturas
12:46
when someone makes one expression
303
751000
2000
em que alguém faz uma expressão
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
ao mesmo tempo que mascara outra que escapa num instante.
12:52
Murderers are known to leak sadness.
305
757000
2000
Os assassinos são conhecidos por deixarem escapar tristeza.
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
O vosso novo parceiro de negócios de risco pode dar-vos um aperto de mão,
12:56
celebrate, go out to dinner with you
307
761000
2000
celebrar, ir jantar convosco
12:58
and then leak an expression of anger.
308
763000
3000
e depois deixar escapar uma expressão de raiva.
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
E não vamos todos tornar-nos peritos em expressões faciais de um dia para o outro,
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
mas há uma que posso ensinar que é muito perigosa, e é fácil de aprender,
13:07
and that's the expression of contempt.
311
772000
3000
e que é a expressão de desprezo.
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
Com a raiva, temos duas pessoas num plano de jogo equilibrado.
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
Ainda é de certa forma uma relação saudável.
13:15
But when anger turns to contempt,
314
780000
2000
Mas quando a raiva se transforma em desprezo,
13:17
you've been dismissed.
315
782000
2000
é porque foram rejeitados.
13:19
It's associated with moral superiority.
316
784000
2000
Está associada à superioridade moral.
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
E por essa razão, é muito, muito difícil de recuperar dela.
13:24
Here's what it looks like.
318
789000
2000
É este o seu aspecto.
13:26
It's marked by one lip corner
319
791000
2000
É marcada por um canto do lábio
13:28
pulled up and in.
320
793000
2000
puxado para cima e para dentro.
13:30
It's the only asymmetrical expression.
321
795000
3000
É a única expressão assimétrica.
13:33
And in the presence of contempt,
322
798000
2000
E quando na presença de desprezo,
13:35
whether or not deception follows --
323
800000
2000
quer se siga ou não o engano --
13:37
and it doesn't always follow --
324
802000
2000
e isso nem sempre acontece --
13:39
look the other way, go the other direction,
325
804000
2000
olhem para o outro lado, sigam noutro sentido,
13:41
reconsider the deal,
326
806000
2000
pensem de novo no negócio,
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
digam, "Não, obrigado. Não vou aparecer só para mais uma bebida. Obrigado".
13:47
Science has surfaced
328
812000
2000
A ciência trouxe à superfície
13:49
many, many more indicators.
329
814000
2000
muitos, muitos mais indicadores.
13:51
We know, for example,
330
816000
2000
Sabemos, por exemplo,
13:53
we know liars will shift their blink rate,
331
818000
2000
que os mentirosos mudam o ritmo com que piscam os olhos,
13:55
point their feet towards an exit.
332
820000
2000
apontam os pés na direcção da saída.
13:57
They will take barrier objects
333
822000
2000
Que usam objectos barreira
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
e os colocam entre eles e a pessoa que os está a entrevistar.
14:02
They'll alter their vocal tone,
335
827000
2000
Que alteram o tom de voz,
14:04
often making their vocal tone much lower.
336
829000
3000
muitas vezes fazendo o seu tom de voz muito mais grave.
14:07
Now here's the deal.
337
832000
2000
Ora bem, isto agora é importante.
14:09
These behaviors are just behaviors.
338
834000
3000
Estes comportamentos são apenas comportamentos.
14:12
They're not proof of deception.
339
837000
2000
Não são prova de engano.
14:14
They're red flags.
340
839000
2000
São bandeiras vermelhas.
14:16
We're human beings.
341
841000
2000
Somos seres humanos.
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
Fazemos gestos de engano por todo o lado durante todo o dia.
14:21
They don't mean anything in and of themselves.
343
846000
2000
Eles não significam nada em si mesmos.
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
Mas quando vemos grupos desses gestos, é esse o nosso sinal.
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
Observem, escutem, sondem, façam algumas perguntas difíceis,
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
saiam desse muito confortável modo de conhecimento,
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
entrem no modo curiosidade, façam mais perguntas,
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
tenham um pouco de dignidade, tratem a pessoa com quem estão a falar com empatia.
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
Não tentem ser como aquelas pessoas nas séries sobre policiais
14:41
that pummel their subjects into submission.
350
866000
2000
que espancam os seus suspeitos até à submissão.
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
Não sejam demasiado agressivos, não funciona.
14:46
Now we've talked a little bit
352
871000
2000
Agora já falámos um pouco
14:48
about how to talk to someone who's lying
353
873000
2000
sobre como falar com alguém que está a mentir
14:50
and how to spot a lie.
354
875000
2000
e sobre como detectar uma mentira.
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
E como prometi, vamos agora olhar para o aspecto que tem a verdade.
14:55
But I'm going to show you two videos,
356
880000
2000
Mas vou mostrar-vos dois vídeos,
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
duas mães -- uma está a mentir, uma está a dizer a verdade.
15:00
And these were surfaced
358
885000
2000
E quem as trouxe à superfície
15:02
by researcher David Matsumoto in California.
359
887000
2000
foi o investigador David Matsumoto na Califórnia.
15:04
And I think they're an excellent example
360
889000
2000
E penso que são um excelente exemplo
15:06
of what the truth looks like.
361
891000
2000
do aspecto que a verdade tem.
15:08
This mother, Diane Downs,
362
893000
2000
Esta mãe, Diane Downs,
15:10
shot her kids at close range,
363
895000
2000
disparou sobre os seus filhos à queima-roupa,
15:12
drove them to the hospital
364
897000
2000
conduziu-os até ao hospital
15:14
while they bled all over the car,
365
899000
2000
enquanto eles sangravam por todo o carro,
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
e afirmou que foi um desconhecido magricela e cabeludo que o fez.
15:18
And you'll see when you see the video,
367
903000
2000
E irão ver quando virem o vídeo,
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
que ela nem sequer consegue fingir ser uma mãe em sofrimento.
15:22
What you want to look for here
369
907000
2000
Aquilo que devem procurar aqui
15:24
is an incredible discrepancy
370
909000
2000
é uma incrível discrepância
15:26
between horrific events that she describes
371
911000
2000
entre os eventos horrorosos que ela descreve
15:28
and her very, very cool demeanor.
372
913000
2000
e o seu comportamento muito, muito calmo.
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
E se olharem atentamente, irão ver o deleite do engano ao longo deste vídeo
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
(Vídeo) Diane Downs: À noite, quando fecho os olhos,
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
vejo a Christie esticando a sua mão na minha direcção enquanto conduzo,
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
e o sangue continuava a sair da sua boca.
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
E isso -- talvez isso também se desvaneça com o tempo --
15:43
but I don't think so.
378
928000
2000
mas penso que não.
15:45
That bothers me the most.
379
930000
3000
Isso é o que me perturba mais.
15:55
PM: Now I'm going to show you a video
380
940000
2000
PM: Agora vou mostrar-vos um vídeo
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
de uma verdadeira mãe em luto, Erin Runnion,
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
confrontando o assassino e torturador da sua filha no tribunal.
16:03
Here you're going to see no false emotion,
383
948000
2000
Aqui não vão ver emoções falsas,
16:05
just the authentic expression of a mother's agony.
384
950000
3000
apenas a expressão autentica de uma mãe em sofrimento.
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
(Vídeo) Erin Runnion: Escrevi esta declaração no terceiro aniversário
16:10
of the night you took my baby,
386
955000
2000
da noite em que me tiraste a minha bebé,
16:12
and you hurt her,
387
957000
2000
e a magoaste,
16:14
and you crushed her,
388
959000
2000
e a esmagaste,
16:16
you terrified her until her heart stopped.
389
961000
4000
e a aterrorizaste até que o coração dela parou.
16:20
And she fought, and I know she fought you.
390
965000
3000
E ela lutou, eu sei que ela lutou contra ti.
16:23
But I know she looked at you
391
968000
2000
Mas eu sei que ela olhou para ti
16:25
with those amazing brown eyes,
392
970000
2000
com aqueles incríveis olhos castanhos,
16:27
and you still wanted to kill her.
393
972000
3000
e ainda assim quiseste matá-la.
16:30
And I don't understand it,
394
975000
2000
E não compreendo,
16:32
and I never will.
395
977000
3000
e nunca hei-de compreender.
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
PM: Ok, não há dúvida quanto à veracidade daquelas emoções.
16:39
Now the technology around what the truth looks like
397
984000
3000
A tecnologia à volta do aspecto da verdade
16:42
is progressing on, the science of it.
398
987000
3000
está a progredir, a ciência sobre isso.
16:45
We know for example
399
990000
2000
Sabemos, por exemplo,
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
que agora temos rastreadores de olhos especializados e digitalizadores cerebrais de infravermelhos,
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
ressonâncias magnéticas que conseguem descodificar os sinais que os nossos corpos enviam
16:53
when we're trying to be deceptive.
402
998000
2000
quando estamos a tentar enganar.
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
E estas tecnologias estão a tentar ser vendidas a todos nós
16:58
as panaceas for deceit,
404
1003000
2000
como panaceias para o engano,
17:00
and they will prove incredibly useful some day.
405
1005000
3000
e um dia irão provar ser incrivelmente úteis.
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
Mas entretanto temos de nos perguntar a nós mesmos:
17:05
Who do you want on your side of the meeting,
407
1010000
2000
Quem é que queremos ao nosso lado na reunião,
17:07
someone who's trained in getting to the truth
408
1012000
3000
alguém que está treinado na obtenção da verdade
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
ou um tipo que arrasta consigo um electroencefalograma de 200 quilos
17:12
through the door?
410
1017000
2000
através da porta?
17:14
Liespotters rely on human tools.
411
1019000
4000
Os apanhadores de mentiras apoiam-se nas ferramentas humanas.
17:18
They know, as someone once said,
412
1023000
2000
Sabem, como alguém uma vez disse,
17:20
"Character's who you are in the dark."
413
1025000
2000
"O carácter é quem tu és no escuro."
17:22
And what's kind of interesting
414
1027000
2000
E o que é interessante
17:24
is that today we have so little darkness.
415
1029000
2000
é que hoje em dia temos tão pouca escuridão.
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
O nosso mundo está aceso 24 horas por dia.
17:29
It's transparent
417
1034000
2000
É transparente
17:31
with blogs and social networks
418
1036000
2000
com blogues e redes sociais
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
transmitindo o burburinho de toda uma nova geração de pessoas
17:35
that have made a choice to live their lives in public.
420
1040000
3000
que fizeram a escolha de viver as suas vidas em público.
17:38
It's a much more noisy world.
421
1043000
4000
É um mundo muito mais barulhento.
17:42
So one challenge we have
422
1047000
2000
Por isso um desafio que temos
17:44
is to remember,
423
1049000
2000
é o de lembrar que,
17:46
oversharing, that's not honesty.
424
1051000
3000
partilhar demais, isso não é honestidade.
17:49
Our manic tweeting and texting
425
1054000
2000
O nosso uso do twitter e envio de sms's maníaco
17:51
can blind us to the fact
426
1056000
2000
pode cegar-nos para o facto
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
que as subtilezas da decência humana -- a integridade de carácter --
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
são ainda o que importa, são o que há-de sempre importar.
17:59
So in this much noisier world,
429
1064000
2000
Por isso, neste mundo muito mais barulhento,
18:01
it might make sense for us
430
1066000
2000
talvez faça sentido para nós
18:03
to be just a little bit more explicit
431
1068000
2000
ser um pouco mais explícito
18:05
about our moral code.
432
1070000
3000
acerca do nosso código moral.
18:08
When you combine the science of recognizing deception
433
1073000
2000
Quando combinamos a ciência do reconhecimento do engano
18:10
with the art of looking, listening,
434
1075000
2000
com a arte da observação, da escuta,
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
retiramo-nos da colaboração numa mentira.
18:15
You start up that path
436
1080000
2000
Começamos aquele caminho
18:17
of being just a little bit more explicit,
437
1082000
2000
de ser apenas um pouco mais explícito,
18:19
because you signal to everyone around you,
438
1084000
2000
porque damos um sinal a todos à nossa volta,
18:21
you say, "Hey, my world, our world,
439
1086000
3000
dizemos, "Olhem, o meu mundo, o nosso mundo,
18:24
it's going to be an honest one.
440
1089000
2000
vai ser um mundo honesto.
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
O meu mundo vai ser um mundo em que a verdade será fortalecida
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
e a falsidade será reconhecida e marginalizada".
18:31
And when you do that,
443
1096000
2000
E quando o fazemos,
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
o chão à vossa volta começa a mover-se um pouco.
18:36
And that's the truth. Thank you.
445
1101000
3000
E essa é a verdade. Obrigado.
18:39
(Applause)
446
1104000
5000
(Aplausos)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com