TEDGlobal 2011
Pamela Meyer: How to spot a liar
Pamela Meyer: Cómo descubrir a un mentiroso
Filmed:
Readability: 3.8
28,415,176 views
En un día común nos mienten entre 10 y 200 veces, y las pistas para detectar esas mentiras pueden ser sutiles e ir en contra del sentido común. Pamela Meyer, autora de "Detección de mentiras", expone los métodos y señales que utilizan las personas preparadas para reconocer el engaño y defiende la honestidad como un valor digno de ser preservado.
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
No quiero alarmar a nadie en la sala,
00:20
but it's just come to my attention
1
5000
2000
pero acabo de notar
00:22
that the person to your right is a liar.
2
7000
2000
que la persona a su derecha es una mentirosa.
00:24
(Laughter)
3
9000
2000
(Risas)
00:26
Also, the person to your left is a liar.
4
11000
3000
La persona a su izquierda también lo es.
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
Y también la persona sentada en su propio asiento.
00:32
We're all liars.
6
17000
2000
Todos somos mentirosos.
00:34
What I'm going to do today
7
19000
2000
Lo que haré hoy
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
es mostrarles lo investigado acerca de por qué mentimos,
00:39
how you can become a liespotter
9
24000
2000
cómo pueden convertirse en detectores de mentiras,
00:41
and why you might want to go the extra mile
10
26000
3000
y por qué deberían ir más allá
00:44
and go from liespotting to truth seeking,
11
29000
3000
e ir de la detección de mentiras a la búsqueda de la verdad,
00:47
and ultimately to trust building.
12
32000
2000
y finalmente al desarrollo de confianza.
00:49
Now speaking of trust,
13
34000
3000
Hablando de confianza,
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
desde que escribí este libro, "Detección de mentiras",
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
nadie quiere verme en persona, no, no, no, no.
00:58
They say, "It's okay, we'll email you."
16
43000
3000
Me dicen, "Le reponderemos por correo electrónico."
01:01
(Laughter)
17
46000
2000
(Risas)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
Ni siquiera puedo tomarme un café en Starbucks.
01:07
My husband's like, "Honey, deception?
19
52000
2000
Mi esposo dice, "Querida, ¿engaño?
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
Tal vez podrías haber escrito sobre cocina. ¿Qué tal cocina francesa?"
01:12
So before I get started, what I'm going to do
21
57000
2000
Así que antes de empezar, lo que haré
01:14
is I'm going to clarify my goal for you,
22
59000
3000
es clarificar mi objetivo,
01:17
which is not to teach a game of Gotcha.
23
62000
2000
que no es enseñarles a jugar Gotcha.
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
Los detectores de mentiras no son esos niños melindrosos,
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
sentados detrás que gritan: "¡Te descubrí! ¡Te descubrí!
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
Moviste la ceja. Tus fosas nasales se dilataron.
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
Yo veo esa serie de TV 'Miénteme'. Sé que estás mintiendo."
01:30
No, liespotters are armed
28
75000
2000
No, los detectores de mentiras están armados
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
con conocimientos científicos sobre cómo detectar el engaño.
01:35
They use it to get to the truth,
30
80000
2000
Usan ese conocimiento para llegar a la verdad
01:37
and they do what mature leaders do everyday;
31
82000
2000
y hacen lo que los líderes experimentados hacen a diario;
01:39
they have difficult conversations with difficult people,
32
84000
3000
tienen conversaciones difíciles con gente difícil,
01:42
sometimes during very difficult times.
33
87000
2000
a veces en tiempos muy difíciles.
01:44
And they start up that path
34
89000
2000
Empiezan así
01:46
by accepting a core proposition,
35
91000
2000
aceptando una proposición central,
01:48
and that proposition is the following:
36
93000
2000
esa proposición es la siguiente:
01:50
Lying is a cooperative act.
37
95000
3000
La mentira es un acto cooperativo.
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
Piensen, una mentira no tiene poder en sí misma.
01:57
Its power emerges
39
102000
2000
Su poder surge
01:59
when someone else agrees to believe the lie.
40
104000
2000
cuando alguien más acepta creer la mentira.
02:01
So I know it may sound like tough love,
41
106000
2000
Sé que puede sonar rudo,
02:03
but look, if at some point you got lied to,
42
108000
4000
pero si alguna vez les mintieron,
02:07
it's because you agreed to get lied to.
43
112000
2000
es porque Uds. aceptaron ser engañados.
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
Verdad núm. uno: La mentira es un acto cooperativo.
02:12
Now not all lies are harmful.
45
117000
2000
No todas las mentiras son dañinas.
02:14
Sometimes we're willing participants in deception
46
119000
3000
Algunas veces estamos dispuestos a participar en el engaño
02:17
for the sake of social dignity,
47
122000
3000
para mantener la dignidad social,
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
tal vez para guardar un secreto que debe permanecer secreto.
02:23
We say, "Nice song."
49
128000
2000
Decimos, "Linda canción."
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
"Querida, así no se te ve gorda, no."
02:28
Or we say, favorite of the digiratti,
51
133000
2000
O la favorita de los informáticos,
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
"Acabo de recuperar ese correo de la carpeta de correo basura.
02:33
So sorry."
53
138000
3000
Lo siento."
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
Otras ocasiones participamos sin querer en el engaño.
02:39
And that can have dramatic costs for us.
55
144000
3000
Y eso puede tener costos enormes para nosotros.
02:42
Last year saw 997 billion dollars
56
147000
3000
El año pasado se perdieron 997 mil millones de dólares
02:45
in corporate fraud alone in the United States.
57
150000
4000
en fraude empresarial, sólo en los EEUU.
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
Eso no es nada con respecto a un billón de dólares.
02:51
That's seven percent of revenues.
59
156000
2000
Representa el 7% de los ingresos recaudados.
02:53
Deception can cost billions.
60
158000
2000
El engaño puede costar miles de millones.
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
Piensen en Enron, Madoff, la crisis hipotecaria.
02:58
Or in the case of double agents and traitors,
62
163000
3000
O en el caso de espías y traidores,
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
como Robert Hanssen o Aldrich Ames,
03:03
lies can betray our country,
64
168000
2000
las mentiras pueden traicionar a nuestro país,
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
comprometer nuestra seguridad, debilitar la democracia,
03:08
they can cause the deaths of those that defend us.
66
173000
3000
provocar la muerte de quienes nos defienden.
03:11
Deception is actually serious business.
67
176000
3000
El engaño es un asunto serio.
03:14
This con man, Henry Oberlander,
68
179000
2000
Este estafador, Henry Oberlander,
03:16
he was such an effective con man
69
181000
2000
era tan buen estafador
03:18
British authorities say
70
183000
2000
que las autoridades británicas dijeron
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
que pudo haber quebrantado por completo el sistema bancario de los países occidentales.
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
Y no se le puede encontrar en Google; no se le encuentra en ningún lado.
03:25
He was interviewed once, and he said the following.
73
190000
3000
Una vez fue entrevistado y dijo lo siguiente.
03:28
He said, "Look, I've got one rule."
74
193000
2000
Dijo: "Tengo una regla."
03:30
And this was Henry's rule, he said,
75
195000
3000
Y esta era la regla de Henry:
03:33
"Look, everyone is willing to give you something.
76
198000
2000
"Todos están dispuestos a darte algo.
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
Preparados para darte algo a cambio de lo que más desean."
03:38
And that's the crux of it.
78
203000
2000
Y esa es la esencia del problema.
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
Si no quieres ser engañado, tienes que saber,
03:42
what is it that you're hungry for?
80
207000
2000
¿qué es lo que deseas?
03:44
And we all kind of hate to admit it.
81
209000
3000
Y todos odiamos admitirlo.
03:47
We wish we were better husbands, better wives,
82
212000
3000
Deseamos ser mejores esposos, mejores esposas,
03:50
smarter, more powerful,
83
215000
2000
más inteligentes, más poderosos,
03:52
taller, richer --
84
217000
2000
más altos, más ricos...
03:54
the list goes on.
85
219000
2000
la lista sigue.
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
El engaño es un intento por acortar la brecha,
03:58
to connect our wishes and our fantasies
87
223000
2000
por conectar nuestros deseos y fantasías
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
sobre quiénes y cómo nos gustaría ser,
04:03
with what we're really like.
89
228000
3000
con quienes somos realmente.
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
Y sí, estamos dispuestos a rellenar las brechas con mentiras.
04:09
On a given day, studies show that you may be lied to
91
234000
3000
Estudios muestran que cada día nos mienten
04:12
anywhere from 10 to 200 times.
92
237000
2000
entre 10 y 200 veces.
04:14
Now granted, many of those are white lies.
93
239000
3000
Aunque muchas son mentiras piadosas.
04:17
But in another study,
94
242000
2000
Pero en otro estudio
04:19
it showed that strangers lied three times
95
244000
2000
se demostró que los extraños mienten tres veces
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
en los primeros 10 minutos de conocerse.
04:23
(Laughter)
97
248000
2000
(Risas)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
Rehuimos al escuchar estos datos.
04:28
We can't believe how prevalent lying is.
99
253000
2000
No podemos creer que las las mentiras sean tan comunes.
04:30
We're essentially against lying.
100
255000
2000
Estamos esencialmente en contra de la mentira.
04:32
But if you look more closely,
101
257000
2000
Pero si prestan atención,
04:34
the plot actually thickens.
102
259000
2000
las cosas son aún más complicadas.
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
Mentimos más a extraños que a compañeros de trabajo.
04:39
Extroverts lie more than introverts.
104
264000
4000
Las personas extrovertidas mienten más que las introvertidas.
04:43
Men lie eight times more about themselves
105
268000
3000
Los hombres mienten ocho veces más sobre ellos mismos
04:46
than they do other people.
106
271000
2000
que sobre otras personas.
04:48
Women lie more to protect other people.
107
273000
3000
Las mujeres mienten más para proteger a otros.
04:51
If you're an average married couple,
108
276000
3000
Si son un matrimonio promedio,
04:54
you're going to lie to your spouse
109
279000
2000
mentirán a su cónyuge
04:56
in one out of every 10 interactions.
110
281000
2000
en una de cada 10 interacciones.
04:58
Now you may think that's bad.
111
283000
2000
Ahora, pueden pensar que eso es malo.
05:00
If you're unmarried, that number drops to three.
112
285000
2000
Si no están casados, el núm. disminuye a tres.
05:02
Lying's complex.
113
287000
2000
Mentir es complicado.
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
Forma parte de nuestra vida cotidiana y laboral.
05:07
We're deeply ambivalent about the truth.
115
292000
2000
Somos profundamente ambiguos sobre la verdad.
05:09
We parse it out on an as-needed basis,
116
294000
2000
Sólo la analizamos cuando lo requerimos,
05:11
sometimes for very good reasons,
117
296000
2000
a veces por muy buenas razones,
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
otras porque no comprendemos las brechas en nuestras vidas.
05:16
That's truth number two about lying.
119
301000
2000
Verdad núm. dos sobre la mentira.
05:18
We're against lying,
120
303000
2000
Estamos en contra de la mentira,
05:20
but we're covertly for it
121
305000
2000
pero, en secreto, a favor de ella,
05:22
in ways that our society has sanctioned
122
307000
2000
en formas que nuestra sociedad ha sancionado
05:24
for centuries and centuries and centuries.
123
309000
2000
durante siglos y siglos.
05:26
It's as old as breathing.
124
311000
2000
Mentir es tan antiguo como respirar.
05:28
It's part of our culture, it's part of our history.
125
313000
2000
Es parte de nuestra cultura, parte de nuestra historia.
05:30
Think Dante, Shakespeare,
126
315000
3000
Piensen en Dante, Shakespeare,
05:33
the Bible, News of the World.
127
318000
3000
la Biblia, News of the World.
05:36
(Laughter)
128
321000
2000
(Risas)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
Mentir tiene un valor evolutivo para nuestra especie.
05:40
Researchers have long known
130
325000
2000
Los investigadores saben desde hace tiempo
05:42
that the more intelligent the species,
131
327000
2000
que cuanto más inteligente es una especie,
05:44
the larger the neocortex,
132
329000
2000
mayor es el neocórtex
05:46
the more likely it is to be deceptive.
133
331000
2000
y mayores son las posibilidades de ser engañoso.
05:48
Now you might remember Koko.
134
333000
2000
Tal vez recuerden a Koko.
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
¿Recuerdan a Koko, la gorila a quien enseñaron el lenguaje de señas?
05:53
Koko was taught to communicate via sign language.
136
338000
3000
A Koko le enseñaron a comunicarse a través de señas.
05:56
Here's Koko with her kitten.
137
341000
2000
Aquí está Koko con su gatito.
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
Su lindo y suave gatito.
06:01
Koko once blamed her pet kitten
139
346000
2000
Una vez Koko culpó a su gatito
06:03
for ripping a sink out of the wall.
140
348000
2000
por haber arrancado un lavabo de la pared.
06:05
(Laughter)
141
350000
2000
(Risas)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
Estamos predispuestos a ser líderes de la manada.
06:09
It's starts really, really early.
143
354000
2000
Comienza desde una edad muy temprana.
06:11
How early?
144
356000
2000
¿Pero cuándo?
06:13
Well babies will fake a cry,
145
358000
2000
Los bebés fingen el llanto,
06:15
pause, wait to see who's coming
146
360000
2000
hacen una pausa para ver si alguien viene,
06:17
and then go right back to crying.
147
362000
2000
y continúan llorando.
06:19
One-year-olds learn concealment.
148
364000
2000
Los niños de un año ocultan.
06:21
(Laughter)
149
366000
2000
(Risas)
06:23
Two-year-olds bluff.
150
368000
2000
Los de dos años disimulan.
06:25
Five-year-olds lie outright.
151
370000
2000
Los niños de cinco años mienten sin reservas.
06:27
They manipulate via flattery.
152
372000
2000
Manipulan mediante halagos.
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
A los nueve años son maestros del encubrimiento.
06:32
By the time you enter college,
154
377000
2000
Cuando entras a la universidad,
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
mentirás a tu madre en una de cada cinco interacciones.
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
Cuando entramos al mundo laboral y tenemos una familia,
06:40
we enter a world that is just cluttered
157
385000
2000
entramos a un mundo lleno
06:42
with spam, fake digital friends,
158
387000
2000
de correo indeseado, falsos amigos digitales,
06:44
partisan media,
159
389000
2000
medios de comunicación con inclinaciones políticas,
06:46
ingenious identity thieves,
160
391000
2000
ingeniosos ladrones de identidad,
06:48
world-class Ponzi schemers,
161
393000
2000
estafadores de primera clase,
06:50
a deception epidemic --
162
395000
2000
una epidemia de engaños--
06:52
in short, what one author calls
163
397000
2000
en resumen, lo que un autor llama
06:54
a post-truth society.
164
399000
3000
una sociedad post-verdad.
06:57
It's been very confusing
165
402000
2000
Ha sido muy confuso
06:59
for a long time now.
166
404000
3000
durante un largo tiempo.
07:03
What do you do?
167
408000
2000
¿Qué hacemos?
07:05
Well there are steps we can take
168
410000
2000
Hay pasos que podemos seguir
07:07
to navigate our way through the morass.
169
412000
2000
para navegar en este lío.
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
Los detectores de mentiras entrenados llegan a la verdad el 90% de las veces.
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
El resto de nosotros, sólo atinamos el 54%.
07:15
Why is it so easy to learn?
172
420000
2000
¿Por qué es tan fácil aprender?
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
Hay buenos mentirosos y malos mentirosos. No hay mentirosos originales.
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
Todos cometemos los mismos errores. Todos usamos las mismas técnicas.
07:23
So what I'm going to do
175
428000
2000
Así que voy a
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
mostrarles dos patrones en que se presenta el engaño.
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
Y observaremos las señales delatoras para ver si son identificables.
07:30
We're going to start with speech.
178
435000
3000
Empezaremos con el discurso.
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
(Video) Bill Clinton: Quiero que me escuchen.
07:35
I'm going to say this again.
180
440000
2000
Lo repetiré.
07:37
I did not have sexual relations
181
442000
3000
No tuve relaciones sexuales
07:40
with that woman, Miss Lewinsky.
182
445000
4000
con esa mujer, la señorita Lewinsky.
07:44
I never told anybody to lie,
183
449000
2000
Nunca le pedí a nadie que mintiera,
07:46
not a single time, never.
184
451000
2000
ni una sola vez, nunca.
07:48
And these allegations are false.
185
453000
3000
Y estas acusaciones son falsas.
07:51
And I need to go back to work for the American people.
186
456000
2000
Y debo regresar a trabajar para los estadounidenses.
07:53
Thank you.
187
458000
2000
Gracias.
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
Pamela Meyer: Bien, ¿cuáles fueron los signos delatores?
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
Bueno, primero escuchamos lo conocido como negación extendida.
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
Estudios demuestran que las personas obstinadas en negar sus actos
08:08
will resort to formal rather than informal language.
191
473000
3000
recurren al uso del lenguaje formal más que al informal.
08:11
We also heard distancing language: "that woman."
192
476000
3000
También escuchamos lenguaje distanciador: "esa mujer."
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
Sabemos que los mentirosos inconscientemente se distancian
08:16
from their subject
194
481000
2000
del sujeto de quien hablan
08:18
using language as their tool.
195
483000
3000
utilizando como herramienta el lenguaje.
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
Ahora, si Bill Clinton hubiera dicho, "Para ser honesto..."
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
o la favorita de Richard Nixon, "Con toda franqueza...",
08:26
he would have been a dead giveaway
198
491000
2000
se habría delatado inmediatamente,
08:28
for any liespotter than knows
199
493000
2000
pues cualquier detector de mentiras sabe
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
que el lenguaje calificativo, así se llama, lenguaje calificativo,
08:33
further discredits the subject.
201
498000
2000
quita credibilidad a la persona.
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
Ahora, si hubiera repetido la pregunta completa
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
o si hubiera saturado su relato con detalles--
08:42
and we're all really glad he didn't do that --
204
507000
2000
y en verdad nos alegra que no lo hiciera--
08:44
he would have further discredited himself.
205
509000
2000
habría perdido aún más credibilidad.
08:46
Freud had it right.
206
511000
2000
Freud estaba en lo cierto.
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
Freud dijo, existe mucho más que el discurso:
08:51
"No mortal can keep a secret.
208
516000
3000
"Ningún mortal puede mantener un secreto.
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
Si sus labios no hablan, hablan las yemas de los dedos."
08:57
And we all do it no matter how powerful you are.
210
522000
3000
Y todos lo hacemos es igual lo poderosos que seamos.
09:00
We all chatter with our fingertips.
211
525000
2000
Todos hablamos con las yemas de los dedos.
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
Les mostraré a Dominique Strauss-Kahn con Obama
09:05
who's chattering with his fingertips.
213
530000
3000
quien charla con la punta de sus dedos.
09:08
(Laughter)
214
533000
3000
(Risas)
09:11
Now this brings us to our next pattern,
215
536000
3000
Esto nos lleva al siguiente patrón,
09:14
which is body language.
216
539000
3000
que es el lenguaje corporal.
09:17
With body language, here's what you've got to do.
217
542000
3000
Con el lenguaje corporal, esto es lo que deben hacer.
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
Realmente deben desechar sus creencias.
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
Permitan a la ciencia moderar un poco sus conocimientos.
09:25
Because we think liars fidget all the time.
220
550000
3000
Creemos que los mentirosos se mueven siempre.
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
Pero se sabe que inmovilizan la parte superior del cuerpo al mentir.
09:31
We think liars won't look you in the eyes.
222
556000
3000
Pensamos que los mentirosos no miran a los ojos.
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
Pues miran a los ojos más de lo normal
09:36
just to compensate for that myth.
224
561000
2000
sólo para compensar el mito.
09:38
We think warmth and smiles
225
563000
2000
Pensamos que la cordialidad y las sonrisas
09:40
convey honesty, sincerity.
226
565000
2000
son signos de honestidad y sinceridad.
09:42
But a trained liespotter
227
567000
2000
Pero un detector de mentiras entrenado
09:44
can spot a fake smile a mile away.
228
569000
2000
puede identificar una falsa sonrisa a una milla de distancia.
09:46
Can you all spot the fake smile here?
229
571000
3000
¿Pueden identificar la sonrisa falsa?
09:50
You can consciously contract
230
575000
2000
Se pueden contraer conscientemente
09:52
the muscles in your cheeks.
231
577000
3000
los músculos en las mejillas.
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
Pero la sonrisa auténtica está en los ojos, en las arrugas de los ojos,
09:58
They cannot be consciously contracted,
233
583000
2000
que no se pueden contraer conscientemente,
10:00
especially if you overdid the Botox.
234
585000
2000
en especial si abusaron del Botox.
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
Nunca abusen del Botox, nadie creerá que son honestos.
10:05
Now we're going to look at the hot spots.
236
590000
2000
Ahora veremos las señales delatoras.
10:07
Can you tell what's happening in a conversation?
237
592000
2000
¿Saben lo que ocurre en una conversación?
10:09
Can you start to find the hot spots
238
594000
3000
¿Ven las señales
10:12
to see the discrepancies
239
597000
2000
que reflejan las discrepancias
10:14
between someone's words and someone's actions?
240
599000
2000
entre palabras y acciones?
10:16
Now I know it seems really obvious,
241
601000
2000
Sé que parece obvio,
10:18
but when you're having a conversation
242
603000
2000
pero cuando mantienen una conversación
10:20
with someone you suspect of deception,
243
605000
3000
con alguien de quien sospechan,
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
la actitud es el indicador más valioso y menospreciado.
10:26
An honest person is going to be cooperative.
245
611000
2000
Una persona honesta cooperará.
10:28
They're going to show they're on your side.
246
613000
2000
Demostrarán que están de su lado.
10:30
They're going to be enthusiastic.
247
615000
2000
Se mostrarán entusiasmados.
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
Estarán dispuestas a ayudarles a llegar a la verdad.
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
Estarán dispuestos a dar ideas, nombrar sospechosos,
10:37
provide details.
250
622000
2000
brindar detalles.
10:39
They're going to say, "Hey,
251
624000
2000
Dirán, "Oye,
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
tal vez fueron los encargados de la nómina quienes falsificaron los cheques."
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
Se pondrán furiosos si creen que se les acusa injustamente,
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
a lo largo de la conversación, no sólo en algunos momentos;
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
estarán furiosos durante toda la conversación.
10:52
And if you ask someone honest
256
637000
2000
Y si preguntan a una persona honesta
10:54
what should happen to whomever did forge those checks,
257
639000
3000
qué debería hacerse con quien haya falsificado los cheques,
10:57
an honest person is much more likely
258
642000
2000
es más probable que
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
recomiende una medida estricta a un castigo poco severo.
11:03
Now let's say you're having that exact same conversation
260
648000
2000
Ahora, digamos que tienen la misma conversación
11:05
with someone deceptive.
261
650000
2000
con un mentiroso.
11:07
That person may be withdrawn,
262
652000
2000
Esa persona puede mostrarse reservada,
11:09
look down, lower their voice,
263
654000
2000
bajar la mirada, disminuir su tono de voz.
11:11
pause, be kind of herky-jerky.
264
656000
2000
hacer pausas, inquietarse.
11:13
Ask a deceptive person to tell their story,
265
658000
2000
Pidan a un mentiroso narrar su versión de la historia,
11:15
they're going to pepper it with way too much detail
266
660000
3000
la saturarán con los detalles
11:18
in all kinds of irrelevant places.
267
663000
3000
más irrelevantes.
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
Y narrará los hechos cronológicamente.
11:24
And what a trained interrogator does
269
669000
2000
Lo que hace un interrogador entrenado
11:26
is they come in and in very subtle ways
270
671000
2000
es indagar sutilmente
11:28
over the course of several hours,
271
673000
2000
durante horas,
11:30
they will ask that person to tell that story backwards,
272
675000
3000
pedirá a la persona narrar la historia hacia atrás
11:33
and then they'll watch them squirm,
273
678000
2000
y los verán retorcerse
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
y determinará qué preguntas producen la mayor cantidad de respuestas engañosas.
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
¿Por qué lo hacen? Porque todos hacemos lo mismo.
11:41
We rehearse our words,
276
686000
2000
Practicamos nuestro discurso,
11:43
but we rarely rehearse our gestures.
277
688000
2000
pero rara vez ensayamos nuestros gestos.
11:45
We say "yes," we shake our heads "no."
278
690000
2000
Decimos "sí", pero movemos la cabeza diciendo "no".
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
Contamos historias bastante convincentes, pero sutilmente encogemos los hombros.
11:50
We commit terrible crimes,
280
695000
2000
Cometemos crímenes terribles
11:52
and we smile at the delight in getting away with it.
281
697000
3000
y sonreímos por el placer de salirnos con la nuestra.
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
Esa sonrisa se conoce como "placer por el engaño".
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
Y lo veremos a continuación,
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
pero comenzaremos, para quienes no lo conozcan,
12:03
this is presidential candidate John Edwards
285
708000
3000
este es el cantidato presidencial John Edwards
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
quien sorprendió a los EEUU por un supuesto hijo extramatrimonial.
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
Habla sobre realizarse una prueba de paternindad.
12:12
See now if you can spot him
288
717000
2000
Miren si identifican
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
cuando dice, "sí", mientras niega con la cabeza
12:16
slightly shrugging his shoulders.
290
721000
2000
y sutilmente encoge los hombros.
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
(Video) John Edwards: Estaría encantado de realizar una.
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
Sé que es imposible que este niño sea mío,
12:23
because of the timing of events.
293
728000
2000
por cómo transcurrieron los hechos.
12:25
So I know it's not possible.
294
730000
2000
Así que sé que es imposible.
12:27
Happy to take a paternity test,
295
732000
2000
Encantado de someterme a una prueba de paternidad,
12:29
and would love to see it happen.
296
734000
2000
me fascinaría realizarla.
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
Entrevistador: ¿Lo hará pronto? ¿Hay alguien --
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
JE: Sólo soy una de las partes. Sólo una parte de la prueba.
12:37
But I'm happy to participate in one.
299
742000
3000
Pero me encantaría participar en ella.
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
PM: Las negaciones con la cabeza son mucho más fáciles de detectar
12:42
once you know to look for them.
301
747000
2000
cuando sabes buscarlas.
12:44
There're going to be times
302
749000
2000
A veces
12:46
when someone makes one expression
303
751000
2000
alguien realiza una expresión
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
mientras oculta otra que de repente revela por un instante.
12:52
Murderers are known to leak sadness.
305
757000
2000
Se sabe que los asesinos revelan tristeza.
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
Su nuevo socio puede estrechar su mano,
12:56
celebrate, go out to dinner with you
307
761000
2000
celebrar, cenar contigo
12:58
and then leak an expression of anger.
308
763000
3000
y luego dejar salir un gesto de ira.
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
No nos convertiremos en expertos en expresiones faciales de repente,
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
pero les enseñaré una que es muy peligrosa, y es fácil de aprender,
13:07
and that's the expression of contempt.
311
772000
3000
la expresión del desprecio.
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
Ahora, con la ira tienen a dos personas jugando parejo en la cancha.
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
Todavía una relación saludable.
13:15
But when anger turns to contempt,
314
780000
2000
Pero cuando la ira se convierte en desprecio,
13:17
you've been dismissed.
315
782000
2000
han sido rechazados.
13:19
It's associated with moral superiority.
316
784000
2000
El desprecio se asocia con la superioridad moral.
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
Y por eso es muy difícil recuperarse de él.
13:24
Here's what it looks like.
318
789000
2000
Así es como se ve.
13:26
It's marked by one lip corner
319
791000
2000
Se caracteriza por una esquina del labio
13:28
pulled up and in.
320
793000
2000
levantada hacia arriba y hacia adentro.
13:30
It's the only asymmetrical expression.
321
795000
3000
Es la única expresión asimétrica.
13:33
And in the presence of contempt,
322
798000
2000
Y ante el desprecio,
13:35
whether or not deception follows --
323
800000
2000
sin importar si le sigue o no el engaño --
13:37
and it doesn't always follow --
324
802000
2000
y no siempre le sigue --
13:39
look the other way, go the other direction,
325
804000
2000
miren hacia otro lado, vayan hacia la dirección contraria,
13:41
reconsider the deal,
326
806000
2000
reconsideren el trato,
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
digan, "No, gracias. No volveré por solo una copa más. Gracias."
13:47
Science has surfaced
328
812000
2000
La ciencia ha descubierto
13:49
many, many more indicators.
329
814000
2000
muchos más indicadores.
13:51
We know, for example,
330
816000
2000
Sabemos, por ejemplo,
13:53
we know liars will shift their blink rate,
331
818000
2000
que los mentirosos cambian la velocidad del parpadeo,
13:55
point their feet towards an exit.
332
820000
2000
dirigen sus pies hacia alguna salida.
13:57
They will take barrier objects
333
822000
2000
Toman objetos como barreras
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
y los colocan entre ellos y la persona que los interroga.
14:02
They'll alter their vocal tone,
335
827000
2000
Alteran su tono de voz,
14:04
often making their vocal tone much lower.
336
829000
3000
frecuentemente disminuyéndolo.
14:07
Now here's the deal.
337
832000
2000
El asunto es,
14:09
These behaviors are just behaviors.
338
834000
3000
estos comportamientos son sólo comportamientos.
14:12
They're not proof of deception.
339
837000
2000
No son prueba definitiva del engaño.
14:14
They're red flags.
340
839000
2000
Son indicadores.
14:16
We're human beings.
341
841000
2000
Somos seres humanos.
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
Hacemos gestos engañosos todo el tiempo.
14:21
They don't mean anything in and of themselves.
343
846000
2000
No significan nada por sí mismos.
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
Pero cuando los observas en grupo, ahí está la señal.
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
Observen, escuchen, investiguen, pregunten cosas difíciles,
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
salgan de esa forma tan cómoda de conocer,
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
adopten un modo inquisitivo, pregunten más,
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
sean dignnos y cordiales con la persona con quien hablan.
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
No actúen como los personajes de "La Ley y el Orden" u otras series de TV,
14:41
that pummel their subjects into submission.
350
866000
2000
que fastidian a los sospechosos hasta someterlos.
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
No sean tan agresivos, no funciona.
14:46
Now we've talked a little bit
352
871000
2000
Hemos hablado un poco
14:48
about how to talk to someone who's lying
353
873000
2000
sobre cómo hablar con alguien que miente
14:50
and how to spot a lie.
354
875000
2000
y cómo detectar una mentira.
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
Y como prometí, le mostraré cómo es la verdad.
14:55
But I'm going to show you two videos,
356
880000
2000
Les enseñaré dos videos,
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
dos madres: una miente, otra dice la verdad.
15:00
And these were surfaced
358
885000
2000
Éstos los hizo
15:02
by researcher David Matsumoto in California.
359
887000
2000
el investigador David Matsumoto en California.
15:04
And I think they're an excellent example
360
889000
2000
Y creo que son un excelente ejemplo
15:06
of what the truth looks like.
361
891000
2000
sobre cómo se ve la verdad.
15:08
This mother, Diane Downs,
362
893000
2000
Esta mujer, Diana Downs,
15:10
shot her kids at close range,
363
895000
2000
disparó a sus hijos,
15:12
drove them to the hospital
364
897000
2000
los llevó al hospital
15:14
while they bled all over the car,
365
899000
2000
mientras se desangraban en el auto,
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
aseguró que un extraño de cabello desaliñado lo hizo.
15:18
And you'll see when you see the video,
367
903000
2000
Y cuando les muestre el video notarán
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
que ni puede actuar como una madre afligida.
15:22
What you want to look for here
369
907000
2000
Deben prestar atención
15:24
is an incredible discrepancy
370
909000
2000
a la enorme discrepancia
15:26
between horrific events that she describes
371
911000
2000
entre los horrendos hechos que describe
15:28
and her very, very cool demeanor.
372
913000
2000
y su comportamiento tan calmado.
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
Si miran cuidadosamente, observarán un ejemplo del "placer por el engaño" en este video.
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
(Video) Diana Downs: Por la noche, cuando cierro los ojos,
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
puede ver a Christie dándome la mano mientras manejo,
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
y la sangre seguía saliéndole de la boca.
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
Tal vez lo olvide con el tiempo,
15:43
but I don't think so.
378
928000
2000
pero no creo.
15:45
That bothers me the most.
379
930000
3000
Eso es lo que más me molesta.
15:55
PM: Now I'm going to show you a video
380
940000
2000
PM: Ahora les mostraré un video
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
de una madre verdaderamente afligida, Erin Runnion,
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
enfrentando al asesino de su hija en el juicio.
16:03
Here you're going to see no false emotion,
383
948000
2000
Aquí no verán emociones falsas,
16:05
just the authentic expression of a mother's agony.
384
950000
3000
sólo la auténtica expresión de la agonía de una madre.
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
(Video) Erin Runnion: Escribí esta declaración en el tercer aniversario
16:10
of the night you took my baby,
386
955000
2000
de la noche en que tomaste a mi bebé,
16:12
and you hurt her,
387
957000
2000
y la lastimaste,
16:14
and you crushed her,
388
959000
2000
y la abatiste,
16:16
you terrified her until her heart stopped.
389
961000
4000
la aterraste hasta que su corazón se detuvo.
16:20
And she fought, and I know she fought you.
390
965000
3000
Y luchó, sé que luchó contra ti.
16:23
But I know she looked at you
391
968000
2000
Pero sé que te miró
16:25
with those amazing brown eyes,
392
970000
2000
con esos asombrosos ojos cafés.
16:27
and you still wanted to kill her.
393
972000
3000
y aún así querías matarla.
16:30
And I don't understand it,
394
975000
2000
Y no lo entiendo,
16:32
and I never will.
395
977000
3000
nunca lo entenderé.
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
PM: No cabe duda de la veracidad de esas emociones.
16:39
Now the technology around what the truth looks like
397
984000
3000
Ahora, la tecnología que nos permite conocer cómo es la verdad
16:42
is progressing on, the science of it.
398
987000
3000
está progresando.
16:45
We know for example
399
990000
2000
Sabemos, por ejemplo,
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
que hay máquinas para rastrear el movimiento del ojo y escáneres cerebrales infrarrojos,
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
imágenes por resonancia magnética que decodifican las señales emitidas por el cuerpo
16:53
when we're trying to be deceptive.
402
998000
2000
cuando intentamos mentir.
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
Estas tecnologías se comercializarán
16:58
as panaceas for deceit,
404
1003000
2000
como la panacea contra el engaño,
17:00
and they will prove incredibly useful some day.
405
1005000
3000
y algún día serán increíblemente útiles.
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
Mientras tanto, deben preguntarse:
17:05
Who do you want on your side of the meeting,
407
1010000
2000
¿A quién quieren tener a su lado en una reunión,
17:07
someone who's trained in getting to the truth
408
1012000
3000
alguien entrenado para llegar a la verdad
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
o alguien que arrastre una máquina
17:12
through the door?
410
1017000
2000
para electroencefalografiar de 180 Kg?
17:14
Liespotters rely on human tools.
411
1019000
4000
Los detectores de mentiras confían en recursos humanos.
17:18
They know, as someone once said,
412
1023000
2000
Saben, como alguien dijo alguna vez,
17:20
"Character's who you are in the dark."
413
1025000
2000
"Carácter es quien eres en la oscuridad."
17:22
And what's kind of interesting
414
1027000
2000
Lo que es interesante
17:24
is that today we have so little darkness.
415
1029000
2000
es que hoy en día tenemos tan poca oscuridad.
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
Nuestro mundo está iluminado 24 horas al día.
17:29
It's transparent
417
1034000
2000
Es transparente,
17:31
with blogs and social networks
418
1036000
2000
con blogs y redes sociales
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
transmitiendo el murmullo de una nueva generación de personas
17:35
that have made a choice to live their lives in public.
420
1040000
3000
decididas a vivir sus vidas en público.
17:38
It's a much more noisy world.
421
1043000
4000
Es un mundo muy ruidoso.
17:42
So one challenge we have
422
1047000
2000
Uno de los retos que tenemos
17:44
is to remember,
423
1049000
2000
es recordar,
17:46
oversharing, that's not honesty.
424
1051000
3000
compartirlo todo, eso no es honestidad.
17:49
Our manic tweeting and texting
425
1054000
2000
Nuestra manía por mandar tweets y mensajes
17:51
can blind us to the fact
426
1056000
2000
puede cegar el hecho
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
de que las sutilezas de la decencia humana, la integridad,
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
es lo importante, lo que siempre importará.
17:59
So in this much noisier world,
429
1064000
2000
En este mundo tan ruidoso,
18:01
it might make sense for us
430
1066000
2000
tiene sentido
18:03
to be just a little bit more explicit
431
1068000
2000
ser un poco más explícito
18:05
about our moral code.
432
1070000
3000
sobre nuestro código moral.
18:08
When you combine the science of recognizing deception
433
1073000
2000
Cuando combinas la ciencia de la detección del engaño
18:10
with the art of looking, listening,
434
1075000
2000
con el arte de observar y escuchar,
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
evitas formar parte de una mentira.
18:15
You start up that path
436
1080000
2000
Empiezas por este camino
18:17
of being just a little bit more explicit,
437
1082000
2000
de ser un poco más explícito,
18:19
because you signal to everyone around you,
438
1084000
2000
porque lo demuestras a todos a tu alrededor,
18:21
you say, "Hey, my world, our world,
439
1086000
3000
dices, "Oye, mi mundo, nuestro mundo,
18:24
it's going to be an honest one.
440
1089000
2000
será un mundo honesto.
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
En mi mundo la verdad será fortalecida
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
y la falsedad será detectada y rechazada."
18:31
And when you do that,
443
1096000
2000
Y al hacer esto,
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
el mundo a su alrededor cambia un poco.
18:36
And that's the truth. Thank you.
445
1101000
3000
Ésa es la verdad. Gracias.
18:39
(Applause)
446
1104000
5000
(Aplausos)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com