TEDGlobal 2011
Pamela Meyer: How to spot a liar
Pamela Meyer: Hogyan vegyük észre, ha valaki hazudik?
Filmed:
Readability: 3.8
28,415,176 views
Bármely tetszőleges napon 10 és 200 közötti alkalommal hazudnak nekünk, és a nyomok, amik alapján azokat a hazugságokat felismerhetjük, alig láthatóak és nem maguktól értetődőek. Pamela Meyer, a "Liespotting" című könyv szerzője megmutatja a viselkedési módokat és az árulkodó jeleket, melyeket azok használnak, akik megtanulták felfedni a félrevezetést -- és érvei szerint az őszinteség olyan érték, melyet érdemes megőrizni.
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
Nos, nem akarok senkit megijeszteni ebben a teremben,
00:20
but it's just come to my attention
1
5000
2000
de most vettem észre,
00:22
that the person to your right is a liar.
2
7000
2000
hogy az aki az ön jobbján ül, hazudós.
00:24
(Laughter)
3
9000
2000
(Nevetés)
00:26
Also, the person to your left is a liar.
4
11000
3000
Valamint a balján ülő személy is hazudós.
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
Továbbá az a személy is, aki az ön helyén ül, hazudós.
00:32
We're all liars.
6
17000
2000
Mindannyian hazudunk.
00:34
What I'm going to do today
7
19000
2000
Amit ma fogok csinálni az az,
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
hogy megmutatom, mit mondanak a kutatások arról, hogy miért vagyunk mind hazugok,
00:39
how you can become a liespotter
9
24000
2000
hogyan fedezhetik fel a hazugságot,
00:41
and why you might want to go the extra mile
10
26000
3000
és miért érdemes megtenni az extra erőfeszítést
00:44
and go from liespotting to truth seeking,
11
29000
3000
és hazugságfigyelőből igazságkeresővé válni,
00:47
and ultimately to trust building.
12
32000
2000
és végül bizalmat építeni.
00:49
Now speaking of trust,
13
34000
3000
A bizalomról beszélve,
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
amióta megírtam a "Liespotting" című könyvet,
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
senki sem akar már személyesen találkozni velem, nem, nem.
00:58
They say, "It's okay, we'll email you."
16
43000
3000
Azt mondják: "Rendben van, elküldjük e-mailben."
01:01
(Laughter)
17
46000
2000
(Nevetés)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
Még csak egy kávéra sem tudom meghívatni magam a Starbucksba.
01:07
My husband's like, "Honey, deception?
19
52000
2000
A férjem szerint: "Drágám, megtévesztés?
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
Talán foglalkozhattál volna főzéssel! Például a francia konyhával!"
01:12
So before I get started, what I'm going to do
21
57000
2000
Szóval mielőtt elkezdem, amit csinálni fogok,
01:14
is I'm going to clarify my goal for you,
22
59000
3000
tisztázom a célomat az önök számára,
01:17
which is not to teach a game of Gotcha.
23
62000
2000
ami nem egy "Megvagy!" játék megtanítása.
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
A hazugságfigyelők nem azok a szőrszálhasogató kölykök,
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
azok a gyerekek a szoba végében, akik azt kiabálják: "Megvagy! Megvagy!
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
A szemöldököd megrándult. Az orrlyukad kitágult.
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
Én nézem a "Hazudj, ha tudsz!" sorozatot. Tudom, hogy hazudsz!"
01:30
No, liespotters are armed
28
75000
2000
Nem, a hazugságfigyelők fegyverei
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
tudományos ismeretek arról, hogyan vegyék észre a megtévesztést.
01:35
They use it to get to the truth,
30
80000
2000
Azért használják, hogy eljussanak az igazságig,
01:37
and they do what mature leaders do everyday;
31
82000
2000
és azt teszik, amit érett vezetők tesznek minden nap:
01:39
they have difficult conversations with difficult people,
32
84000
3000
nehéz beszélgetéseket folytatnak nehéz emberekkel,
01:42
sometimes during very difficult times.
33
87000
2000
néha nagyon nehéz időkben.
01:44
And they start up that path
34
89000
2000
Ezen az úton úgy indulnak el,
01:46
by accepting a core proposition,
35
91000
2000
hogy elfogadnak egy alapvető tételt,
01:48
and that proposition is the following:
36
93000
2000
amely tétel a következő:
01:50
Lying is a cooperative act.
37
95000
3000
A hazugság együttműködésen alapuló cselekedet.
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
Gondoljunk bele, egy hazugságnak nincs semmilyen hatása, pusztán megnyilvánulása által.
01:57
Its power emerges
39
102000
2000
A hatás akkor jön létre, amikor
01:59
when someone else agrees to believe the lie.
40
104000
2000
valaki vállalja, hogy elhiszi a hazugságot.
02:01
So I know it may sound like tough love,
41
106000
2000
Tudom, úgy hangzik ez, mint egy szigorú szülő,
02:03
but look, if at some point you got lied to,
42
108000
4000
de nézzék, ha valaha hazudtak önöknek, az azért volt,
02:07
it's because you agreed to get lied to.
43
112000
2000
mert önök belementek abba, hogy hazudhassanak önöknek.
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
Az egyes számú igazság a hazugságról: A hazugság együttműködésen alapuló cselekedet.
02:12
Now not all lies are harmful.
45
117000
2000
Nos, nem minden hazugság káros.
02:14
Sometimes we're willing participants in deception
46
119000
3000
Néha önkéntes résztvevői vagyunk a félrevezetésnek,
02:17
for the sake of social dignity,
47
122000
3000
a társadalmi méltóság kedvéért,
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
talán, hogy egy titkot megőrizzünk, aminek titokban kell maradnia.
02:23
We say, "Nice song."
49
128000
2000
Azt mondjuk, "De szép dal!"
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
"Drágám, nem nézel ki kövéren abban, nem."
02:28
Or we say, favorite of the digiratti,
51
133000
2000
Vagy azt mondjuk, a digitális elit kedvence,
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
"Tudja, csak most találtam meg azt az e-mailt a spam mappámban.
02:33
So sorry."
53
138000
3000
Úgy sajnálom!"
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
De előfordul, hogy önkéntelen résztvevői vagyunk a csalásnak.
02:39
And that can have dramatic costs for us.
55
144000
3000
És ez drámai következményekkel járhat számunkra.
02:42
Last year saw 997 billion dollars
56
147000
3000
Tavaly 997 milliárd dollárra volt tehető
02:45
in corporate fraud alone in the United States.
57
150000
4000
a vállalati csalások értéke, egyedül az Egyesült Államokban.
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
Ez hajszál híján egybillió dollár.
02:51
That's seven percent of revenues.
59
156000
2000
Ez hét százaléka a bevételeknek.
02:53
Deception can cost billions.
60
158000
2000
A megtévesztés milliárdokba kerülhet.
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
Gondoljanak csak az Enronra, Madoffra, a jelzálogpiaci válságra.
02:58
Or in the case of double agents and traitors,
62
163000
3000
Vagy a kettős ügynökök és árulók esetében,
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
mint Robert Hanssen vagy Aldrich Ames,
03:03
lies can betray our country,
64
168000
2000
a hazugságok elárulják hazánkat,
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
veszélyeztetik biztonságunkat, aláássák a demokráciát,
03:08
they can cause the deaths of those that defend us.
66
173000
3000
azok halálát okozhatják, akik védelmeznek minket.
03:11
Deception is actually serious business.
67
176000
3000
A csalás valójában komoly dolog.
03:14
This con man, Henry Oberlander,
68
179000
2000
Ez a szélhámos, Henry Oberlander,
03:16
he was such an effective con man
69
181000
2000
olyan hatékony szélhámos volt,
03:18
British authorities say
70
183000
2000
hogy a brit hatóságok szerint
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
felboríthatta volna az egész nyugati világ bankrendszerét.
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
És nem fogják megtalálni a Google-ön; nem fogják megtalálni sehol.
03:25
He was interviewed once, and he said the following.
73
190000
3000
Egyszer meginterjúvolták, és a következőket mondta.
03:28
He said, "Look, I've got one rule."
74
193000
2000
Azt mondta: "Nézzék, egy szabályom van."
03:30
And this was Henry's rule, he said,
75
195000
3000
És ez volt Henry szabálya: azt mondta,
03:33
"Look, everyone is willing to give you something.
76
198000
2000
"Nézzék, mindenki hajlandó adni valamit.
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
Készen állnak arra, hogy adjanak valamit cserébe azért, amire éheznek."
03:38
And that's the crux of it.
78
203000
2000
És ez a dolog lényege.
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
Ha nem akarják, hogy becsapják önöket, tudniuk kell,
03:42
what is it that you're hungry for?
80
207000
2000
hogy mi az, amire éheznek?
03:44
And we all kind of hate to admit it.
81
209000
3000
És igazán mindannyian utáljuk bevallani.
03:47
We wish we were better husbands, better wives,
82
212000
3000
Szeretnénk jobb férjek, jobb feleségek lenni,
03:50
smarter, more powerful,
83
215000
2000
okosabbak, erősebbek,
03:52
taller, richer --
84
217000
2000
magasabbak, gazdagabbak...;
03:54
the list goes on.
85
219000
2000
a lista folytatódik.
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
A hazugság egy kísérlet arra, hogy ezt a szakadékot áthidaljuk,
03:58
to connect our wishes and our fantasies
87
223000
2000
hogy összekössük kívánságainkat és fantáziáinkat
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
arról, hogy kik szeretnénk lenni, vagy mivé válni,
04:03
with what we're really like.
89
228000
3000
azzal, amik igazán vagyunk.
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
És hajlandóak vagyunk feltölteni azt a szakadékot életünkben hazugságokkal.
04:09
On a given day, studies show that you may be lied to
91
234000
3000
Egy tetszőleges napon, a tanulmányok szerint, önöknek
04:12
anywhere from 10 to 200 times.
92
237000
2000
valahol 10 és 200 közötti alkalommal hazudnak.
04:14
Now granted, many of those are white lies.
93
239000
3000
Természetesen ezek nagy része jó szándékú füllentés.
04:17
But in another study,
94
242000
2000
De egy másik tanulmány
04:19
it showed that strangers lied three times
95
244000
2000
azt mutatta, hogy idegenek háromszor annyit hazudtak
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
a találkozásuk első 10 percében.
04:23
(Laughter)
97
248000
2000
(Nevetés)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
Nos, amikor először halljuk ezeket adatokat, visszahőkölünk.
04:28
We can't believe how prevalent lying is.
99
253000
2000
Nem tudjuk elhinni, hogy ennyire elterjedt dolog hazudni.
04:30
We're essentially against lying.
100
255000
2000
Alapvetően hazugságellenesek vagyunk.
04:32
But if you look more closely,
101
257000
2000
De ha megnézik közelebbről,
04:34
the plot actually thickens.
102
259000
2000
a cselszövés egyre sűrűbb lesz.
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
Többet hazudunk idegeneknek, mint a munkatársainknak.
04:39
Extroverts lie more than introverts.
104
264000
4000
Az extrovertáltak többet hazudnak, mint az introvertáltak.
04:43
Men lie eight times more about themselves
105
268000
3000
A férfiak nyolcszor többet hazudnak magukról,
04:46
than they do other people.
106
271000
2000
mint másokról.
04:48
Women lie more to protect other people.
107
273000
3000
A nők többet hazudnak mások védelme érdekében.
04:51
If you're an average married couple,
108
276000
3000
Aki egy átlagos házaspár tagja,
04:54
you're going to lie to your spouse
109
279000
2000
hazudni fog a házastársának
04:56
in one out of every 10 interactions.
110
281000
2000
minden 10 érintkezésből egyszer.
04:58
Now you may think that's bad.
111
283000
2000
Most azt gondolhatják, hogy ez rossz.
05:00
If you're unmarried, that number drops to three.
112
285000
2000
Ha nem házasok, ez a szám lecsökken háromra.
05:02
Lying's complex.
113
287000
2000
A hazugság bonyolult.
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
Átszövi mindennapi és üzleti életünket.
05:07
We're deeply ambivalent about the truth.
115
292000
2000
Mélyen ambivalens kapcsolatban vagyunk az igazsággal.
05:09
We parse it out on an as-needed basis,
116
294000
2000
A szükségnek megfelelően szűrjük ki,
05:11
sometimes for very good reasons,
117
296000
2000
néha nagyon jó okkal,
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
máskor csak azért, mert nem értjük a hiányosságokat az életünkben.
05:16
That's truth number two about lying.
119
301000
2000
Ez a kettes számú igazság a hazugságról.
05:18
We're against lying,
120
303000
2000
A hazugság ellen vagyunk,
05:20
but we're covertly for it
121
305000
2000
de titokban támogatjuk
05:22
in ways that our society has sanctioned
122
307000
2000
oly módokon, amit társadalmunk büntetett
05:24
for centuries and centuries and centuries.
123
309000
2000
évszázadok és évszázadok óta.
05:26
It's as old as breathing.
124
311000
2000
Olyan régi ez, mint a légzés.
05:28
It's part of our culture, it's part of our history.
125
313000
2000
Része a kultúránknak, része a történelmünknek.
05:30
Think Dante, Shakespeare,
126
315000
3000
Gondoljanak Dantére, Shakespeare-re,
05:33
the Bible, News of the World.
127
318000
3000
a Bibliára, a News of the Worldre.
05:36
(Laughter)
128
321000
2000
(Nevetés)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
A hazugság evolúciós értékkel bír fajunk számára.
05:40
Researchers have long known
130
325000
2000
A kutatók már régóta tudják,
05:42
that the more intelligent the species,
131
327000
2000
hogy minél intelligensebb egy faj,
05:44
the larger the neocortex,
132
329000
2000
annál nagyobb az új agykérgük,
05:46
the more likely it is to be deceptive.
133
331000
2000
annál valószínűbb, hogy megtévesztők.
05:48
Now you might remember Koko.
134
333000
2000
Talán emlékeznek Kokóra.
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
Emlékszik még valaki Kokóra, a gorillára, akinek jelbeszédet tanítottak?
05:53
Koko was taught to communicate via sign language.
136
338000
3000
Kokót megtanították jelbeszéddel kommunikálni.
05:56
Here's Koko with her kitten.
137
341000
2000
Itt van Koko a kiscicájával.
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
Ez az ő aranyos, kis, bolyhos kiscicája.
06:01
Koko once blamed her pet kitten
139
346000
2000
Koko egyszer azzal vádolta a kiscicáját,
06:03
for ripping a sink out of the wall.
140
348000
2000
hogy kitépett egy mosdókagylót a falból.
06:05
(Laughter)
141
350000
2000
(Nevetés)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
Arra vagyunk tervezve, hogy falkavezérek legyünk.
06:09
It's starts really, really early.
143
354000
2000
Ez már nagyon, nagyon korán elkezdődik.
06:11
How early?
144
356000
2000
Mennyire korán?
06:13
Well babies will fake a cry,
145
358000
2000
Nos, a babák sírást imitálnak,
06:15
pause, wait to see who's coming
146
360000
2000
abbahagyják, megvárják ki jön,
06:17
and then go right back to crying.
147
362000
2000
majd visszatérnek a síráshoz.
06:19
One-year-olds learn concealment.
148
364000
2000
Az egyévesek megtanulják a dolgok eltitkolását.
06:21
(Laughter)
149
366000
2000
(Nevetés)
06:23
Two-year-olds bluff.
150
368000
2000
A kétévesek blöffölnek.
06:25
Five-year-olds lie outright.
151
370000
2000
Az ötévesek nyíltan hazudnak.
06:27
They manipulate via flattery.
152
372000
2000
A hízelgésen keresztül manipulálnak.
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
A kilencévesek az elfedés mesterei.
06:32
By the time you enter college,
154
377000
2000
Mire főiskolára kerülnek,
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
minden ötből egy érintkezésben hazudni fognak az édesanyjuknak.
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
Mire belépünk a munka világába és családfenntartók leszünk,
06:40
we enter a world that is just cluttered
157
385000
2000
egy olyan világba lépünk, ami tele van
06:42
with spam, fake digital friends,
158
387000
2000
kéretlen levelekkel, hamis digitális barátokkal,
06:44
partisan media,
159
389000
2000
partizánmédiával,
06:46
ingenious identity thieves,
160
391000
2000
zseniális identitástolvajokkal,
06:48
world-class Ponzi schemers,
161
393000
2000
világszínvonalú piramisjátékosokkal,
06:50
a deception epidemic --
162
395000
2000
egy csalásjárvány --
06:52
in short, what one author calls
163
397000
2000
röviden, amit egy szerző úgy hív:
06:54
a post-truth society.
164
399000
3000
a "poszt-igazmondó" társadalom.
06:57
It's been very confusing
165
402000
2000
Ez már nagyon zavaros
06:59
for a long time now.
166
404000
3000
hosszú idő óta.
07:03
What do you do?
167
408000
2000
Mit tegyenek?
07:05
Well there are steps we can take
168
410000
2000
Nos, vannak olyan lépések amelyeket megtéve
07:07
to navigate our way through the morass.
169
412000
2000
átnavigálhatjuk magunkat a fertőn.
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
Képzett hazugságfigyelők eljutnak az igazságig az esetek 90%-ában.
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
Mi többiek, csak 54%-ban vagyunk pontosak.
07:15
Why is it so easy to learn?
172
420000
2000
Miért olyan könnyű megtanulni?
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
Vannak jól hazudók, és rosszul hazudók. Nincsenek igazi, született hazudók.
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
Mindannyian ugyanazokat a hibákat követjük el. Mindannyian ugyanazokat a trükköket használjuk.
07:23
So what I'm going to do
175
428000
2000
Szóval amit csinálni fogok:
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
megmutatok két megtévesztési mintázatot.
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
Ezután ránézünk az árulkódó jelekre, és megnézzük, meg tudjuk-e találni őket magunktól.
07:30
We're going to start with speech.
178
435000
3000
A beszéddel kezdjük.
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
(Videó) Bill Clinton: Azt akarom, hogy meghallgassanak.
07:35
I'm going to say this again.
180
440000
2000
Még egyszer elmondom.
07:37
I did not have sexual relations
181
442000
3000
Nem volt szexuális kapcsolatom
07:40
with that woman, Miss Lewinsky.
182
445000
4000
azzal a nővel, Lewinsky kisasszonnyal.
07:44
I never told anybody to lie,
183
449000
2000
Soha nem mondtam senkinek, hogy hazudjon,
07:46
not a single time, never.
184
451000
2000
egyetlen egyszer sem, soha.
07:48
And these allegations are false.
185
453000
3000
És ezek az állítások hamisak.
07:51
And I need to go back to work for the American people.
186
456000
2000
És vissza kell mennem, hogy az amerikai nép számára dolgozzam.
07:53
Thank you.
187
458000
2000
Köszönöm.
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
Pamela Meyer: Oké, melyek voltak az árulkodó jelek?
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
Először is amit hallottunk, az úgy ismert [az angol nyelvtanban] mint a teljes alakos tagadás.
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
Tanulmányok azt mutatják, hogy azok, akik túl elszántak a tagadásukban,
08:08
will resort to formal rather than informal language.
191
473000
3000
inkább a formális nyelvet alkalmazzák, semmint az informálisat.
08:11
We also heard distancing language: "that woman."
192
476000
3000
Hallottunk távolságtartó nyelvhasználatot is: "azzal a nővel."
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
Tudjuk, hogy akik hazudnak, öntudatlanul elhatárolják magukat
08:16
from their subject
194
481000
2000
az alanyuktól,
08:18
using language as their tool.
195
483000
3000
a nyelvet eszközükként használva.
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
Most, ha Bill Clinton azt mondta volna: "Nos, az igazat megvallva..."
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
vagy Richard Nixon kedvence, "Teljes őszinteséggel szólva..."
08:26
he would have been a dead giveaway
198
491000
2000
teljesen felfedte volna magát
08:28
for any liespotter than knows
199
493000
2000
minden hazugságfigyelőnek, aki tudja,
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
hogy a minősítő nyelv, ahogy hívják, az ilyen minősítő nyelv,
08:33
further discredits the subject.
201
498000
2000
további kétségbe vonja a kérdéses személyt.
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
Most, ha megismételte volna a kérdést teljes egészében,
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
vagy ha kiszínezte volna a történetét egy kicsit túl sok részlettel --
08:42
and we're all really glad he didn't do that --
204
507000
2000
és mindannyian nagyon örülünk neki, hogy nem tette meg --
08:44
he would have further discredited himself.
205
509000
2000
még inkább lejáratta volna magát.
08:46
Freud had it right.
206
511000
2000
Freudnak igaza volt.
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
Freud azt mondta, nézzék, ez sokkal többről szól, mint csak a beszéd:
08:51
"No mortal can keep a secret.
208
516000
3000
"Egyetlen halandó sem tud titkot tartani.
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
Ha a szája néma, az ujjai fecsegnek."
08:57
And we all do it no matter how powerful you are.
210
522000
3000
És mindannyian megtesszük, nem számít, ki mennyire erős.
09:00
We all chatter with our fingertips.
211
525000
2000
Mindannyian fecsegünk az ujjainkkal.
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
Megmutatom Dominique Strauss-Kahnt Obamával,
09:05
who's chattering with his fingertips.
213
530000
3000
aki az ujjaival fecseg.
09:08
(Laughter)
214
533000
3000
(Nevetés)
09:11
Now this brings us to our next pattern,
215
536000
3000
Nos, ez elvezet minket a következő mintánkhoz,
09:14
which is body language.
216
539000
3000
ami a testbeszéd.
09:17
With body language, here's what you've got to do.
217
542000
3000
Íme itt van, mit kell a testbeszéddel tenniük.
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
Ténylegesen dobják ki a feltevéseiket az ablakon!
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
Hagyják, hogy a tudomány megedzze a tudásukat egy kicsit.
09:25
Because we think liars fidget all the time.
220
550000
3000
Mert úgy gondoljuk, a hazudók izegnek-mozognak egész idő alatt.
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
Tudják mit? Arról ismerszenek meg, hogy megmerevedik a felső testük, amikor hazudnak.
09:31
We think liars won't look you in the eyes.
222
556000
3000
Úgy gondoljuk, akik hazudnak, nem néznek a szemünkbe.
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
Tudják mit? Egy kicsit túl sokat is a szemünkbe néznek,
09:36
just to compensate for that myth.
224
561000
2000
csak hogy kompenzálják ezt a mítoszt.
09:38
We think warmth and smiles
225
563000
2000
Úgy gondoljuk, a melegség és mosoly
09:40
convey honesty, sincerity.
226
565000
2000
a becsületesség és őszinteség közvetítése.
09:42
But a trained liespotter
227
567000
2000
De egy képzett hazugságfigyelő
09:44
can spot a fake smile a mile away.
228
569000
2000
már kilométerekről észrevesz egy hamis mosolyt.
09:46
Can you all spot the fake smile here?
229
571000
3000
Mindannyian észreveszik itt a hamis mosolyt?
09:50
You can consciously contract
230
575000
2000
Össze tudják húzni tudatosan
09:52
the muscles in your cheeks.
231
577000
3000
az arcizmaikat.
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
De az igazi mosoly a szemekben rejlik, a szarkalábakban.
09:58
They cannot be consciously contracted,
233
583000
2000
Ezeket nem lehet tudatosan összehúzni,
10:00
especially if you overdid the Botox.
234
585000
2000
különösen, ha túlzásba vitték a Botoxot.
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
Ne vigyék túlzásba a Botoxot; senki sem fogja elhinni, hogy őszinték.
10:05
Now we're going to look at the hot spots.
236
590000
2000
Most megnézzük az árulkodó jeleket.
10:07
Can you tell what's happening in a conversation?
237
592000
2000
Meg tudják mondani, mi történik a beszélgetés alatt?
10:09
Can you start to find the hot spots
238
594000
3000
Meg tudják találni az árulkodó jeleket
10:12
to see the discrepancies
239
597000
2000
az eltérésekről
10:14
between someone's words and someone's actions?
240
599000
2000
valakinek a szavai és cselekedetei között?
10:16
Now I know it seems really obvious,
241
601000
2000
Tudom, tényleg nyilvánvalónak tűnik,
10:18
but when you're having a conversation
242
603000
2000
de amikor beszélgetnek
10:20
with someone you suspect of deception,
243
605000
3000
valakivel, akiről azt gyanítják, megtévesztő,
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
a hozzáállás messze a leginkább figyelmen kívül hagyott, de a legárulkodóbb.
10:26
An honest person is going to be cooperative.
245
611000
2000
A becsületes ember együttműködő lesz.
10:28
They're going to show they're on your side.
246
613000
2000
Azt fogják mutatni, hogy az önök oldalán áll.
10:30
They're going to be enthusiastic.
247
615000
2000
Lelkesek lesznek.
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
Hajlandóak és segítőkészek lesznek, hogy az igazságot kideríthessék.
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
Hajlandóak lesznek ötletelni, gyanúsítottakat megnevezni,
10:37
provide details.
250
622000
2000
részleteket adni.
10:39
They're going to say, "Hey,
251
624000
2000
Azt fogják mondani: "Hé,
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
talán azok a fickók a bérszámfejtésről hamisították meg a csekkeket!"
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
Dühösek lesznek, ha úgy érzik, tévesen vádolták meg őket,
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
az egész meghallgatás során, nem csak időnként;
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
dühösek lesznek az egész meghallgatás alatt.
10:52
And if you ask someone honest
256
637000
2000
És ha megkérdeznek valakit, aki őszinte,
10:54
what should happen to whomever did forge those checks,
257
639000
3000
hogy mi történjen azokkal, akik a csekkeket hamisították,
10:57
an honest person is much more likely
258
642000
2000
egy becsületes ember sokkal valószínűbb,
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
hogy szigorú büntetést fog ajánlani enyébb helyett.
11:03
Now let's say you're having that exact same conversation
260
648000
2000
Most tegyük fel, hogy pontosan ugyanazt a beszélgetést folytatják
11:05
with someone deceptive.
261
650000
2000
valakivel, aki megtévesztő.
11:07
That person may be withdrawn,
262
652000
2000
Ez a személy lehet, hogy visszahúzódik,
11:09
look down, lower their voice,
263
654000
2000
lefelé néz, halkabban beszél,
11:11
pause, be kind of herky-jerky.
264
656000
2000
szünetet tart, csapong.
11:13
Ask a deceptive person to tell their story,
265
658000
2000
Kérjenek meg egy csalót, hogy mondja el a történetét,
11:15
they're going to pepper it with way too much detail
266
660000
3000
túl sok részlettel fogják kiszínezni,
11:18
in all kinds of irrelevant places.
267
663000
3000
mindenféle lényegtelen helyeken.
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
Majd szigorú időrendi sorrendben fogják a történetüket előadni.
11:24
And what a trained interrogator does
269
669000
2000
És amit egy képzett kihallgató tesz,
11:26
is they come in and in very subtle ways
270
671000
2000
az, hogy jön és nagyon finom módon
11:28
over the course of several hours,
271
673000
2000
egy több órás folyamatban,
11:30
they will ask that person to tell that story backwards,
272
675000
3000
megkéri azt a személyt, hogy mondja el a történetét visszafelé,
11:33
and then they'll watch them squirm,
273
678000
2000
és figyeli, ahogy fészkelődik,
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
és jegyzi, mely kérdések produkálták a legtöbb árulkodó jelet.
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
Miért teszik ezt? Nos, mindannyian ugyanezt csináljuk.
11:41
We rehearse our words,
276
686000
2000
Elpróbáljuk a szavainkat,
11:43
but we rarely rehearse our gestures.
277
688000
2000
de ritkán próbáljuk el a gesztusainkat.
11:45
We say "yes," we shake our heads "no."
278
690000
2000
Azt mondjuk, "igen", közben rázzuk a fejünket, hogy "nem".
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
Nagyon meggyőző történeteket adunk elő, kis vállrándításokkal.
11:50
We commit terrible crimes,
280
695000
2000
Szörnyű bűncselekményeket követünk el,
11:52
and we smile at the delight in getting away with it.
281
697000
3000
és mosolygunk annak örömén, hogy megússzuk.
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
Az a mosoly úgy ismert a szakmában mint a "rászedés öröme".
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
És majd látni fogjuk több videóban később,
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
de amivel kezdünk, -- azoknak, akik nem ismerik őt,
12:03
this is presidential candidate John Edwards
285
708000
3000
ez John Edwards elnökjelölt,
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
aki egy házasságon kívüli gyermekkel sokkolta Amerikát.
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
Látni fogjuk őt beszélni egy apasági tesztről.
12:12
See now if you can spot him
288
717000
2000
Lássuk, észreveszik-e
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
amikor "igent" mond, miközben a fejét rázva "nemet",
12:16
slightly shrugging his shoulders.
290
721000
2000
és enyhén vállat von.
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
(Video) John Edwards: Szívesen részt veszek egyben.
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
Tudom, hogy nem lehetséges, hogy ez a gyerek az enyém,
12:23
because of the timing of events.
293
728000
2000
az események időzítése miatt.
12:25
So I know it's not possible.
294
730000
2000
Szóval tudom, hogy nem lehetséges.
12:27
Happy to take a paternity test,
295
732000
2000
Boldogan csináltatok apasági tesztet,
12:29
and would love to see it happen.
296
734000
2000
és szeretném látni, hogy megtörténik.
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
Riporter: Gyorsan megcsinája? Van-e valaki --
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
JE: Nos, én csak az egyik oldal vagyok. Én csak az egyik oldala vagyok a vizsgálatnak.
12:37
But I'm happy to participate in one.
299
742000
3000
De örülök, hogy részt vehetek egyben.
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
PM: Rendben, azokat a fejrázásokat sokkal könnyebb észrevenni,
12:42
once you know to look for them.
301
747000
2000
ha tudják, hogy keresni kell.
12:44
There're going to be times
302
749000
2000
Lesznek alkalmak,
12:46
when someone makes one expression
303
751000
2000
amikor valaki mutat egy kifejezést,
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
hogy elfedjen egy másikat, ami valahogy átszivárog egy szempillantás alatt.
12:52
Murderers are known to leak sadness.
305
757000
2000
Ismert, hogy a gyilkosok szomorúságot szivárogtatnak.
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
Az új, közös vállalati partnerük lehet, hogy kezet ráz,
12:56
celebrate, go out to dinner with you
307
761000
2000
ünnepel, elmegy önökkkel vacsorázni,
12:58
and then leak an expression of anger.
308
763000
3000
majd harag szivárog át a kifejezésein.
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
Nem fogunk mind arckifejezés-szakértővé válni egyik napról a másikra,
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
de egyet meg tudok tanítani, ami nagyon veszélyes, és könnyen megtanulható.
13:07
and that's the expression of contempt.
311
772000
3000
Ez a megvetés kifejezése.
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
Nos, a harag esetén, két ember játszik egyenlő pályán.
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
Ez még mindig egyfajta egészséges kapcsolat.
13:15
But when anger turns to contempt,
314
780000
2000
De amikor a harag megvetésbe fordul,
13:17
you've been dismissed.
315
782000
2000
akkor kiestek a képből.
13:19
It's associated with moral superiority.
316
784000
2000
Az erkölcsi fölényhez kapcsolódik.
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
És ezért, nagyon, nagyon nehéz talpra állni belőle.
13:24
Here's what it looks like.
318
789000
2000
Így néz ki.
13:26
It's marked by one lip corner
319
791000
2000
Jellegzetesen az ajak egyik sarka
13:28
pulled up and in.
320
793000
2000
föl- és behúzva.
13:30
It's the only asymmetrical expression.
321
795000
3000
Ez az egyetlen aszimmetrikus kifejezés.
13:33
And in the presence of contempt,
322
798000
2000
Ha a megvetés megjelenik,
13:35
whether or not deception follows --
323
800000
2000
függetlenül attól, hogy megtévesztés követi-e --
13:37
and it doesn't always follow --
324
802000
2000
és az nem minden esetben követi --
13:39
look the other way, go the other direction,
325
804000
2000
nézzenek a másik irányba, menjenek a másik irányba,
13:41
reconsider the deal,
326
806000
2000
vizsgálják felül az üzletet,
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
mondják, hogy: "Nem, köszönöm. Nem megyek fel még egy búcsúitalra. Köszönöm."
13:47
Science has surfaced
328
812000
2000
A tudomány felszínre hozott
13:49
many, many more indicators.
329
814000
2000
sok-sok más jelet is.
13:51
We know, for example,
330
816000
2000
Tudjuk például,
13:53
we know liars will shift their blink rate,
331
818000
2000
hogy a hazudók megváltoztatják pislogásaik arányát,
13:55
point their feet towards an exit.
332
820000
2000
a lábfejüket a kijárat felé irányítják.
13:57
They will take barrier objects
333
822000
2000
Akadályozó tárgyakat fognak
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
maguk és a kihallgató személy közé tenni.
14:02
They'll alter their vocal tone,
335
827000
2000
Megváltoztatják a hangszínüket,
14:04
often making their vocal tone much lower.
336
829000
3000
gyakran sokkal alacsonyabbra.
14:07
Now here's the deal.
337
832000
2000
Nos, a helyzet a következő.
14:09
These behaviors are just behaviors.
338
834000
3000
Ezek a viselkedések csak viselkedések.
14:12
They're not proof of deception.
339
837000
2000
Nem bizonyítják a hazugságot.
14:14
They're red flags.
340
839000
2000
Ezek apró jelek.
14:16
We're human beings.
341
841000
2000
Emberi lények vagyunk.
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
Megtévesztő, csapkodó gesztusokat csinálunk mindenfelé egész nap.
14:21
They don't mean anything in and of themselves.
343
846000
2000
Nem jelentenek semmit magukban.
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
De amikor csoportokban látják őket, az a jelzés.
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
Nézzék, hallgassák, szondázzák, kérdezzenek néhány kemény kérdést,
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
jöjjenek ki abból a "mi tudjuk" kényelmes módból,
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
menjenek át kíváncsiság módba, tegyenek fel még kérdéseket,
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
legyen egy kis méltóságuk, kezeljék a személyt, akivel éppen beszélnek, egyenrangúan.
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
Ne próbáljanak olyanok lenni, mint az emberek a "Különleges ügyosztályban" és az egyéb műsorokban,
14:41
that pummel their subjects into submission.
350
866000
2000
akik beledöngölik az alanyaikat a földbe.
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
Ne legyenek túl agresszívek, az nem működik.
14:46
Now we've talked a little bit
352
871000
2000
Most már beszéltünk egy kicsit
14:48
about how to talk to someone who's lying
353
873000
2000
arról, hogyan kell beszélni valakivel, aki hazudik,
14:50
and how to spot a lie.
354
875000
2000
és hogyan lehet észlelni a hazudozást.
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
És ahogy ígértem, most megnézzük, hogy néz ki az igazság.
14:55
But I'm going to show you two videos,
356
880000
2000
De két videót mutatok,
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
két anyát -- az egyik hazudik, a másik igazat mond.
15:00
And these were surfaced
358
885000
2000
Aki ezeket találta, az
15:02
by researcher David Matsumoto in California.
359
887000
2000
David Matsumoto kutató Kaliforniából.
15:04
And I think they're an excellent example
360
889000
2000
És azt hiszem, kiváló példái annak,
15:06
of what the truth looks like.
361
891000
2000
hogyan néz ki az igazság.
15:08
This mother, Diane Downs,
362
893000
2000
Ez az anya, Diane Downs,
15:10
shot her kids at close range,
363
895000
2000
közelről lelőtte a gyerekeit,
15:12
drove them to the hospital
364
897000
2000
a kórházba hajtott velük,
15:14
while they bled all over the car,
365
899000
2000
miközben az autóban véreztek,
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
majd azt állította, hogy egy kócos hajú idegen tette.
15:18
And you'll see when you see the video,
367
903000
2000
És látni fogják, amikor nézik a videót,
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
még csak eljátszani sem tudja az aggódó anyát.
15:22
What you want to look for here
369
907000
2000
Amit vegyenek észre itt,
15:24
is an incredible discrepancy
370
909000
2000
az egy hihetetlen ellentmondás
15:26
between horrific events that she describes
371
911000
2000
a szörnyű események, amiket elmesél,
15:28
and her very, very cool demeanor.
372
913000
2000
és a nagyon-nagyon hideg viselkedése között.
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
És ha jól megnézik, a rászedés örömét látják az egész videó alatt.
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
(Video) Diane Downs: Éjszaka, amikor becsukom a szemem,
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
látom, ahogy Christie kinyújtja értem a kezét, amíg vezetek,
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
és a vér csak ömlött ki a száján.
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
És ez -- talán majd elhalványul az idővel --
15:43
but I don't think so.
378
928000
2000
de én nem hiszem.
15:45
That bothers me the most.
379
930000
3000
Ez zavar engem a legjobban.
15:55
PM: Now I'm going to show you a video
380
940000
2000
PM: Most mutatok egy videót
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
egy ténylegesen gyászoló anyáról, Erin Runnionról,
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
aki szembeszáll lánya gyilkosával és kínzójával a bíróság előtt.
16:03
Here you're going to see no false emotion,
383
948000
2000
Itt nem fognak hamis érzelmeket látni,
16:05
just the authentic expression of a mother's agony.
384
950000
3000
csak a hiteles kifejezését egy anya szenvedésének.
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
(Video) Erin Runnion: Ezt a nyilatkozatot a harmadik évfordulóján írtam
16:10
of the night you took my baby,
386
955000
2000
annak az éjszakának, amikor elvitte a gyermekem,
16:12
and you hurt her,
387
957000
2000
fájdalmat okozott neki,
16:14
and you crushed her,
388
959000
2000
összetörte,
16:16
you terrified her until her heart stopped.
389
961000
4000
megrémítette, amíg a szíve megállt.
16:20
And she fought, and I know she fought you.
390
965000
3000
És ő harcolt, és tudom, hogy ő küzdött magával.
16:23
But I know she looked at you
391
968000
2000
De tudom, hogy magára nézett
16:25
with those amazing brown eyes,
392
970000
2000
azokkal a csodálatos barna szemekkel,
16:27
and you still wanted to kill her.
393
972000
3000
és maga még mindig meg akarta ölni.
16:30
And I don't understand it,
394
975000
2000
És én nem értem,
16:32
and I never will.
395
977000
3000
és soha nem is fogom.
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
PM: Rendben, nem lehet kételkedni az érzelmek valódiságában.
16:39
Now the technology around what the truth looks like
397
984000
3000
Nos, a technológia akörül, hogy az igazság hogyan néz ki,
16:42
is progressing on, the science of it.
398
987000
3000
fejlődik, a tudományos része.
16:45
We know for example
399
990000
2000
Tudjuk például, hogy
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
speciális szemmozgásfigyelőnk és infravörös agyi képalkotónk van,
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
MRI-nk, ami képes dekódolni a jeleket, amiket a testünk küld ki,
16:53
when we're trying to be deceptive.
402
998000
2000
amikor próbálunk megtéveszteni.
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
És ezek a technológiák úgy lesznek majd eladva mindnyájunknak,
16:58
as panaceas for deceit,
404
1003000
2000
mint csodaszerek a megtévesztés ellen,
17:00
and they will prove incredibly useful some day.
405
1005000
3000
és hihetetlenül hasznosak lesznek egy napon.
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
De addig is meg kell kérdeznünk magunktól:
17:05
Who do you want on your side of the meeting,
407
1010000
2000
Kit szeretnének az oldalukon egy megbeszélésen?
17:07
someone who's trained in getting to the truth
408
1012000
3000
Olyan embert, aki képzett abban, hogy felfedje az igazságot,
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
vagy egy olyat, aki egy 200 kilós elektroenkefalogramot
17:12
through the door?
410
1017000
2000
vonszol be az ajtón?
17:14
Liespotters rely on human tools.
411
1019000
4000
A hazuságfigyelők az emberi eszközökre támaszkodnak.
17:18
They know, as someone once said,
412
1023000
2000
Tudják, amit valaki egyszer mondott:
17:20
"Character's who you are in the dark."
413
1025000
2000
"A karakter az, aki a sötétben vagy."
17:22
And what's kind of interesting
414
1027000
2000
És ami érdekes,
17:24
is that today we have so little darkness.
415
1029000
2000
hogy ma már oly kevés sötétség van.
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
Világunk meg van világítva a nap 24 órájában.
17:29
It's transparent
417
1034000
2000
Átlátszó
17:31
with blogs and social networks
418
1036000
2000
a blogokkal és a közösségi hálózatokkal
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
egy teljesen új generáció zsongását közvetítve,
17:35
that have made a choice to live their lives in public.
420
1040000
3000
akik azt választották, hogy a nyilvánosság előtt éljék az életüket.
17:38
It's a much more noisy world.
421
1043000
4000
Ez egy sokkal zajosabb világ.
17:42
So one challenge we have
422
1047000
2000
Tehát az egyik kihívás az,
17:44
is to remember,
423
1049000
2000
hogy emlékezzünk,
17:46
oversharing, that's not honesty.
424
1051000
3000
a túlzott megosztás az nem az őszinteség.
17:49
Our manic tweeting and texting
425
1054000
2000
Mániás tweetelésünk és SMS küldésünk
17:51
can blind us to the fact
426
1056000
2000
elfedhetik előlünk azt a tényt,
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
hogy az emberi tisztesség finomságai -- a karakter tisztessége --
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
az ami számít, hogy mindig az fog számítani.
17:59
So in this much noisier world,
429
1064000
2000
Tehát ebben a zajosabb világban,
18:01
it might make sense for us
430
1066000
2000
talán van értelme számunkra,
18:03
to be just a little bit more explicit
431
1068000
2000
hogy egy kicsit konkrétabbak legyünk
18:05
about our moral code.
432
1070000
3000
az erkölcsi kódexünkről.
18:08
When you combine the science of recognizing deception
433
1073000
2000
Ha kombináljuk a tudományt a megtévesztés felismeréséhez
18:10
with the art of looking, listening,
434
1075000
2000
a figyelés és hallgatás művészetével,
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
akkor kivonjuk magunkat a hazugságban való együttműködésből.
18:15
You start up that path
436
1080000
2000
Elindulnak azon az úton,
18:17
of being just a little bit more explicit,
437
1082000
2000
amely csak egy picit konkrétabb,
18:19
because you signal to everyone around you,
438
1084000
2000
mert jelzik mindenkinek körülöttük,
18:21
you say, "Hey, my world, our world,
439
1086000
3000
azt mondják: "Hé, az én világom, a mi világunk,
18:24
it's going to be an honest one.
440
1089000
2000
becsületes lesz.
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
Az én világom olyan lesz, ahol az igazság megerősödik,
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
és a hazugságot felismerik és perifériára szorul."
18:31
And when you do that,
443
1096000
2000
És amikor ezt teszik,
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
a föld körülöttük egy kicsit megmoccan.
18:36
And that's the truth. Thank you.
445
1101000
3000
És ez az igazság. Köszönöm.
18:39
(Applause)
446
1104000
5000
(Taps)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com