TEDGlobal 2011
Pamela Meyer: How to spot a liar
Pamela Meijere: Kā atpazīt meli
Filmed:
Readability: 3.8
28,415,176 views
Dienā mums melo vidēji no 10 līdz 200 reizēm, un šo melu atklāšanas pavedieni var būt smalki un šķist pretēji mūsu intuīcijai. Pamela Meijere, grāmatas „Melu atpazīšana” autore, parāda paņēmienus un meļu raksturīgākās izpausmes, kuras apmācītie izmanto apmāna atpazīšanai, viņa arī apgalvo, ka godīgums ir saglabāšanas vērta īpašība.
Pamela Meyer - Lie detector
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Pamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth. Full bio
Double-click the English transcript below to play the video.
00:15
Okay, now I don't want to alarm anybody in this room,
0
0
5000
Es nevēlos satraukt kādu no klātesošajiem,
00:20
but it's just come to my attention
1
5000
2000
taču tikko esmu uzzinājusi,
00:22
that the person to your right is a liar.
2
7000
2000
ka jums pa labi sēdošais cilvēks ir melis.
00:24
(Laughter)
3
9000
2000
(Smiekli)
00:26
Also, the person to your left is a liar.
4
11000
3000
Arī jums pa kreisi sēdošais cilvēks ir melis.
00:29
Also the person sitting in your very seats is a liar.
5
14000
3000
Kā arī cilvēks, kas sēž jūsu pašu sēdvietās, ir melis.
00:32
We're all liars.
6
17000
2000
Mēs visi esam meļi.
00:34
What I'm going to do today
7
19000
2000
Es šodien pastāstīšu
00:36
is I'm going to show you what the research says about why we're all liars,
8
21000
3000
par pētījumu, kurā tiek runāts par to, kādēļ mēs visi esam meļi,
00:39
how you can become a liespotter
9
24000
2000
kā jūs varat kļūt par melu atpazinēju,
00:41
and why you might want to go the extra mile
10
26000
3000
un kādēļ jums labāk būtu vairāk papūlēties,
00:44
and go from liespotting to truth seeking,
11
29000
3000
no melu atpazīšanas nonākt līdz patiesības meklēšanai
00:47
and ultimately to trust building.
12
32000
2000
un beigu beigās arī uzticības iegūšanai.
00:49
Now speaking of trust,
13
34000
3000
Runājot par uzticību,
00:52
ever since I wrote this book, "Liespotting,"
14
37000
3000
kopš es sarakstīju grāmatu „Melu atpazīšana”,
00:55
no one wants to meet me in person anymore, no, no, no, no, no.
15
40000
3000
neviens vairs nevēlas ar mani personīgi satikties, nē, nē, nē, nē, nē.
00:58
They say, "It's okay, we'll email you."
16
43000
3000
Viņi saka: „Būs jau labi, mēs jums aizsūtīsim e-pastu.”
01:01
(Laughter)
17
46000
2000
(Smiekli)
01:03
I can't even get a coffee date at Starbucks.
18
48000
4000
Es pat vairs nevaru sarunāt satikšanos „Starbucks”.
01:07
My husband's like, "Honey, deception?
19
52000
2000
Mans vīrs ironizē: „Mīļā, nodevība?
01:09
Maybe you could have focused on cooking. How about French cooking?"
20
54000
3000
Varbūt tev vajadzēja koncentrēties uz kulināriju. Varbūt franču kulināriju?”
01:12
So before I get started, what I'm going to do
21
57000
2000
Pirms es sāku, es vēlos jums
01:14
is I'm going to clarify my goal for you,
22
59000
3000
izskaidrot savu mērķi,
01:17
which is not to teach a game of Gotcha.
23
62000
2000
kas nav iemācīt pieķeršanas spēli.
01:19
Liespotters aren't those nitpicky kids,
24
64000
2000
Melu atpazinēji nav piekasīgi bērneļi,
01:21
those kids in the back of the room that are shouting, "Gotcha! Gotcha!
25
66000
3000
bērneļi klases aizmugurē, kas bļauj: „Pieķēru! Pieķēru!”
01:24
Your eyebrow twitched. You flared your nostril.
26
69000
3000
Tev noraustījās uzacs. Tev notrīsēja nāsis.
01:27
I watch that TV show 'Lie To Me.' I know you're lying."
27
72000
3000
Es skatos seriālu „Melu teorija”. Es zinu, ka tu melo.”
01:30
No, liespotters are armed
28
75000
2000
Nē, melu atpazinēji ir bruņoti
01:32
with scientific knowledge of how to spot deception.
29
77000
3000
ar zinātniskām zināšanām par to, kā atpazīt nodevību.
01:35
They use it to get to the truth,
30
80000
2000
Viņi tās izmanto, lai nonāktu līdz patiesībai
01:37
and they do what mature leaders do everyday;
31
82000
2000
un viņi dara to, ko katru dienu dara nobrieduši vadītāji,
01:39
they have difficult conversations with difficult people,
32
84000
3000
viņiem ir sarežģītas sarunas ar sarežģītiem cilvēkiem,
01:42
sometimes during very difficult times.
33
87000
2000
bieži vien ļoti sarežģītos laikos.
01:44
And they start up that path
34
89000
2000
Viņi sāk šo ceļu,
01:46
by accepting a core proposition,
35
91000
2000
pieņemot pamatatzinumu,
01:48
and that proposition is the following:
36
93000
2000
un šis atzinums ir šāds:
01:50
Lying is a cooperative act.
37
95000
3000
Melošana ir divpusēja rīcība.
01:53
Think about it, a lie has no power whatsoever by its mere utterance.
38
98000
4000
Padomājiet par to, meliem nav vara, tiekot vienkārši izteiktiem.
01:57
Its power emerges
39
102000
2000
To vara rodas,
01:59
when someone else agrees to believe the lie.
40
104000
2000
kad kāds cits piekrīt noticēt šiem meliem.
02:01
So I know it may sound like tough love,
41
106000
2000
Saprotu, ka tas varētu skanēt skarbi,
02:03
but look, if at some point you got lied to,
42
108000
4000
bet paklau, ja jums kādu brīdi kāds melo,
02:07
it's because you agreed to get lied to.
43
112000
2000
tas ir tādēļ, ka jūs piekritāt tam, lai jums melotu.
02:09
Truth number one about lying: Lying's a cooperative act.
44
114000
3000
Galvenā patiesība par melošanu: Melošana ir divpusēja rīcība.
02:12
Now not all lies are harmful.
45
117000
2000
Ne visi meli, protams, ir kaitīgi.
02:14
Sometimes we're willing participants in deception
46
119000
3000
Dažkārt mēs labprātīgi piedalāmies mānīšanā
02:17
for the sake of social dignity,
47
122000
3000
sabiedriskās cieņas dēļ,
02:20
maybe to keep a secret that should be kept secret, secret.
48
125000
3000
lai, varbūt, noklusētu to, ko vajadzētu noklusēt.
02:23
We say, "Nice song."
49
128000
2000
Mēs sakām: „Jauka dziesma.”
02:25
"Honey, you don't look fat in that, no."
50
130000
3000
„Mīļā, tu šajā kleitā nepavisam neizskaties resna, nē.”
02:28
Or we say, favorite of the digiratti,
51
133000
2000
Vai arī digerati iecienītākais:
02:30
"You know, I just fished that email out of my spam folder.
52
135000
3000
„Es tavu e-pastu nupat izvilku no savas mēstuļu mapes.
02:33
So sorry."
53
138000
3000
Atvaino.”
02:36
But there are times when we are unwilling participants in deception.
54
141000
3000
Taču ir gadījumi, kad mēs nelabprātīgi iesaistāmies apmānā,
02:39
And that can have dramatic costs for us.
55
144000
3000
un par to mums var nākties maksāt dramatisku cenu.
02:42
Last year saw 997 billion dollars
56
147000
3000
Pērn ASV korporatīvajā krāpšanā
02:45
in corporate fraud alone in the United States.
57
150000
4000
vien zaudēja 997 miljardus dolāru.
02:49
That's an eyelash under a trillion dollars.
58
154000
2000
Tas, skatoties uz trim miljardiem dolāru, var šķist nieks.
02:51
That's seven percent of revenues.
59
156000
2000
Tie ir septiņi procenti ienākumu.
02:53
Deception can cost billions.
60
158000
2000
Apmāns var maksāt miljardus.
02:55
Think Enron, Madoff, the mortgage crisis.
61
160000
3000
Padomājiet, Enron, Meidofs, hipotēku krīze.
02:58
Or in the case of double agents and traitors,
62
163000
3000
Vai šajā gadījumā tādu dubultaģentu un nodevēju
03:01
like Robert Hanssen or Aldrich Ames,
63
166000
2000
kā Roberts Hansens vai Oldričs Eimss,
03:03
lies can betray our country,
64
168000
2000
meli var nodot mūsu valsti,
03:05
they can compromise our security, they can undermine democracy,
65
170000
3000
tie var apdraudēt mūsu drošību, tie vājina demokrātiju,
03:08
they can cause the deaths of those that defend us.
66
173000
3000
tie var izraisīt mūsu aizstāvju nāves.
03:11
Deception is actually serious business.
67
176000
3000
Apmāns patiesībā ir nopietna lieta.
03:14
This con man, Henry Oberlander,
68
179000
2000
Šis blēdis, Henrijs Oberlanders,
03:16
he was such an effective con man
69
181000
2000
viņš bija tik veiksmīgs krāpnieks, ka
03:18
British authorities say
70
183000
2000
britu varas iestādes apgalvo,
03:20
he could have undermined the entire banking system of the Western world.
71
185000
3000
ka viņš apdraudēja visu Rietumu pasaules banku sistēmu.
03:23
And you can't find this guy on Google; you can't find him anywhere.
72
188000
2000
Jūs viņu nevarat atrast Google; jūs viņu nevarat atrast nekur.
03:25
He was interviewed once, and he said the following.
73
190000
3000
Viņu vienreiz intervēja un viņš teica šādus vārdus.
03:28
He said, "Look, I've got one rule."
74
193000
2000
Viņš teica: „Klau, man ir viens likums.”
03:30
And this was Henry's rule, he said,
75
195000
3000
Tas ir Henrija likums, viņš teica:
03:33
"Look, everyone is willing to give you something.
76
198000
2000
„Ikviens jums ir gatavs kaut ko dot.
03:35
They're ready to give you something for whatever it is they're hungry for."
77
200000
3000
Viņi ir gatavi jums dot to, pēc kā paši alkst.”
03:38
And that's the crux of it.
78
203000
2000
Tā ir arī tā mācība.
03:40
If you don't want to be deceived, you have to know,
79
205000
2000
Ja nevēlaties tikt apmānīts, jums ir jāzina,
03:42
what is it that you're hungry for?
80
207000
2000
kas ir tas, ko alkstat?
03:44
And we all kind of hate to admit it.
81
209000
3000
Mums visiem ir grūti to atzīt.
03:47
We wish we were better husbands, better wives,
82
212000
3000
Mēs vēlamies kaut mēs būtu labāki vīri, labākas sievas,
03:50
smarter, more powerful,
83
215000
2000
gudrāki, varenāki,
03:52
taller, richer --
84
217000
2000
garāki, bagātāki
03:54
the list goes on.
85
219000
2000
un tā tālāk.
03:56
Lying is an attempt to bridge that gap,
86
221000
2000
Melošana ir mēģinājums tikt pāri šai aizai,
03:58
to connect our wishes and our fantasies
87
223000
2000
lai savienotu mūsu vēlmes un mūsu fantāzijas
04:00
about who we wish we were, how we wish we could be,
88
225000
3000
par to, kas mēs vēlamies būt, kādi mēs vēlamies būt
04:03
with what we're really like.
89
228000
3000
ar to, kādi mēs patiesībā esam.
04:06
And boy are we willing to fill in those gaps in our lives with lies.
90
231000
3000
Un jēziņ, cik ļoti mēs esam gatavi aizpildīt šīs plaisas ar meliem.
04:09
On a given day, studies show that you may be lied to
91
234000
3000
Pētījumi apgalvo, ka dienā mums var melot
04:12
anywhere from 10 to 200 times.
92
237000
2000
apmēram no 10 līdz 200 reizēm.
04:14
Now granted, many of those are white lies.
93
239000
3000
Protams, daudzi no tiem ir baltie meli.
04:17
But in another study,
94
242000
2000
Taču citā pētījumā
04:19
it showed that strangers lied three times
95
244000
2000
ir minēts, ka svešinieki meloja vidēji trīs reizes
04:21
within the first 10 minutes of meeting each other.
96
246000
2000
pirmajās 10 satikšanās minūtēs.
04:23
(Laughter)
97
248000
2000
(Smiekli)
04:25
Now when we first hear this data, we recoil.
98
250000
3000
Mums pirmo reizi dzirdot šos datus, mēs esam šokēti.
04:28
We can't believe how prevalent lying is.
99
253000
2000
Mēs nespējam noticēt tam, cik melošana ir izplatīta.
04:30
We're essentially against lying.
100
255000
2000
Mēs būtībā esam pret melošanu.
04:32
But if you look more closely,
101
257000
2000
Taču, ja ieskatāties vērīgāk,
04:34
the plot actually thickens.
102
259000
2000
viss šķietamais sarežģās.
04:36
We lie more to strangers than we lie to coworkers.
103
261000
3000
Mēs vairāk melojam svešiniekiem kā kolēģiem.
04:39
Extroverts lie more than introverts.
104
264000
4000
Ekstraverti cilvēki melo vairāk kā intraverti.
04:43
Men lie eight times more about themselves
105
268000
3000
Vīrieši melo astoņas reizes vairāk par sevi
04:46
than they do other people.
106
271000
2000
kā par citiem cilvēkiem.
04:48
Women lie more to protect other people.
107
273000
3000
Sievietes vairāk melo, lai pasargātu citus cilvēkus.
04:51
If you're an average married couple,
108
276000
3000
Ja jūs esat vidusmēra precēts pāris,
04:54
you're going to lie to your spouse
109
279000
2000
jūs melosit savam dzīvesbiedram
04:56
in one out of every 10 interactions.
110
281000
2000
katrā vienā no desmit saskarsmēm.
04:58
Now you may think that's bad.
111
283000
2000
Jums varētu šķist, ka tas ir traki.
05:00
If you're unmarried, that number drops to three.
112
285000
2000
Ja Jūs esat neprecējies, šis skaitlis samazinās līdz trīs.
05:02
Lying's complex.
113
287000
2000
Melošana ir sarežģīta.
05:04
It's woven into the fabric of our daily and our business lives.
114
289000
3000
Tā ir iepīta mūsu ikdienā un darba dzīvē.
05:07
We're deeply ambivalent about the truth.
115
292000
2000
Mēs patiesībā pret melošanu izturamies divējādi.
05:09
We parse it out on an as-needed basis,
116
294000
2000
Mēs nepieciešamības gadījumā melojam,
05:11
sometimes for very good reasons,
117
296000
2000
dažreiz pat ļoti labu iemeslu dēļ,
05:13
other times just because we don't understand the gaps in our lives.
118
298000
3000
tomēr citreiz tikai tāpēc, ka nespējam samierināties ar savas dzīves nepilnīgumu.
05:16
That's truth number two about lying.
119
301000
2000
Tā ir otrā patiesība par melošanu.
05:18
We're against lying,
120
303000
2000
Mēs esam pret melošanu,
05:20
but we're covertly for it
121
305000
2000
lai arī slepenībā atbalstam to
05:22
in ways that our society has sanctioned
122
307000
2000
tādos veidos, kādos sabiedrība gadsimtus
05:24
for centuries and centuries and centuries.
123
309000
2000
un gadsimtus ir atzinusi par pieņemamu.
05:26
It's as old as breathing.
124
311000
2000
Tā ir tikpat sena kā elpošana.
05:28
It's part of our culture, it's part of our history.
125
313000
2000
Tā ir daļa mūsu kultūras, tā ir daļa mūsu vēstures.
05:30
Think Dante, Shakespeare,
126
315000
3000
Padomājiet, Dante, Šekspīrs,
05:33
the Bible, News of the World.
127
318000
3000
Bībele, pasaules ziņas.
05:36
(Laughter)
128
321000
2000
(Smiekli)
05:38
Lying has evolutionary value to us as a species.
129
323000
2000
Melošanai ir arī evolucionāra vērtība mums kā sugai.
05:40
Researchers have long known
130
325000
2000
Zinātnieki jau sen ir pierādijuši,
05:42
that the more intelligent the species,
131
327000
2000
ka sugai esot saprātīgākai,
05:44
the larger the neocortex,
132
329000
2000
lielāka ir arī to smadzeņu jaunā garoza,
05:46
the more likely it is to be deceptive.
133
331000
2000
tās pārstāvjiem arī esot nodevīgākiem.
05:48
Now you might remember Koko.
134
333000
2000
Jūs varbūt atceraties Koko.
05:50
Does anybody remember Koko the gorilla who was taught sign language?
135
335000
3000
Vai kāds atceras Koko — gorillu, kurai iemācīja zīmju valodu?
05:53
Koko was taught to communicate via sign language.
136
338000
3000
Koko iemācīja sazināties ar zīmju valodas palīdzību.
05:56
Here's Koko with her kitten.
137
341000
2000
Lūk, Koko ar savu kaķēnu.
05:58
It's her cute little, fluffy pet kitten.
138
343000
3000
Tas ir viņas piemīlīgais, mazais, pūkainais kaķēna draugs.
06:01
Koko once blamed her pet kitten
139
346000
2000
Koko reiz vainoja kaķēnu
06:03
for ripping a sink out of the wall.
140
348000
2000
izlietnes izraušanā no sienas.
06:05
(Laughter)
141
350000
2000
(Smiekli)
06:07
We're hardwired to become leaders of the pack.
142
352000
2000
Mums ir ieprogrammēts kļūt par bara vadoņiem.
06:09
It's starts really, really early.
143
354000
2000
Tas sākas patiešām agrīni.
06:11
How early?
144
356000
2000
Cik agrīni?
06:13
Well babies will fake a cry,
145
358000
2000
Zīdaiņi izliekas raudam,
06:15
pause, wait to see who's coming
146
360000
2000
pārstāj, nogaida vai kāds nāk
06:17
and then go right back to crying.
147
362000
2000
un tad turpina raudāt.
06:19
One-year-olds learn concealment.
148
364000
2000
Viengadīgie bērni iemācās slēpšanu.
06:21
(Laughter)
149
366000
2000
(Smiekli)
06:23
Two-year-olds bluff.
150
368000
2000
Divgadīgie blefo.
06:25
Five-year-olds lie outright.
151
370000
2000
Piecgadīgie atklāti melo.
06:27
They manipulate via flattery.
152
372000
2000
Tie manipulē ar glaimiem.
06:29
Nine-year-olds, masters of the cover up.
153
374000
3000
Deviņgadīgie, noklusēšanas meistari.
06:32
By the time you enter college,
154
377000
2000
Līdz brīdim, kad jūs iestājaties koledžā,
06:34
you're going to lie to your mom in one out of every five interactions.
155
379000
3000
jūs melosit savai mātei vienā no katrām piecām saskarsmēm.
06:37
By the time we enter this work world and we're breadwinners,
156
382000
3000
Līdz tam brīdim, kad jūs sāksit strādāt, paši sevi apgādāt,
06:40
we enter a world that is just cluttered
157
385000
2000
jūs nokļūsiet pasaulē, kas ir pārbāzta
06:42
with spam, fake digital friends,
158
387000
2000
ar mēstulēm, neīstiem virtuāliem draugiem,
06:44
partisan media,
159
389000
2000
apmelojošiem plašsaziņas līdzekļiem,
06:46
ingenious identity thieves,
160
391000
2000
atjautīgiem identitāšu zagļiem
06:48
world-class Ponzi schemers,
161
393000
2000
pasaules klases Ponzi shēmotājiem,
06:50
a deception epidemic --
162
395000
2000
manīšanas epidēmiju,
06:52
in short, what one author calls
163
397000
2000
īsāk sakot, kā rakstnieks to sauc —
06:54
a post-truth society.
164
399000
3000
pēcpatiesības sabiedrība.
06:57
It's been very confusing
165
402000
2000
Šī mulsinošā situācija
06:59
for a long time now.
166
404000
3000
pastāv arī mūsdienās.
07:03
What do you do?
167
408000
2000
Ko iesākt?
07:05
Well there are steps we can take
168
410000
2000
Ir lietas, ko mēs varam darīt,
07:07
to navigate our way through the morass.
169
412000
2000
lai veiksmīgi lavierētu pa šo melu purvāju.
07:09
Trained liespotters get to the truth 90 percent of the time.
170
414000
3000
Apmācīti melu atpazinēji nonāk līdz patiesībai apmēram 90% gadījumu.
07:12
The rest of us, we're only 54 percent accurate.
171
417000
3000
Pārējiem no mums tas izdodas vidēji 54% gadījumu.
07:15
Why is it so easy to learn?
172
420000
2000
Kā to var tik vienkārši apgūt?
07:17
There are good liars and there are bad liars. There are no real original liars.
173
422000
3000
Ir labi meļi un ir slikti meļi. Taču nav tādi, kuriem tas būtu iedzimts.
07:20
We all make the same mistakes. We all use the same techniques.
174
425000
3000
Mēs visi pieļaujam vienas un tās pašas kļūdas un izmantojam vienus un tos pašus paņēmienus.
07:23
So what I'm going to do
175
428000
2000
Es jums parādīšu
07:25
is I'm going to show you two patterns of deception.
176
430000
2000
divus apmāna paraugus.
07:27
And then we're going to look at the hot spots and see if we can find them ourselves.
177
432000
3000
Mēs skatīsimies galvenās pazīmes un redzēsim, vai mēs tās varam atrast paši sevī.
07:30
We're going to start with speech.
178
435000
3000
Sāksim ar runu.
07:33
(Video) Bill Clinton: I want you to listen to me.
179
438000
2000
(Video) Bils Klintons: Es vēlos, lai jūs manī paklausītos.
07:35
I'm going to say this again.
180
440000
2000
Es teikšu vēlreiz.
07:37
I did not have sexual relations
181
442000
3000
Man nebija dzimumattiecības
07:40
with that woman, Miss Lewinsky.
182
445000
4000
ar šo sievieti, Levinskas jaunkundzi.
07:44
I never told anybody to lie,
183
449000
2000
Es nekad neesmu melojis,
07:46
not a single time, never.
184
451000
2000
ne reizi, nekad.
07:48
And these allegations are false.
185
453000
3000
Šīs apsūdzības ir nepatiesas.
07:51
And I need to go back to work for the American people.
186
456000
2000
Man ir jāatgriežas pie darba amerikāņu labā.
07:53
Thank you.
187
458000
2000
Paldies.
07:58
Pamela Meyer: Okay, what were the telltale signs?
188
463000
3000
Pamela Meijere: Labi, kas bija nododošās zīmes?
08:01
Well first we heard what's known as a non-contracted denial.
189
466000
4000
Labi, pirmo lietu, ko mēs dzirdējām, sauc par pārspīlēto noliegumu.
08:05
Studies show that people who are overdetermined in their denial
190
470000
3000
Pētījumi atklāj, ka cilvēki, kuri ir pārlieku apņēmušies noliegt
08:08
will resort to formal rather than informal language.
191
473000
3000
drīzāk lietos formālu valodu neformālās vietā.
08:11
We also heard distancing language: "that woman."
192
476000
3000
Mēs arī dzirdējām norobežošanos: „šo sievieti”.
08:14
We know that liars will unconsciously distance themselves
193
479000
2000
Mēs zinām, ka meļi zemapziņā norobežojas
08:16
from their subject
194
481000
2000
no sava subjekta,
08:18
using language as their tool.
195
483000
3000
tam izmantojot savu valodu.
08:21
Now if Bill Clinton had said, "Well, to tell you the truth ... "
196
486000
3000
Ja Bils Klintons būtu teicis: „Labi, ja godīgi ...”
08:24
or Richard Nixon's favorite, "In all candor ... "
197
489000
2000
vai arī Ričarda Niksona iecienītā frāze: „Visā patiesumā ... ”
08:26
he would have been a dead giveaway
198
491000
2000
tas būtu strupceļš
08:28
for any liespotter than knows
199
493000
2000
jebkuram melu atpazinējam, kurš pazīst
08:30
that qualifying language, as it's called, qualifying language like that,
200
495000
3000
tā saukto raksturojošo valodu, šāda veida raksturojošā valoda
08:33
further discredits the subject.
201
498000
2000
vēl vairāk diskreditē subjektu.
08:35
Now if he had repeated the question in its entirety,
202
500000
3000
Ja viņš būtu pilnībā atkārtojis uzdoto jautājumu
08:38
or if he had peppered his account with a little too much detail --
203
503000
4000
vai arī aizstāvībā bārstījies ar pārlieku daudz detaļām,
08:42
and we're all really glad he didn't do that --
204
507000
2000
labi, ka viņš tā nedarīja,
08:44
he would have further discredited himself.
205
509000
2000
viņš būtu vēl vairāk diskreditējies.
08:46
Freud had it right.
206
511000
2000
Freids pareizi teica.
08:48
Freud said, look, there's much more to it than speech:
207
513000
3000
Freids teica, jā, ir kas daudz svarīgāks par runāšanu:
08:51
"No mortal can keep a secret.
208
516000
3000
„Neviens mirstīgais nevar pie sevis paturēt noslēpumu.
08:54
If his lips are silent, he chatters with his fingertips."
209
519000
3000
Ja viņam ir sakniebtas lūpas, viņš visu izpauž ar saviem pirkstiem.”
08:57
And we all do it no matter how powerful you are.
210
522000
3000
Tā darām mēs visi, neatkarīgi no tā, cik stiprs esat.
09:00
We all chatter with our fingertips.
211
525000
2000
Mēs visi nododam sevi ar pirkstiem.
09:02
I'm going to show you Dominique Strauss-Kahn with Obama
212
527000
3000
Es jums parādīšu Dominiku Strosu-Kānu ar Obamu,
09:05
who's chattering with his fingertips.
213
530000
3000
kurš visu izpauž ar saviem pirkstiem.
09:08
(Laughter)
214
533000
3000
(Smiekli)
09:11
Now this brings us to our next pattern,
215
536000
3000
Mēs nonākam pie nākamajām pazīmēm,
09:14
which is body language.
216
539000
3000
kas ir ķermeņa valoda.
09:17
With body language, here's what you've got to do.
217
542000
3000
Runājot par ķermeņa valodu, lūk, kas jums ir jādara.
09:20
You've really got to just throw your assumptions out the door.
218
545000
3000
Jums patiesi ir jāatsakās no visiem jūsu pieņēmumiem.
09:23
Let the science temper your knowledge a little bit.
219
548000
2000
Lai zinātne nedaudz pārbauda jūsu zināšanas.
09:25
Because we think liars fidget all the time.
220
550000
3000
Jo mēs domājam, ka meļi uzvedas nemierīgi.
09:28
Well guess what, they're known to freeze their upper bodies when they're lying.
221
553000
3000
Ziniet ko, īstenībā viņi melojot sasprindzina ķermeņa augšdaļu.
09:31
We think liars won't look you in the eyes.
222
556000
3000
Mēs domājam, ka meļi neskatās jums acīs.
09:34
Well guess what, they look you in the eyes a little too much
223
559000
2000
Uzminiet nu, viņi skatās acīs mazliet pat par daudz,
09:36
just to compensate for that myth.
224
561000
2000
mēģinot atspēkot šo mītu.
09:38
We think warmth and smiles
225
563000
2000
Mēs uzskatām, ka atvērtība un smaidi
09:40
convey honesty, sincerity.
226
565000
2000
liecina par godīgumu, atklātību.
09:42
But a trained liespotter
227
567000
2000
Taču apmācīts melu atpazinējs
09:44
can spot a fake smile a mile away.
228
569000
2000
var ievērot neīstu smaidu jau pa gabalu.
09:46
Can you all spot the fake smile here?
229
571000
3000
Vai varat uzminēt, kurš ir neīstais smaids?
09:50
You can consciously contract
230
575000
2000
Jūs apzināti sasprindzināt
09:52
the muscles in your cheeks.
231
577000
3000
savus vaigu muskuļus.
09:55
But the real smile's in the eyes, the crow's feet of the eyes.
232
580000
3000
Taču īstais smaids ir acīs, ap acīm esošajām „vārnu kājiņām”.
09:58
They cannot be consciously contracted,
233
583000
2000
Tās nevar apzināti sasprindzināt,
10:00
especially if you overdid the Botox.
234
585000
2000
it īpaši, ja esat pārcenties ar botoksu.
10:02
Don't overdo the Botox; nobody will think you're honest.
235
587000
3000
Nepārcenšaties ar botoksu; neviens nedomās, ka esat godīgs.
10:05
Now we're going to look at the hot spots.
236
590000
2000
Skatīsimies uz galvenajam pazīmēm.
10:07
Can you tell what's happening in a conversation?
237
592000
2000
Vai varat pateikt, kas notiek sarunā?
10:09
Can you start to find the hot spots
238
594000
3000
Vai varat ievērot galvenās pazīmes,
10:12
to see the discrepancies
239
597000
2000
lai saskatītu nesakritības
10:14
between someone's words and someone's actions?
240
599000
2000
kāda vārdos un rīcībā?
10:16
Now I know it seems really obvious,
241
601000
2000
Es zinu, ka tas šķiet patiešām acīmredzami,
10:18
but when you're having a conversation
242
603000
2000
taču, kad jums ir saruna
10:20
with someone you suspect of deception,
243
605000
3000
ar kādu, kuru turat aizdomās apmānā,
10:23
attitude is by far the most overlooked but telling of indicators.
244
608000
3000
attieksme ir visaizmirstākā no visām melu pazīmēm.
10:26
An honest person is going to be cooperative.
245
611000
2000
Godīgi cilvēki būs gatavi sadarboties.
10:28
They're going to show they're on your side.
246
613000
2000
Viņi mēģinās jūs pārliecināt, ka ir jūsu pusē.
10:30
They're going to be enthusiastic.
247
615000
2000
Viņi būs aizrautīgi.
10:32
They're going to be willing and helpful to getting you to the truth.
248
617000
2000
Viņi būs izpalīdzīgi un vēlēsies nonākt līdz patiesībai.
10:34
They're going to be willing to brainstorm, name suspects,
249
619000
3000
Viņi būs gatavi rīkot prāta vētru, nosaukt aizdomās turamos,
10:37
provide details.
250
622000
2000
sniegt noderīgu informāciju.
10:39
They're going to say, "Hey,
251
624000
2000
Viņi teiks: „Hmm,
10:41
maybe it was those guys in payroll that forged those checks."
252
626000
3000
varbūt to viltoja puiši, kas veidoja algu sarakstu.”
10:44
They're going to be infuriated if they sense they're wrongly accused
253
629000
3000
Viņi būs saniknoti, ja kādu brīdi sajutīs, ka tiek nepatiesi apsūdzēti
10:47
throughout the entire course of the interview, not just in flashes;
254
632000
2000
un tas būs redzams visas intervijas laikā, nevis tikai īsu brīdi;
10:49
they'll be infuriated throughout the entire course of the interview.
255
634000
3000
viņi būs saniknoti visu intervijas laiku.
10:52
And if you ask someone honest
256
637000
2000
Jums vaicājot kādam nevainīgajam
10:54
what should happen to whomever did forge those checks,
257
639000
3000
par to, kādu sodu vajadzētu saņemt šiem čeku viltotājiem,
10:57
an honest person is much more likely
258
642000
2000
visdrīzāk, ka šis cilvēks.
10:59
to recommend strict rather than lenient punishment.
259
644000
4000
ieteiks bargāku, nevis saudzīgāku sodu.
11:03
Now let's say you're having that exact same conversation
260
648000
2000
Nu pieņemsim, ka jums ir tieši tā pati saruna tikai
11:05
with someone deceptive.
261
650000
2000
ar kādu mānīgu cilvēku.
11:07
That person may be withdrawn,
262
652000
2000
Šis cilvēks būs atturīgs,
11:09
look down, lower their voice,
263
654000
2000
nolaistu seju, pieklusinātu balsi,
11:11
pause, be kind of herky-jerky.
264
656000
2000
tādu kā saraustītu uzvedības ziņā.
11:13
Ask a deceptive person to tell their story,
265
658000
2000
Pavaicājiet mānīgam cilvēkam viņa stāstu,
11:15
they're going to pepper it with way too much detail
266
660000
3000
viņi to pārbārstīs ar pārlieku sīkām detaļām un
11:18
in all kinds of irrelevant places.
267
663000
3000
dažnedažādām nesvarīgām lietām.
11:21
And then they're going to tell their story in strict chronological order.
268
666000
3000
Viņi savu stāstu pasniegs striktā hronoloģiskā secībā.
11:24
And what a trained interrogator does
269
669000
2000
Tas, ko apmācīts nopratinātājs dara,
11:26
is they come in and in very subtle ways
270
671000
2000
viņš izmanto dažādus ļoti atjautīgus paņēmienus,
11:28
over the course of several hours,
271
673000
2000
piemēram, vairāku stundu laikā,
11:30
they will ask that person to tell that story backwards,
272
675000
3000
viņi palūgs, lai cilvēks atstāsta notikušo no otra gala
11:33
and then they'll watch them squirm,
273
678000
2000
un noskatīsies kā viņš cenšas izlocīties,
11:35
and track which questions produce the highest volume of deceptive tells.
274
680000
3000
sekojot līdzi tam, kādi jautājumi izraisa vislielākos cilvēka melus.
11:38
Why do they do that? Well we all do the same thing.
275
683000
3000
Kādēļ viņi tā dara? Jo mēs visi darām vienu un to pašu.
11:41
We rehearse our words,
276
686000
2000
Mēs atkārtojam sakāmo,
11:43
but we rarely rehearse our gestures.
277
688000
2000
taču mēs reti kad atkārtojam savus žestus.
11:45
We say "yes," we shake our heads "no."
278
690000
2000
Mēs sakām „jā”, bet šūpojam savas galvas.
11:47
We tell very convincing stories, we slightly shrug our shoulders.
279
692000
3000
Stāstot ļoti pārliecinošas lietas, mēs pavisam nedaudz sasprindzinam plecus.
11:50
We commit terrible crimes,
280
695000
2000
Mēs pastrādājam drausmīgus noziegumus
11:52
and we smile at the delight in getting away with it.
281
697000
3000
un smaidām, jūsmojot, ka paliksim nesodīti.
11:55
Now that smile is known in the trade as "duping delight."
282
700000
3000
Šis smaids ir pazīstams kā „apmāna prieks”.
11:58
And we're going to see that in several videos moving forward,
283
703000
3000
Mēs to redzēsim vairākos turpmākajos video fragmentos,
12:01
but we're going to start -- for those of you who don't know him,
284
706000
2000
mēs sāksim ar — tie, kas viņu nepazīst,
12:03
this is presidential candidate John Edwards
285
708000
3000
šis cilvēks ir prezidenta kandidāts Džons Edvartss,
12:06
who shocked America by fathering a child out of wedlock.
286
711000
3000
kurš šokēja visu Ameriku, izrādoties kāda laulāta pāra bērna tēvs.
12:09
We're going to see him talk about getting a paternity test.
287
714000
3000
Mēs redzēsim, kā viņš runā par paternitātes testa veikšanu.
12:12
See now if you can spot him
288
717000
2000
Paskatieties, vai varat ievērot viņu
12:14
saying, "yes" while shaking his head "no,"
289
719000
2000
sakām, „jā”, bet šūpojot galvu, kā sakot „nē”,
12:16
slightly shrugging his shoulders.
290
721000
2000
nedaudz savelkot savus plecus.
12:18
(Video) John Edwards: I'd be happy to participate in one.
291
723000
2000
(Video) Džons Edvartss: Man prieks iesaistīties šādā lietā.
12:20
I know that it's not possible that this child could be mine,
292
725000
3000
Es saprotu, nav iespējams, ka es varētu būt šī bērna tēvs,
12:23
because of the timing of events.
293
728000
2000
notikumu notikšanas laika dēļ.
12:25
So I know it's not possible.
294
730000
2000
Tā kā es saprotu, ka tas nav iespējams.
12:27
Happy to take a paternity test,
295
732000
2000
Labprāt veikšu paternitātes testu
12:29
and would love to see it happen.
296
734000
2000
un priecātos atklāt, ka esmu kļūdījies.
12:31
Interviewer: Are you going to do that soon? Is there somebody --
297
736000
3000
Intervētājs: Vai Jūs grasāties to drīzumā veikt? Vai ir kāds —
12:34
JE: Well, I'm only one side. I'm only one side of the test.
298
739000
3000
Dž.E.: Jā, lai arī es esmu tikai puse no šī testa rezultātiem.
12:37
But I'm happy to participate in one.
299
742000
3000
Taču ar prieku iesaistīšos šādā lietā.
12:40
PM: Okay, those head shakes are much easier to spot
300
745000
2000
P.M.: Labi, galvas šūpošanu pamanīt ir daudz vieglāk,
12:42
once you know to look for them.
301
747000
2000
kad zināt, uz ko tieši jāskatās.
12:44
There're going to be times
302
749000
2000
Būs brīži,
12:46
when someone makes one expression
303
751000
2000
kad kāds teiks vienu lietu,
12:48
while masking another that just kind of leaks through in a flash.
304
753000
3000
tikmēr mēģinot apslēpt ko citu, kas dažreiz īsu brīdi tomēr var parādīties.
12:52
Murderers are known to leak sadness.
305
757000
2000
Ir zināms, ka slepkavas cenšas apslēpt skumjas.
12:54
Your new joint venture partner might shake your hand,
306
759000
2000
Jūsu jaunais kopuzņēmuma partneris var jums paspiest roku,
12:56
celebrate, go out to dinner with you
307
761000
2000
svinēt, doties ar jums pusdienās
12:58
and then leak an expression of anger.
308
763000
3000
un tad pēkšņi izrādīt dusmu izpausmi.
13:01
And we're not all going to become facial expression experts overnight here,
309
766000
3000
Neviens no mums, protams, vienas dienā laikā nekļūs par mīmikas ekspertu,
13:04
but there's one I can teach you that's very dangerous, and it's easy to learn,
310
769000
3000
taču es varu pastāstīt par vienu, kas ir ļoti bīstama un ir viegli apgūstama,
13:07
and that's the expression of contempt.
311
772000
3000
tā ir nicinājuma izpausme.
13:10
Now with anger, you've got two people on an even playing field.
312
775000
3000
Dusmu gadījumā, jums ir divi līdzvērtīgi cilvēki.
13:13
It's still somewhat of a healthy relationship.
313
778000
2000
Tās savā ziņā ir veselīgas attiecības.
13:15
But when anger turns to contempt,
314
780000
2000
Taču, kad dusmas nomaina nicinājums,
13:17
you've been dismissed.
315
782000
2000
tad jelkāda cieņa pret jums ir zudusi.
13:19
It's associated with moral superiority.
316
784000
2000
To saista ar morālu pārākumu.
13:21
And for that reason, it's very, very hard to recover from.
317
786000
3000
Šī iemesla dēļ mainīt šāda cilvēka nostāju ir ļoti, ļoti grūti.
13:24
Here's what it looks like.
318
789000
2000
Lūk, kā tas izskatās.
13:26
It's marked by one lip corner
319
791000
2000
Tam raksturīgs ievilkts un pacelts
13:28
pulled up and in.
320
793000
2000
vienas lūpas kaktiņš.
13:30
It's the only asymmetrical expression.
321
795000
3000
Tā ir vienīgā asimetriskā mīmika.
13:33
And in the presence of contempt,
322
798000
2000
Nicinājuma klātbūtnē
13:35
whether or not deception follows --
323
800000
2000
vienalga, vai tam seko vai neseko apmāns,
13:37
and it doesn't always follow --
324
802000
2000
tā ne vienmēr notiek,
13:39
look the other way, go the other direction,
325
804000
2000
skatieties uz otru pusi, ejiet otrā virzienā,
13:41
reconsider the deal,
326
806000
2000
vēlreiz pārdomājiet darījumu,
13:43
say, "No thank you. I'm not coming up for just one more nightcap. Thank you."
327
808000
4000
sakiet: „Nē, paldies. Mani pilnībā šis darījums neapmierina. Paldies.”
13:47
Science has surfaced
328
812000
2000
Zinātne ir atklājusi
13:49
many, many more indicators.
329
814000
2000
daudz, daudz vairāk rādītājus.
13:51
We know, for example,
330
816000
2000
Mēs zinām, ka, piemēram,
13:53
we know liars will shift their blink rate,
331
818000
2000
mēs zinām, ka meļi biežāk mirkšķinās,
13:55
point their feet towards an exit.
332
820000
2000
savas pēdas pavērš izejas virzienā.
13:57
They will take barrier objects
333
822000
2000
Viņi paņems priekšmetus
13:59
and put them between themselves and the person that is interviewing them.
334
824000
3000
un novietos tos starp sevi un cilvēku, kas ar viņiem runā.
14:02
They'll alter their vocal tone,
335
827000
2000
Tie mainīs savu balss toni,
14:04
often making their vocal tone much lower.
336
829000
3000
bieži vien padarot to krietni zemāku.
14:07
Now here's the deal.
337
832000
2000
Lieta tāda.
14:09
These behaviors are just behaviors.
338
834000
3000
Šī uzvedība ir tikai uzvedība.
14:12
They're not proof of deception.
339
837000
2000
Tie nav apmāna mēģinājuma apliecinājumi.
14:14
They're red flags.
340
839000
2000
Tā ir sarkanā gaisma.
14:16
We're human beings.
341
841000
2000
Mēs esam cilvēki.
14:18
We make deceptive flailing gestures all over the place all day long.
342
843000
3000
Mēs visu laiku plātāmies ar apmānu liecinošiem žestiem.
14:21
They don't mean anything in and of themselves.
343
846000
2000
Atsevišķi tie nenozīmē pilnīgi neko.
14:23
But when you see clusters of them, that's your signal.
344
848000
3000
Taču, redzot tos pārpārēm, esiet uzmanīgs.
14:26
Look, listen, probe, ask some hard questions,
345
851000
3000
Pavērojiet, ieklausieties, papētiet, uzdodiet kādu grūtāku jautājumu,
14:29
get out of that very comfortable mode of knowing,
346
854000
3000
nomainiet šo ļoti ērto zināšanas režīmu
14:32
walk into curiosity mode, ask more questions,
347
857000
3000
uz ziņkārības režīmu, uzdodiet vairāk jautājumu,
14:35
have a little dignity, treat the person you're talking to with rapport.
348
860000
3000
turiet galvu augstāk, izturieties ar sapratni pret cilvēku, ar kuru runājat.
14:38
Don't try to be like those folks on "Law & Order" and those other TV shows
349
863000
3000
Necenšaties būt kā ļautiņi no „Likums un kārtība” un citos šāda veida raidījumos,
14:41
that pummel their subjects into submission.
350
866000
2000
kuri iedzen citos cilvēkos bijību.
14:43
Don't be too aggressive, it doesn't work.
351
868000
3000
Neesiet pārāk agresīvs, tas nostrādā.
14:46
Now we've talked a little bit
352
871000
2000
Mēs jau mazliet esam parunājuši
14:48
about how to talk to someone who's lying
353
873000
2000
par to, kā atpazīt, kad kāds melo
14:50
and how to spot a lie.
354
875000
2000
un kā atpazīt melus.
14:52
And as I promised, we're now going to look at what the truth looks like.
355
877000
3000
Kā jau es solīju, nu mēs aplūkosim to, kāda izskatās patiesība.
14:55
But I'm going to show you two videos,
356
880000
2000
Es jums parādīšu divus video,
14:57
two mothers -- one is lying, one is telling the truth.
357
882000
3000
divas mātes, no kurām viena melo, bet otra stāsta patiesību.
15:00
And these were surfaced
358
885000
2000
Šie video ieguva atpazīstamību,
15:02
by researcher David Matsumoto in California.
359
887000
2000
pateicoties Kalifornijas zinātniekam Deividam Matsumoto.
15:04
And I think they're an excellent example
360
889000
2000
Manuprāt, šis ir lielisks piemērs tam,
15:06
of what the truth looks like.
361
891000
2000
kāda izskatās patiesība.
15:08
This mother, Diane Downs,
362
893000
2000
Šī māte, Diāna Daunza,
15:10
shot her kids at close range,
363
895000
2000
no tuva attāluma sašāva savus bērnus,
15:12
drove them to the hospital
364
897000
2000
aizveda viņus uz slimnīcu,
15:14
while they bled all over the car,
365
899000
2000
kamēr viņi asiņoja pa visu mašīnu,
15:16
claimed a scraggy-haired stranger did it.
366
901000
2000
apgalvojot, ka to izdarīja izspūris svešinieks.
15:18
And you'll see when you see the video,
367
903000
2000
Redzot šo video, jūs sapratīsit,
15:20
she can't even pretend to be an agonizing mother.
368
905000
2000
ka viņa pat nespēj izlikties par satriektu māti.
15:22
What you want to look for here
369
907000
2000
Es vēlos, lai pamanāt
15:24
is an incredible discrepancy
370
909000
2000
apbrīnojamo atšķirību
15:26
between horrific events that she describes
371
911000
2000
starp viņas aprakstītajiem briesmīgajiem notikumiem
15:28
and her very, very cool demeanor.
372
913000
2000
un viņas ļoti, ļoti vēso izturēšanos.
15:30
And if you look closely, you'll see duping delight throughout this video.
373
915000
3000
Ja vērīgi ieskatīsities, ieraudzīsit šajā video apmāna prieku.
15:33
(Video) Diane Downs: At night when I close my eyes,
374
918000
2000
(Video) Diāna Daunsa: Naktī, man aizverot acis,
15:35
I can see Christie reaching her hand out to me while I'm driving,
375
920000
3000
es redzu Kristiju stiepjam pretī man savu roku, kamēr es braucu,
15:38
and the blood just kept coming out of her mouth.
376
923000
3000
un asinis vienkārši plūda ārā pa viņas muti.
15:41
And that -- maybe it'll fade too with time --
377
926000
2000
Varbūt tas ar laiku izplēnēs no manas atmiņas,
15:43
but I don't think so.
378
928000
2000
taču es šaubos.
15:45
That bothers me the most.
379
930000
3000
Tas man visvairāk neliek mieru.
15:55
PM: Now I'm going to show you a video
380
940000
2000
P.M.: Nu es parādīšu video
15:57
of an actual grieving mother, Erin Runnion,
381
942000
2000
ar patiešām sērojošu māti, Erinu Ranjonu,
15:59
confronting her daughter's murderer and torturer in court.
382
944000
4000
tiesā stājoties aci pret aci ar savas meitas slepkavu un spīdzinātāju.
16:03
Here you're going to see no false emotion,
383
948000
2000
Šeit jūs neredzēsit samākslotas emocijas,
16:05
just the authentic expression of a mother's agony.
384
950000
3000
tikai īstas mātes ciešanu izpausmes.
16:08
(Video) Erin Runnion: I wrote this statement on the third anniversary
385
953000
2000
(Video) Erina Ranjona: Es sarakstīju šo paziņojumu trešajā gadadienā,
16:10
of the night you took my baby,
386
955000
2000
kopš tās nakts, kad man atņēmi manu meitiņu
16:12
and you hurt her,
387
957000
2000
un darīji viņai pāri,
16:14
and you crushed her,
388
959000
2000
tu viņu sagrāvi,
16:16
you terrified her until her heart stopped.
389
961000
4000
tu viņu spīdzināji, kamēr viņas sirds apstājās.
16:20
And she fought, and I know she fought you.
390
965000
3000
Viņa pretojās, es zinu, ka viņa pretojās.
16:23
But I know she looked at you
391
968000
2000
Es zinu, ka viņa uz tevi skatījās
16:25
with those amazing brown eyes,
392
970000
2000
ar savām skaistajām, brūnajām acīm
16:27
and you still wanted to kill her.
393
972000
3000
un tu tik un tā gribēji viņu nogalināt.
16:30
And I don't understand it,
394
975000
2000
To es nesaprotu
16:32
and I never will.
395
977000
3000
un nekad arī nesapratīšu.
16:35
PM: Okay, there's no doubting the veracity of those emotions.
396
980000
4000
P.M.: Labi, nav iemesla apšaubīt šo emociju patiesumu.
16:39
Now the technology around what the truth looks like
397
984000
3000
Patiesības atpazīšanas tehnoloģija
16:42
is progressing on, the science of it.
398
987000
3000
attīstīstās.
16:45
We know for example
399
990000
2000
Mēs zinām, ka, pastāv,
16:47
that we now have specialized eye trackers and infrared brain scans,
400
992000
3000
piemēram, acu kustību izsekotāji un smadzeņu infrasarkanie skeneri,
16:50
MRI's that can decode the signals that our bodies send out
401
995000
3000
magnētiskās rezonanses tomogrāfi, kuri, mums melojot,
16:53
when we're trying to be deceptive.
402
998000
2000
var atkodēt mūsu ķermeņa signālus.
16:55
And these technologies are going to be marketed to all of us
403
1000000
3000
Šīs tehnoloģijas mums tiks pasniegtas
16:58
as panaceas for deceit,
404
1003000
2000
kā panaceja apmānam,
17:00
and they will prove incredibly useful some day.
405
1005000
3000
un kādu dienu arī būs neticami noderīgas.
17:03
But you've got to ask yourself in the meantime:
406
1008000
2000
Taču pagaidām jums ir jāpadomā:
17:05
Who do you want on your side of the meeting,
407
1010000
2000
Ar ko jūs drīzāk vēlētos doties uz tikšanos,
17:07
someone who's trained in getting to the truth
408
1012000
3000
kādu, kurš prot nonākt līdz patiesībai
17:10
or some guy who's going to drag a 400-pound electroencephalogram
409
1015000
2000
vai cilvēku, kurš cauri durvīm vilks 400 mārciņu smagu
17:12
through the door?
410
1017000
2000
elektroencefalogramas ierīci?
17:14
Liespotters rely on human tools.
411
1019000
4000
Melu atpazinēji paļaujas uz cilvēkiem.
17:18
They know, as someone once said,
412
1023000
2000
Viņi zina, kā kāds reiz ir teicis:
17:20
"Character's who you are in the dark."
413
1025000
2000
„Tumsā slapstošies tēli.”
17:22
And what's kind of interesting
414
1027000
2000
Savā ziņā interesanti ir
17:24
is that today we have so little darkness.
415
1029000
2000
tas, ka mūsdienās ir tik maz tumsas.
17:26
Our world is lit up 24 hours a day.
416
1031000
3000
Mūsu pasaule ir izgaismota 24 stundas dienā.
17:29
It's transparent
417
1034000
2000
Tā ir caurspīdīga
17:31
with blogs and social networks
418
1036000
2000
ar emuāriem un sociālajiem tīkliem,
17:33
broadcasting the buzz of a whole new generation of people
419
1038000
2000
kuros tiek atbalstīts un veicināts jaunās paaudzes dzīvesveids,
17:35
that have made a choice to live their lives in public.
420
1040000
3000
izvēle dzīvot savu dzīvi publiski.
17:38
It's a much more noisy world.
421
1043000
4000
Tā ir daudz trokšņaināka pasaule.
17:42
So one challenge we have
422
1047000
2000
Viens no mūsu izaicinājumiem
17:44
is to remember,
423
1049000
2000
ir atcerēties, ka
17:46
oversharing, that's not honesty.
424
1051000
3000
pārlieku liela atklātība nav godīgums.
17:49
Our manic tweeting and texting
425
1054000
2000
Mūsu apmātā tvītošana un īsziņu rakstīšana
17:51
can blind us to the fact
426
1056000
2000
var mums likt aizmirst,
17:53
that the subtleties of human decency -- character integrity --
427
1058000
3000
ka cilvēka cienīgums, personiskais godīgums,
17:56
that's still what matters, that's always what's going to matter.
428
1061000
3000
tam vēl joprojām ir nozīme, tam vienmēr būs nozīme.
17:59
So in this much noisier world,
429
1064000
2000
Šajā tik daudz trokšņainākajā pasaulē
18:01
it might make sense for us
430
1066000
2000
var šķist loģiskāk, runājot
18:03
to be just a little bit more explicit
431
1068000
2000
par mūsu morāli, būt
18:05
about our moral code.
432
1070000
3000
pavisam nedaudz konkrētākam.
18:08
When you combine the science of recognizing deception
433
1073000
2000
Kad jūs apvienojat apmānu atpazīšanas zinātni
18:10
with the art of looking, listening,
434
1075000
2000
ar skatīšanas un klausīšanas māku,
18:12
you exempt yourself from collaborating in a lie.
435
1077000
3000
jūs atbrīvojat sevi no iesaistīšanās melos.
18:15
You start up that path
436
1080000
2000
Jūs sākat šo ceļu,
18:17
of being just a little bit more explicit,
437
1082000
2000
kurā būsit nedaudz nepārprotamāks,
18:19
because you signal to everyone around you,
438
1084000
2000
visiem apkārtējiem signalizējot,
18:21
you say, "Hey, my world, our world,
439
1086000
3000
sakot, „Ei, mana pasaule, mūsu pasaule,
18:24
it's going to be an honest one.
440
1089000
2000
tā būs godīga pasaule.
18:26
My world is going to be one where truth is strengthened
441
1091000
2000
Es dzīvošu pasaulē, kur patiesība tiks atbalstīta
18:28
and falsehood is recognized and marginalized."
442
1093000
3000
un nepatiesība — atpazīta un nosodīta.”
18:31
And when you do that,
443
1096000
2000
Jums to paveicot,
18:33
the ground around you starts to shift just a little bit.
444
1098000
3000
pasaule jums apkārt pārvērtīsies.
18:36
And that's the truth. Thank you.
445
1101000
3000
Tā ir patiesība. Paldies.
18:39
(Applause)
446
1104000
5000
(Aplausi)
ABOUT THE SPEAKER
Pamela Meyer - Lie detectorPamela Meyer thinks we’re facing a pandemic of deception, but she’s arming people with tools that can help take back the truth.
Why you should listen
Social media expert Pamela Meyer can tell when you’re lying. If it’s not your words that give you away, it’s your posture, eyes, breathing rate, fidgets, and a host of other indicators. Worse, we are all lied to up to 200 times a day, she says, from the white lies that allow society to function smoothly to the devastating duplicities that bring down corporations and break up families.
Working with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
More profile about the speakerWorking with a team of researchers over several years, Meyer, who is CEO of social networking company Simpatico Networks, collected and reviewed most of the research on deception that has been published, from such fields as law-enforcement, military, psychology and espionage. She then became an expert herself, receiving advanced training in deception detection, including multiple courses of advanced training in interrogation, microexpression analysis, statement analysis, behavior and body language interpretation, and emotion recognition. Her research is synthetized in her bestselling book Liespotting.
Pamela Meyer | Speaker | TED.com