ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com
TED2010

Michael Shermer: The pattern behind self-deception

Мајкл Шермер: Шемата која е во позадина на себе-измамата

Filmed:
2,854,890 views

Мајкл Шермер вели дека човековата тенденција да верува во необични нешта -- од грабнување од страна на вонземјани до примена на рашла -- се сведува на две најосновни, прилично необични вештини за преживување вградени во мозокот. Тој објаснува какви се тие и како истите не вовлекуваат во незгода.
- Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market. Full bio

Double-click the English transcript below to play the video.

00:16
So since I was here last in '06,
0
1000
3000
Од последниот пат кога бев овде, во 2006,
00:19
we discovered that global climate change
1
4000
2000
до сега видовме дека глобалните климатски промени
00:21
is turning out to be a pretty serious issue,
2
6000
2000
може да се претворат во прилично сериозен проблем.
00:23
so we covered that fairly extensively
3
8000
2000
Поради тоа оваа тема доста опсежно ја покривме
00:25
in Skeptic magazine.
4
10000
2000
во списанието Skeptic.
00:27
We investigate all kinds
5
12000
2000
Ги проучувавме сите видови
00:29
of scientific and quasi-scientific controversies,
6
14000
3000
на научни и квази-научни контроверзии.
00:32
but it turns out we don't have to worry about any of this
7
17000
2000
Но, се чини дека ние и не мораме да се грижиме за било што во врска со тоа,
00:34
because the world's going to end in 2012.
8
19000
2000
бидејќи крајот на светот ќе се случи во 2012.
00:36
Another update:
9
21000
2000
Друго потсетување:
00:38
You will recall I introduced you guys
10
23000
2000
ќе се сетите дека јас ви
00:40
to the Quadro Tracker.
11
25000
2000
го претставив Квадро Тракер.
00:42
It's like a water dowsing device.
12
27000
2000
Тоа е нешто како рашла за барање на подземни води.
00:44
It's just a hollow piece of plastic with an antenna that swivels around.
13
29000
3000
Тоа е само шупливо парче пластика со една антена која се врти во круг.
00:47
And you walk around, and it points to things.
14
32000
2000
И додека се движите наоколу, антената се насочува кон нешто.
00:49
Like if you're looking for marijuana in students' lockers,
15
34000
3000
Како кога бараме марихуана во студентските шкафчиња,
00:52
it'll point right to somebody.
16
37000
2000
таа точно ќе се насочи кон некого.
00:54
Oh, sorry. (Laughter)
17
39000
2000
Ох, извинете. (Смеа)
00:56
This particular one that was given to me
18
41000
2000
Токму овој уред кој ми беше даден мене,
00:58
finds golf balls,
19
43000
2000
пронаоѓа топчиња за голф,
01:00
especially if you're at a golf course
20
45000
2000
особено ако се наоѓате на терен за голф
01:02
and you check under enough bushes.
21
47000
3000
и проверите доволен број на грмушки.
01:05
Well, under the category of "What's the harm of silly stuff like this?"
22
50000
3000
А под категоријата „Каква штета би имало од смешно нешто како ова?“
01:08
this device, the ADE 651,
23
53000
3000
овој уред, АДЕ 651,
01:11
was sold to the Iraqi government
24
56000
3000
и беше продаден на Владата во Ирак
01:14
for 40,000 dollars apiece.
25
59000
2000
за 40 000 долари по парче.
01:16
It's just like this one, completely worthless,
26
61000
2000
Токму нешто како ова, кое е тотално бескорисно,
01:18
in which it allegedly worked by "electrostatic
27
63000
2000
кое наводно работи со помош на „електростатско
01:20
magnetic ion attraction,"
28
65000
3000
магнетно привлекување на јони“,
01:24
which translates to
29
69000
2000
што преведено значи само
01:26
"pseudoscientific baloney" -- would be the nice word --
30
71000
3000
„псевдонаучна празна фраза“ -- тоа би биле соодветните зборови --
01:29
in which you string together a bunch of words that sound good,
31
74000
2000
на која може да се додадат уште еден куп други зборови кои звучат добро,
01:31
but it does absolutely nothing.
32
76000
2000
а всушност со него не може да се прави апсолутно ништо.
01:33
In this case, at trespass points,
33
78000
3000
Во ваков случај, при ваква измама,
01:36
allowing people to go through
34
81000
2000
дозволувајќи им на некои луѓе да поминат
01:38
because your little tracker device said they were okay,
35
83000
3000
бидејќи вашиот мал уред за проверка вели дека тие се во ред,
01:41
actually cost lives.
36
86000
3000
може некого да го чини живот.
01:44
So there is a danger to pseudoscience,
37
89000
2000
Значи постои опасност во псевдонауката
01:46
in believing in this sort of thing.
38
91000
3000
и верувањето во ваков тип на нешта.
01:49
So what I want to talk about today is belief.
39
94000
3000
Затоа јас денеска сакам да зборувам за Верувањата.
01:52
I want to believe,
40
97000
2000
Јас сакам да верувам,
01:54
and you do too.
41
99000
2000
а и вие исто така.
01:56
And in fact, I think my thesis here is that
42
101000
2000
И всушност, мислам дека мојата теза овде е дека
01:58
belief is the natural state of things.
43
103000
2000
верувањето е природна состојба на нештата.
02:00
It is the default option. We just believe.
44
105000
2000
Тоа не е прашање на избор. Ние едноставно веруваме.
02:02
We believe all sorts of things.
45
107000
2000
Веруваме во секакви работи.
02:04
Belief is natural;
46
109000
2000
Верувањето е природно.
02:06
disbelief, skepticism, science, is not natural.
47
111000
2000
Неверувањето, скептицизмот, науката, не се природни.
02:08
It's more difficult.
48
113000
2000
Тие се потешки.
02:10
It's uncomfortable to not believe things.
49
115000
2000
Нелагодно е да не се верува.
02:12
So like Fox Mulder on "X-Files,"
50
117000
3000
Исто како Фокс Мулдер во "Досиеја X",
02:15
who wants to believe in UFOs? Well, we all do,
51
120000
3000
кој сака да верува во НЛО? Па добро, сите го правиме тоа.
02:18
and the reason for that is because
52
123000
2000
А причината за тоа е дека
02:20
we have a belief engine in our brains.
53
125000
3000
ние имаме машина за верување во нашиот мозок.
02:23
Essentially, we are pattern-seeking primates.
54
128000
3000
Всушност, ние сме примати кои бараат шеми.
02:26
We connect the dots: A is connected to B; B is connected to C.
55
131000
3000
Ги поврзуваме точките: А е поврзано со Б; Б е поврзано со Ц.
02:29
And sometimes A really is connected to B,
56
134000
3000
И понекогаш А навистина е поврзано со Б.
02:32
and that's called association learning.
57
137000
2000
Е тоа се вика учење по асоцијација.
02:34
We find patterns, we make those connections,
58
139000
3000
Ние пронаоѓаме шеми, ги правиме поврзувањата,
02:37
whether it's Pavlov's dog here
59
142000
2000
без разлика дали станува збор за кучето на Павлов
02:39
associating the sound of the bell with the food,
60
144000
3000
кое го асоцира звукот на ѕвончето со храната,
02:42
and then he salivates to the sound of the bell,
61
147000
2000
а потоа лачи плунка при звукот на ѕвончето,
02:44
or whether it's a Skinnerian rat,
62
149000
2000
или пак се зборува за глушецот на Скинер,
02:46
in which he's having an association
63
151000
2000
кој прави асоцијација
02:48
between his behavior and a reward for it,
64
153000
2000
помеѓу своето однесување и наградата која ја добива за тоа,
02:50
and therefore he repeats the behavior.
65
155000
2000
па поради тоа тој и го повторува своето однесување.
02:52
In fact, what Skinner discovered
66
157000
2000
Всушност, тоа што Скинер го открил
02:54
is that, if you put a pigeon in a box like this,
67
159000
3000
е дека, ако ставите гулаб во кутија како оваа,
02:57
and he has to press one of these two keys,
68
162000
2000
кој треба да притисне на едно од овие две копчиња,
02:59
and he tries to figure out what the pattern is,
69
164000
2000
тој ќе се обидува да ја открие шемата,
03:01
and you give him a little reward in the hopper box there --
70
166000
2000
ако вие за тоа му давате мала награда во садот за храна.
03:03
if you just randomly assign rewards
71
168000
3000
Ако едноставно им ја задавате наградата
03:06
such that there is no pattern,
72
171000
2000
без некој редослед,
03:08
they will figure out any kind of pattern.
73
173000
2000
тие би можеле да измислат било каква шема.
03:10
And whatever they were doing just before they got the reward,
74
175000
2000
Што и да правеле пред да ја добијат наградата,
03:12
they repeat that particular pattern.
75
177000
2000
тие ќе ја повторуваат токму таа шема.
03:14
Sometimes it was even spinning around twice counterclockwise,
76
179000
3000
Понекогаш тоа дури можело да биде два пати вртење во круг спротивно од стрелките на часовникот,
03:17
once clockwise and peck the key twice.
77
182000
3000
еднаш во насока на стрелките на часовникот и два пати клукнување на копчето.
03:20
And that's called superstition,
78
185000
2000
А тоа се нарекува суеверие.
03:22
and that, I'm afraid,
79
187000
2000
И, се плашам дека,
03:24
we will always have with us.
80
189000
2000
тоа секогаш ќе го имаме во нас.
03:26
I call this process "patternicity" --
81
191000
2000
Јас ова го нарекувам „шемаџиство“,
03:28
that is, the tendency to find meaningful patterns
82
193000
2000
кое подразбира тенденција да се пронаоѓаат шеми кои имаат смисла
03:30
in both meaningful and meaningless noise.
83
195000
3000
како во редот така и во безредието.
03:33
When we do this process, we make two types of errors.
84
198000
3000
Кога го правиме ова, ние правиме два типа на грешки.
03:36
A Type I error, or false positive,
85
201000
2000
Грешка број 1, или лажно позитивно,
03:38
is believing a pattern is real
86
203000
2000
е да се верува дека шемата е реална
03:40
when it's not.
87
205000
2000
кога таа не е.
03:42
Our second type of error is a false negative.
88
207000
2000
Вториот тип на грешка е лажно негативно.
03:44
A Type II error is not believing
89
209000
2000
Грешката број 2 е да не се верува дека шемата е реална
03:46
a pattern is real when it is.
90
211000
3000
кога таа навистина е реална.
03:49
So let's do a thought experiment.
91
214000
2000
Па, ајде да направиме еден мисловен експеримент.
03:51
You are a hominid three million years ago
92
216000
2000
Вие сте човечко суштество кое живеело пред три милиони години,
03:53
walking on the plains of Africa.
93
218000
3000
и одите низ полињата во тогашна Африка.
03:56
Your name is Lucy, okay?
94
221000
2000
Вашето име е Луси, во ред?
03:58
And you hear a rustle in the grass.
95
223000
2000
И слушате шушкање во тревата.
04:00
Is it a dangerous predator,
96
225000
2000
Дали тоа е опасен предатор,
04:02
or is it just the wind?
97
227000
2000
или тоа е само ветерот?
04:04
Your next decision could be the most important one of your life.
98
229000
3000
Вашата следна одлука може да биде една од најважните животни одлуки.
04:07
Well, if you think that the rustle in the grass is a dangerous predator
99
232000
3000
Добро, ако помисливте дека тоа што шушка во тревата е опасен предатор
04:10
and it turns out it's just the wind,
100
235000
2000
и се покаже дека всушност тоа е само ветерот,
04:12
you've made an error in cognition,
101
237000
2000
тогаш вие сте направиле грешка во когницијата,
04:14
made a Type I error, false positive.
102
239000
2000
сте направиле грешка од Типот 1, лажно позитивно.
04:16
But no harm. You just move away.
103
241000
2000
Но, нема штета. Едноставно си одите од таму.
04:18
You're more cautious. You're more vigilant.
104
243000
2000
Вие сте попретпазливи. Повнимателни.
04:20
On the other hand, if you believe that the rustle in the grass is just the wind,
105
245000
2000
Од друга страна пак, ако верувавте дека шушкањето во тревата е од ветерот,
04:22
and it turns out it's a dangerous predator,
106
247000
3000
а се покаже дека тоа е опасен предатор,
04:25
you're lunch.
107
250000
2000
тогаш вие сте неговиот ручек.
04:27
You've just won a Darwin award.
108
252000
2000
Тогаш вие ќе ја добиете Дарвиновата награда.
04:29
You've been taken out of the gene pool.
109
254000
2000
И ќе бидете отстранети од генетските опции.
04:31
Now the problem here is that
110
256000
2000
Сега, проблемот овде е во тоа што
04:33
patternicities will occur whenever the cost
111
258000
2000
шемаџиството ќе се појави секогаш кога
04:35
of making a Type I error
112
260000
2000
правењето на грешка од Тип 1
04:37
is less than the cost of making a Type II error.
113
262000
2000
ќе ве чини помалку отколку правењето на грешка од Типот 2.
04:39
This is the only equation in the talk by the way.
114
264000
2000
Патем, ова е единствената равенка во овој говор.
04:41
We have a pattern detection problem
115
266000
2000
Ние имаме проблем со детектирање на шемите,
04:43
that is assessing the difference between a Type I and a Type II error
116
268000
3000
поради што утврдувањето на разликата помеѓу грешките од тип 1 и од тип 2
04:46
is highly problematic,
117
271000
2000
станува многу проблематично,
04:48
especially in split-second, life-and-death situations.
118
273000
3000
особено во ситуации опасни по живот.
04:51
So the default position
119
276000
2000
Значи стандардната позиција
04:53
is just: Believe all patterns are real --
120
278000
2000
е едноставно „верувај дека сите шеми се реални“.
04:55
All rustles in the grass are dangerous predators
121
280000
3000
„Сите шушкања во тревата се од опасни предатори,
04:58
and not just the wind.
122
283000
2000
а не од ветерот“.
05:00
And so I think that we evolved ...
123
285000
2000
И затоа мислам дека сме еволуирале...
05:02
there was a natural selection for the propensity for our belief engines,
124
287000
3000
се случила природна селекција на нашите машини за верување,
05:05
our pattern-seeking brain processes,
125
290000
2000
нашите мозочни процесори за барање на шеми,
05:07
to always find meaningful patterns
126
292000
2000
така што секогаш се наоѓаат шеми кои имаат значење
05:09
and infuse them with these sort of
127
294000
2000
и им се дава опасно предаторско значење
05:11
predatory or intentional agencies that I'll come back to.
128
296000
3000
или некои слични значења кои вклучуваат злонамерни битија.
05:14
So for example, what do you see here?
129
299000
2000
Па, на пример, што гледате овде?
05:16
It's a horse head, that's right.
130
301000
2000
Тоа е глава на коњ, точно.
05:18
It looks like a horse. It must be a horse.
131
303000
2000
Личи на коњ. Тоа мора да е коњ.
05:20
That's a pattern.
132
305000
2000
Е тоа е шема.
05:22
And is it really a horse?
133
307000
2000
А дали навистина е коњ?
05:24
Or is it more like a frog?
134
309000
3000
Или повеќе личи на жаба?
05:27
See, our pattern detection device,
135
312000
2000
Гледате, нашиот уред за детектирање на шеми,
05:29
which appears to be located in the anterior cingulate cortex --
136
314000
3000
кој е лоциран некаде во предниот цингуларен кортекс –
05:32
it's our little detection device there --
137
317000
3000
таму се наоѓа нашиот мал уред за детектирање –
05:35
can be easily fooled, and this is the problem.
138
320000
2000
може лесно да биде измамен, а во тоа е и проблемот.
05:37
For example, what do you see here?
139
322000
2000
На пример, што гледате овде?
05:39
Yes, of course, it's a cow.
140
324000
3000
Да, секако. Тоа е крава.
05:42
Once I prime the brain -- it's called cognitive priming --
141
327000
3000
Еднаш штом го подготвам мозокот – тоа се нарекува когнитивно подготвување –
05:45
once I prime the brain to see it,
142
330000
2000
еднаш штом го подготвам мозокот да ја види кравата,
05:47
it pops back out again even without the pattern that I've imposed on it.
143
332000
3000
таа веднаш ќе се појави кога повторно ќе ја погледнам сликата дури и без линијата која ја додадов.
05:50
And what do you see here?
144
335000
2000
А што гледате овде?
05:52
Some people see a Dalmatian dog.
145
337000
2000
Некои луѓе гледаат куче Далматинец.
05:54
Yes, there it is. And there's the prime.
146
339000
2000
Да, еве го. А ете го и подготвувањето.
05:56
So when I go back without the prime,
147
341000
2000
Но кога ќе се вратам на сликата без обележувањето,
05:58
your brain already has the model
148
343000
2000
вашиот мозок веќе го има моделот,
06:00
so you can see it again.
149
345000
2000
па затоа и можете да го видите повторно.
06:02
What do you see here?
150
347000
3000
Што гледате овде?
06:05
Planet Saturn. Yes, that's good.
151
350000
2000
Планетата Сатурн. Да, тоа е во ред.
06:07
How about here?
152
352000
3000
А овде?
06:10
Just shout out anything you see.
153
355000
3000
Едноставно кажете било што, што и да гледате.
06:14
That's a good audience, Chris.
154
359000
2000
Тоа е добра публика, Крис.
06:16
Because there's nothing in this. Well, allegedly there's nothing.
155
361000
3000
Бидејќи нема ништо овде. Па добро, наводно нема ништо.
06:19
This is an experiment done by Jennifer Whitson
156
364000
3000
Ова е експеримент направен од страна на Џенифер Витсон
06:22
at U.T. Austin
157
367000
2000
во У.Т. Остин,
06:24
on corporate environments
158
369000
2000
за корпоративното опкружување
06:26
and whether feelings of uncertainty and out of control
159
371000
3000
и тоа дали чувството на несигурност и губење на контрола
06:29
makes people see illusory patterns.
160
374000
2000
може да направи луѓето да гледаат нереални шеми.
06:31
That is, almost everybody sees the planet Saturn.
161
376000
3000
Како што, речиси секој ја гледаше планетата Сатурн.
06:34
People that are put in a condition of feeling out of control
162
379000
3000
Луѓето кои се ставени во услови поради кои имаат чувство како да ја губат контролата,
06:37
are more likely to see something in this,
163
382000
2000
многу е веројатно дека ќе видат нешто во ова,
06:39
which is allegedly patternless.
164
384000
3000
кое е наводно безлично.
06:42
In other words, the propensity to find these patterns
165
387000
3000
Со други зборови, тенденцијата да се најде некаква шема
06:45
goes up when there's a lack of control.
166
390000
3000
се зголемува кога е намалена можноста за контрола.
06:48
For example, baseball players are notoriously superstitious
167
393000
3000
На пример, безбол играчите се непоправливо суеверни
06:51
when they're batting,
168
396000
2000
кога удираат со палката,
06:53
but not so much when they're fielding.
169
398000
2000
но не толку многу кога ја фаќаат топката.
06:55
Because fielders are successful
170
400000
2000
Бидејќи, играчите во полето се успешни
06:57
90 to 95 percent of the time.
171
402000
2000
во 90 до 95 % од случаите.
06:59
The best batters fail seven out of 10 times.
172
404000
3000
Најдобрите играчи кои удираат со палката неуспеваат во 7 од 10 обиди.
07:02
So their superstitions, their patternicities,
173
407000
2000
Па нивните суеверија, нивното шемаџиство,
07:04
are all associated with feelings of lack of control
174
409000
3000
сето тоа е поврзано најмногу со чувството на недостаток на контрола,
07:07
and so forth.
175
412000
2000
и така натаму.
07:10
What do you see in this particular one here, in this field?
176
415000
3000
Што гледате на оваа слика, во ова поле?
07:13
Anybody see an object there?
177
418000
2000
Дали некој виде некаков предмет овде?
07:15
There actually is something here,
178
420000
2000
Овде всушност има нешто,
07:17
but it's degraded.
179
422000
2000
ама е замаглено.
07:19
While you're thinking about that,
180
424000
2000
Додека вие размислувате за тоа,
07:21
this was an experiment done by Susan Blackmore,
181
426000
2000
ова беше експеримент направен од страна на Сузан Блекмур,
07:23
a psychologist in England,
182
428000
2000
психолог од Англија,
07:25
who showed subjects this degraded image
183
430000
2000
која на испитаниците им ја покажала оваа замаглена слика
07:27
and then ran a correlation between
184
432000
2000
а потоа барала корелација помеѓу
07:29
their scores on an ESP test:
185
434000
2000
нивните резултати добиени од ЕСП тестот
07:31
How much did they believe in the paranormal,
186
436000
2000
за проценка на тоа колку тие веруваат во паранормални,
07:33
supernatural, angels and so forth.
187
438000
3000
натприродни нешта, ангели и така натаму.
07:36
And those who scored high on the ESP scale,
188
441000
3000
Оние кои имале висок скор на ЕСП тестот,
07:39
tended to not only see
189
444000
2000
се стремеле, не само да гледаат
07:41
more patterns in the degraded images
190
446000
2000
повеќе шеми во замаглената слика,
07:43
but incorrect patterns.
191
448000
2000
туку и нивните шеми биле погрешни.
07:45
Here is what you show subjects.
192
450000
2000
Еве што им било покажано на испитаниците.
07:47
The fish is degraded 20 percent, 50 percent
193
452000
3000
Рибата е замаглена за 20%, 50%
07:50
and then the one I showed you,
194
455000
2000
а потоа онаа која ви ја покажав,
07:52
70 percent.
195
457000
2000
70%.
07:54
A similar experiment was done by another [Swiss] psychologist
196
459000
2000
Сличен експеримент бил направен од страна на друг (Швајцарски) психолог
07:56
named Peter Brugger,
197
461000
2000
по име Петер Бругер,
07:58
who found significantly more meaningful patterns
198
463000
3000
кој нашол значајно повеќе шеми со смисла
08:01
were perceived on the right hemisphere,
199
466000
2000
кои биле воочени во десната хемисвера,
08:03
via the left visual field, than the left hemisphere.
200
468000
3000
преку левото визуелно поле, во споредба со левата хемисвера.
08:06
So if you present subjects the images such
201
471000
2000
Значи, ако им презентирате на испитаниците такви слики
08:08
that it's going to end up on the right hemisphere instead of the left,
202
473000
3000
кои ќе завршат во десната хемисвера наместо во левата,
08:11
then they're more likely to see patterns
203
476000
2000
тогаш тие поверојатно е дека ќе гледаат шеми
08:13
than if you put it on the left hemisphere.
204
478000
2000
отколку ако сликите завршат во левата хемисвера.
08:15
Our right hemisphere appears to be
205
480000
2000
Нашата десна хемисвера се чини дека
08:17
where a lot of this patternicity occurs.
206
482000
2000
се наоѓа таму каде што се појавуваат многу од шемите.
08:19
So what we're trying to do is bore into the brain
207
484000
2000
Значи, тоа што се обидуваме да го направиме е да влеземе во мозокот
08:21
to see where all this happens.
208
486000
2000
за да видими каде сето ова се случува.
08:23
Brugger and his colleague, Christine Mohr,
209
488000
3000
Бругер и неговата колешка, Кристин Мор,
08:26
gave subjects L-DOPA.
210
491000
2000
им давале на субјектите L-DOPA.
08:28
L-DOPA's a drug, as you know, given for treating Parkinson's disease,
211
493000
3000
L-DOPA e лек кој, како што знаете, се дава за третирање на Паркинсоновата болест,
08:31
which is related to a decrease in dopamine.
212
496000
3000
која е поврзана со намаленото ниво на допамин.
08:34
L-DOPA increases dopamine.
213
499000
2000
L-DOPA го зголемува допаминот.
08:36
An increase of dopamine caused
214
501000
2000
А зголемувањето на допаминот кај субјектите предизвикува
08:38
subjects to see more patterns
215
503000
2000
гледање на повеќе шеми
08:40
than those that did not receive the dopamine.
216
505000
2000
во споредба со оние кои не примиле допамин.
08:42
So dopamine appears to be the drug
217
507000
2000
Па, се чини дека допаминот е материја
08:44
associated with patternicity.
218
509000
2000
поврзана со правењето на шеми.
08:46
In fact, neuroleptic drugs
219
511000
2000
Всушност, невролептиците
08:48
that are used to eliminate psychotic behavior,
220
513000
2000
кои се користат за елиминирање на психотичното однесување,
08:50
things like paranoia, delusions
221
515000
2000
како паранојата, делузиите
08:52
and hallucinations,
222
517000
2000
и халуцинациите,
08:54
these are patternicities.
223
519000
2000
сите овие се состојби на правење повеќе шеми.
08:56
They're incorrect patterns. They're false positives. They're Type I errors.
224
521000
3000
Тоа се неточни шеми. Тие се лажно позитивни. Тие се грешки од Тип 1.
08:59
And if you give them drugs
225
524000
2000
Но, ако ако им дадете лекови
09:01
that are dopamine antagonists,
226
526000
2000
кои се антагонисти на допаминот,
09:03
they go away.
227
528000
2000
шемите ќе ги снема.
09:05
That is, you decrease the amount of dopamine,
228
530000
2000
Тоа е бидејќи го намалувате количеството на допамин
09:07
and their tendency to see
229
532000
2000
а со тоа и тенденцијата
09:09
patterns like that decreases.
230
534000
2000
за правење на шеми.
09:11
On the other hand, amphetamines like cocaine
231
536000
3000
Од друга страна пак, амфетамините како кокаинот,
09:14
are dopamine agonists.
232
539000
2000
се агонисти на допаминот.
09:16
They increase the amount of dopamine.
233
541000
2000
Тие го зголемуваат количеството на допамин.
09:18
So you're more likely to feel in a euphoric state,
234
543000
3000
Па поверојатно е да се најдете во една еуфорична состојба,
09:21
creativity, find more patterns.
235
546000
2000
со креативност, и наоѓање повеќе шеми.
09:23
In fact, I saw Robin Williams recently
236
548000
2000
Всушност, јас неодамна го видов Робин Вилијамс
09:25
talk about how he thought he was much funnier
237
550000
2000
кога зборуваше за тоа како мислел дека е многу позабавен
09:27
when he was doing cocaine, when he had that issue, than now.
238
552000
3000
кога земал кокаин, кога го имал тој проблем, отколку сега.
09:30
So perhaps more dopamine
239
555000
2000
Па, веројатно поголемото количество допамин
09:32
is related to more creativity.
240
557000
2000
е поврзано со поголемата креативност.
09:34
Dopamine, I think, changes
241
559000
2000
Допаминот, мислам дека го менува
09:36
our signal-to-noise ratio.
242
561000
2000
нашиот однос сигнал-шум.
09:38
That is, how accurate we are
243
563000
2000
Тоа значи, колку сме ние прецизни
09:40
in finding patterns.
244
565000
2000
во барањето на шеми.
09:42
If it's too low, you're more likely to make too many Type II errors.
245
567000
3000
Ако нивото на допамин е премногу мало, веројатно ќе правите премногу грешки од Типот 2.
09:45
You miss the real patterns. You don't want to be too skeptical.
246
570000
2000
Ги пропуштате и шемите што се вистинити. Но, вие не сакате да бидете премногу скептични.
09:47
If you're too skeptical, you'll miss the really interesting good ideas.
247
572000
3000
Ако сте премногу скептични, ќе пропуштите многу добри и интересни идеи.
09:51
Just right, you're creative, and yet you don't fall for too much baloney.
248
576000
3000
Токму така, вие сте креативни, но сепак, тоа не значи дека лесно паѓате на глупости.
09:54
Too high and maybe you see patterns everywhere.
249
579000
3000
Но, ако е превисоко, гледате шеми насекаде.
09:57
Every time somebody looks at you, you think people are staring at you.
250
582000
3000
Секогаш кога некој ќе ве погледне, вие помислувате дека луѓето зјапаат во вас.
10:00
You think people are talking about you.
251
585000
2000
Мислите дека тие зборуваат за вас.
10:02
And if you go too far on that, that's just simply
252
587000
2000
Но, ако отидете предалеку со тоа, едноставно тоа
10:04
labeled as madness.
253
589000
2000
се нарекува лудило.
10:06
It's a distinction perhaps we might make
254
591000
2000
Тоа е разликата која веројатно би можеле да ја направиме
10:08
between two Nobel laureates, Richard Feynman
255
593000
2000
помеѓу двајцата Нобеловци Ричард Фејнман
10:10
and John Nash.
256
595000
2000
и Џон Неш.
10:12
One sees maybe just the right number
257
597000
2000
Едниот можеби гледа доволен број
10:14
of patterns to win a Nobel Prize.
258
599000
2000
на шеми токму за да ја добие Нобеловата награда.
10:16
The other one also, but maybe too many patterns.
259
601000
2000
Другиот, исто така гледа шеми, но, веројатно премногу.
10:18
And we then call that schizophrenia.
260
603000
3000
И тоа го нарекуваме шизофренија.
10:21
So the signal-to-noise ratio then presents us with a pattern-detection problem.
261
606000
3000
Значи односот сигнал-шум тогаш ни прикажува проблем со детектирањето на шеми.
10:24
And of course you all know exactly
262
609000
2000
А секако дека сите знаеме
10:26
what this is, right?
263
611000
2000
што значи тоа, нели.
10:28
And what pattern do you see here?
264
613000
2000
А каква шема гледате овде?
10:30
Again, I'm putting your anterior cingulate cortex to the test here,
265
615000
3000
Повторно, го ставам на тест вашиот преден цингуларен кортекс(ПЦК),
10:33
causing you conflicting pattern detections.
266
618000
3000
предизвикувајќи конфликтни детекции на шеми.
10:36
You know, of course, this is Via Uno shoes.
267
621000
2000
Знаете, секако, дека ова се Via Uno чевли.
10:38
These are sandals.
268
623000
3000
Ова се сандали.
10:41
Pretty sexy feet, I must say.
269
626000
3000
Убави секси стопала, морам да речам.
10:44
Maybe a little Photoshopped.
270
629000
2000
Можеби малку корегирани со фотошоп.
10:46
And of course, the ambiguous figures
271
631000
2000
И секако, двосмислените фигури
10:48
that seem to flip-flop back and forth.
272
633000
2000
кои наизменично доаѓаат до израз.
10:50
It turns out what you're thinking about a lot
273
635000
2000
Се чини дека она за кое многу размислувате
10:52
influences what you
274
637000
2000
влијае на она што
10:54
tend to see.
275
639000
2000
се стремите да го видите.
10:56
And you see the lamp here, I know.
276
641000
2000
А овде ја гледате лампата, знам.
10:58
Because the lights on here.
277
643000
3000
Бидејќи светлото е вклучено овде.
11:01
Of course, thanks to the environmentalist movement
278
646000
2000
Се разбира, благодарение на движењето за заштита на природата
11:03
we're all sensitive to the plight of marine mammals.
279
648000
3000
сите сме чувствителни за страдањата на морските цицачи.
11:06
So what you see in this particular ambiguous figure
280
651000
3000
Па она што го гледате токму на оваа двосмислена фигура се,
11:09
is, of course, the dolphins, right?
281
654000
2000
се разбира, делфини, нели.
11:11
You see a dolphin here,
282
656000
2000
Гледате еден делфин овде.
11:13
and there's a dolphin,
283
658000
2000
И овде има делфин.
11:15
and there's a dolphin.
284
660000
2000
И овде има делфин.
11:17
That's a dolphin tail there, guys.
285
662000
3000
Тоа е опашката на делфинот, луѓе.
11:20
(Laughter)
286
665000
3000
(смеење)
11:25
If we can give you conflicting data, again,
287
670000
3000
Ако можеме да ви дадеме збунувачки податоци, повторно,
11:28
your ACC is going to be going into hyperdrive.
288
673000
3000
вашиот ПЦК ќе функционира многу побрзо.
11:31
If you look down here, it's fine. If you look up here, then you get conflicting data.
289
676000
3000
Ако погледнете овде долу, е во ред. Ако погледнете овде горе, тогаш добивате збунувачки податок.
11:34
And then we have to flip the image
290
679000
2000
И тогаш ќе мораме да ја свртиме сликата
11:36
for you to see that it's a set up.
291
681000
2000
за да видите дека е замка.
11:40
The impossible crate illusion.
292
685000
2000
Илузија со невозможната кутија.
11:42
It's easy to fool the brain in 2D.
293
687000
2000
Лесно е да се измами мозокот со 2D.
11:44
So you say, "Aw, come on Shermer, anybody can do that
294
689000
2000
Па ќе речете, „Ама ајде Шермер, секој може да го прави тоа
11:46
in a Psych 101 text with an illusion like that."
295
691000
2000
насетувајќи го 101 текстот со илузија како оваа.“
11:48
Well here's the late, great Jerry Andrus'
296
693000
2000
Па еве ја големата „невозможна кутија“
11:50
"impossible crate" illusion in 3D,
297
695000
3000
на Џери Андрус во 3D,
11:53
in which Jerry is standing inside
298
698000
2000
во која Џери стои внатре
11:55
the impossible crate.
299
700000
2000
во невозможната кутија.
11:57
And he was kind enough to post this
300
702000
2000
И тој беше доволно љубезен да го објави ова
11:59
and give us the reveal.
301
704000
2000
и да ни го разоткрие.
12:01
Of course, camera angle is everything. The photographer is over there,
302
706000
3000
Секако, аголот на камерата е се. Фотографот е онаму.
12:04
and this board appears to overlap with this one, and this one with that one, and so on.
303
709000
3000
А оваа страна се чини како да се поклопува со оваа, а оваа со оваа, и така натаму.
12:07
But even when I take it away,
304
712000
2000
Но, дури и кога ќе ја тргнам настрана,
12:09
the illusion is so powerful because of how are brains are wired
305
714000
2000
илузијата е толку моќна поради начинот на кој мозокот се стреми
12:11
to find those certain kinds of patterns.
306
716000
3000
да ги најде оние одредени видови на шеми.
12:14
This is a fairly new one
307
719000
2000
Ова е прилично нова,
12:16
that throws us off because of the conflicting patterns
308
721000
2000
која има збунувачки шеми
12:18
of comparing this angle with that angle.
309
723000
3000
при споредувањето на овој агол со оној агол.
12:21
In fact, it's the exact same picture side by side.
310
726000
3000
Всушност, тоа истата слика ставена една до друга.
12:24
So what you're doing is comparing that angle
311
729000
2000
Тоа што го правите е, го споредувате тој агол
12:26
instead of with this one, but with that one.
312
731000
2000
наместо со овој.
12:28
And so your brain is fooled.
313
733000
2000
Па вашиот мозок е измамен.
12:30
Yet again, your pattern detection devices are fooled.
314
735000
2000
Сепак, и вашите уреди за детекција на шеми се измамени.
12:32
Faces are easy to see
315
737000
2000
Лицата е лесно да се видат
12:34
because we have an additional evolved
316
739000
2000
бидејќи имаме дополнително развиен
12:36
facial recognition software
317
741000
2000
софтвер за препознавање на лице
12:38
in our temporal lobes.
318
743000
3000
во темпоралниот дел на мозокот.
12:41
Here's some faces on the side of a rock.
319
746000
3000
Еве некои лица на карпата.
12:44
I'm actually not even sure if this is -- this might be Photoshopped.
320
749000
3000
Не сум сигурен дали ова е – ова можеби е изработено со Фотошоп.
12:47
But anyway, the point is still made.
321
752000
2000
Но сепак, целта е јасна.
12:49
Now which one of these looks odd to you?
322
754000
2000
Сега, која од овие ви изгледа необично?
12:51
In a quick reaction, which one looks odd?
323
756000
2000
Брзо погледнете, која се чини малку чудна?
12:53
The one on the left. Okay. So I'll rotate it
324
758000
2000
Оваа од лево. Во ред. Јас ќе ја завртам,
12:55
so it'll be the one on the right.
325
760000
2000
па тогаш таа ќе биде од десно.
12:57
And you are correct.
326
762000
2000
И во право сте.
12:59
A fairly famous illusion -- it was first done with Margaret Thatcher.
327
764000
3000
Прилично популарна илузија – прв пат направена со Маргарет Тачер.
13:02
Now, they trade up the politicians every time.
328
767000
2000
Сега, постојано ги злоупотребуваат политичарите.
13:04
Well, why is this happening?
329
769000
2000
Но, зошто ова се случува?
13:06
Well, we know exactly where it happens,
330
771000
2000
Па, знаеме точно каде се случува,
13:08
in the temporal lobe, right across, sort of above your ear there,
331
773000
3000
во темпоралниот дел, токму попреку, некако над вашето уво, овде.
13:11
in a little structure called the fusiform gyrus.
332
776000
3000
Во една мала структура наречена фузиформен гирус.
13:14
And there's two types of cells that do this,
333
779000
2000
А постојат два типа на клетки кои го прават ова,
13:16
that record facial features either globally,
334
781000
3000
кои ги помнат изразите на лицето било глобално
13:19
or specifically these large, rapid-firing cells,
335
784000
2000
или специфично, овие големи брзо-активирачки клетки
13:21
first look at the general face.
336
786000
2000
прво го гледаат лицето во глобала.
13:23
So you recognize Obama immediately.
337
788000
2000
Значи го препознавате Обама веднаш.
13:25
And then you notice something quite
338
790000
2000
А потоа забележувате нешто
13:27
a little bit odd about the eyes and the mouth.
339
792000
2000
малку необично кај очите и устата.
13:29
Especially when they're upside down,
340
794000
2000
Особено кога се завртени наопаку.
13:31
you're engaging that general facial recognition software there.
341
796000
3000
Вие го ангажирате софтверот за генерално фацијално препознавање.
13:34
Now I said back in our little thought experiment,
342
799000
3000
Сега да се вратиме на нашиот мал мисловен експеримент,
13:37
you're a hominid walking on the plains of Africa.
343
802000
2000
кога вие сте хоминид кој шета по полињата во некогашна Африка.
13:39
Is it just the wind or a dangerous predator?
344
804000
3000
Дали е тоа само ветерот или некој опасен предатор?
13:42
What's the difference between those?
345
807000
2000
Која е разликата помеѓу нив?
13:44
Well, the wind is inanimate;
346
809000
2000
Па, ветерот не е жив;
13:46
the dangerous predator is an intentional agent.
347
811000
2000
а опасниот предатор е суштество со намера.
13:48
And I call this process agenticity.
348
813000
2000
А јас овој процес го нарекувам „оживување“.
13:50
That is the tendency to infuse patterns
349
815000
2000
Тоа е тенденција да се вдахне живот, значење, намера
13:52
with meaning, intention and agency,
350
817000
2000
и цел во шемите кои ги детектираме,
13:54
often invisible beings from the top down.
351
819000
3000
често невидливи суштества од горе надолу.
13:57
This is an idea that we got
352
822000
2000
Ова е идеја која ја добивме
13:59
from a fellow TEDster here, Dan Dennett,
353
824000
2000
од еден ТЕД – пријател, Ден Денет
14:01
who talked about taking the intentional stance.
354
826000
2000
кој зборуваше за завземање на став со намера.
14:03
So it's a type of that expanded to explain, I think, a lot of different things:
355
828000
3000
Значи тоа е тип на идеја која се разиваше за да објасни
14:06
souls, spirits, ghosts, gods, demons, angels,
356
831000
3000
многу различни нешта - души, духови, богови, демони, ангели,
14:09
aliens, intelligent designers,
357
834000
2000
вонземјани, интелигентни дизајнери,
14:11
government conspiracists
358
836000
2000
владини завереници
14:13
and all manner of invisible agents
359
838000
2000
и сите видови на невидливи суштества (агенти)
14:15
with power and intention, are believed
360
840000
2000
со моќ и намера, за кои се верува
14:17
to haunt our world and control our lives.
361
842000
2000
дека го посетуваат нашиот свет и ги контролираат нашите животи.
14:19
I think it's the basis of animism
362
844000
2000
Мислам дека тоа е основата на анимизмот
14:21
and polytheism and monotheism.
363
846000
3000
и политеизмот и монотеизмот.
14:24
It's the belief that aliens are somehow
364
849000
2000
Тоа е верување дека вонземјаните на некој начин
14:26
more advanced than us, more moral than us,
365
851000
2000
се понапредни од нас, поморални од нас,
14:28
and the narratives always are
366
853000
2000
а секогаш според раскажувачите,
14:30
that they're coming here to save us and rescue us from on high.
367
855000
3000
тие доаѓаат овде за да не спасат и да не избават од бездната.
14:33
The intelligent designer's always portrayed
368
858000
2000
Интелигентните креатори секогаш ги претставуваат
14:35
as this super intelligent, moral being
369
860000
3000
како суперинтелигентни, морални суштества
14:38
that comes down to design life.
370
863000
2000
кои доаѓаат овде да креираат живот.
14:40
Even the idea that government can rescue us --
371
865000
2000
Дури и идејата дека Владата може да не спаси,
14:42
that's no longer the wave of the future,
372
867000
2000
е нешто што не можеме да го очекуваме.
14:44
but that is, I think, a type of agenticity:
373
869000
2000
Но тоа е, мислам, еден вид на „оживување“,
14:46
projecting somebody up there,
374
871000
2000
проектирајќи некого таму горе,
14:48
big and powerful, will come rescue us.
375
873000
2000
некој голем и моќен кој ќе дојде и ќе не спаси.
14:50
And this is also, I think, the basis of conspiracy theories.
376
875000
2000
А ова мислам дека е исто така, основата на теориите на заговор.
14:52
There's somebody hiding behind there pulling the strings,
377
877000
3000
Постои некој таму кој е прикриен и ги влече конците,
14:55
whether it's the Illuminati
378
880000
2000
без разлика дали тоа се Илуминатите
14:57
or the Bilderbergers.
379
882000
2000
или Билдербергерови.
14:59
But this is a pattern detection problem, isn't it?
380
884000
2000
Но, ова е проблем на детекција на шеми, нели.
15:01
Some patterns are real and some are not.
381
886000
2000
Некои шеми се реални а некои не се.
15:03
Was JFK assassinated by a conspiracy or by a lone assassin?
382
888000
3000
Дали атентатот врз Кенеди беше заговор или дело на осамен убиец?
15:06
Well, if you go there -- there's people there on any given day --
383
891000
3000
Па, ако отидете таму – таму секојдневно има луѓе –
15:09
like when I went there, here -- showing me where the different shooters were.
384
894000
3000
како и јас кога бев таму – кои ми покажуваа каде биле поставени различни стрелци.
15:12
My favorite one was he was in the manhole.
385
897000
3000
Мојот фаворит беше стрелецот од шахтата,
15:15
And he popped out at the last second, took that shot.
386
900000
3000
кој во последна секунда излегол и пукал.
15:18
But of course, Lincoln was assassinated by a conspiracy.
387
903000
2000
Но, се разбира, атентатот на Линколн беше заговор.
15:20
So we can't just uniformly dismiss
388
905000
2000
Значи, не можеме едноставно да ги отфрлиме
15:22
all patterns like that.
389
907000
2000
сите вакви шеми.
15:24
Because, let's face it, some patterns are real.
390
909000
2000
Бидејќи, навистина, некои шеми се реални.
15:26
Some conspiracies really are true.
391
911000
2000
Некои заговори реално се вистински.
15:30
Explains a lot, maybe.
392
915000
2000
Ова објаснува многу, можеби.
15:32
And 9/11 has a conspiracy theory. It is a conspiracy.
393
917000
3000
И 9/11 е теорија на заговор. Тоа е заговор.
15:35
We did a whole issue on it.
394
920000
2000
Ние посветивме многу на тоа.
15:37
Nineteen members of Al Queda plotting to fly planes into buildings
395
922000
2000
Кога 19 челнови на Ал Каеда смислуваат да летаат со авиони во зградите,
15:39
constitutes a conspiracy.
396
924000
2000
тоа е заговор.
15:41
But that's not what the "9/11 truthers" think.
397
926000
2000
Но, тоа тоа не го мислат и „9/11 верниците“.
15:43
They think it was an inside job by the Bush administration.
398
928000
3000
Тие мислат дека тоа е внатрешна работа на администрацијата на Буш.
15:46
Well, that's a whole other lecture.
399
931000
2000
Но, тоа е сосема друга тема.
15:48
You know how we know that 9/11
400
933000
2000
А знаете ли како знаеме дека 9/11
15:50
was not orchestrated by the Bush administration?
401
935000
2000
не било диригирано од администрацијата на Буш?
15:52
Because it worked.
402
937000
2000
Бидејќи беше успешно.
15:54
(Laughter)
403
939000
3000
(смеење)
15:57
(Applause)
404
942000
3000
(аплауз)
16:00
So we are natural-born dualists.
405
945000
2000
Така, ние сме дуалисти по природа.
16:02
Our agenticity process comes from
406
947000
2000
Нашиот процес на „оживување“ доаѓа од
16:04
the fact that we can enjoy movies like these.
407
949000
2000
фактот дека можеме да уживаме во филмови како овие.
16:06
Because we can imagine, in essence,
408
951000
2000
Бидејќи можеме да ги замислиме, во суштина,
16:08
continuing on.
409
953000
2000
непрекинато.
16:10
We know that if you stimulate the temporal lobe,
410
955000
2000
Знаеме дека ако го стимулирате темпоралниот дел,
16:12
you can produce a feeling of out-of-body experiences,
411
957000
2000
можете да предизвикате чувство на вонтелесно искуство,
16:14
near-death experiences,
412
959000
2000
или предсмртно искуство,
16:16
which you can do by just touching an electrode to the temporal lobe there.
413
961000
3000
и тоа со само едно допирање со електродата врз темпоралниот дел овде.
16:19
Or you can do it through loss of consciousness,
414
964000
2000
Или, тоа можете да го направите со губење на свеста,
16:21
by accelerating in a centrifuge.
415
966000
2000
брзо вртејќи се во центрифуга.
16:23
You get a hypoxia, or a lower oxygen.
416
968000
3000
Добивате хипоксија, или намалено количество на кислород.
16:26
And the brain then senses
417
971000
2000
А тогаш мозокот чувствува
16:28
that there's an out-of-body experience.
418
973000
2000
како да доживува вонтелесно искуство.
16:30
You can use -- which I did, went out and did --
419
975000
2000
Можете да го користите – а тоа јас го пробав, отидов таму и го пробав –
16:32
Michael Persinger's God Helmet,
420
977000
2000
Божјиот шлем на Мајкл Персингер,
16:34
that bombards your temporal lobes with electromagnetic waves.
421
979000
2000
кој ќе го бомбардира вашиот темпорален дел од мозокот со електромагнетни бранови.
16:36
And you get a sense of out-of-body experience.
422
981000
3000
И тогаш ќе имате чувство на вонтелесно искуство.
16:39
So I'm going to end here with a short video clip
423
984000
2000
Јас би завршил овде со еден видео клип
16:41
that sort of brings all this together.
424
986000
2000
кој на некој начин го сумира сето ова.
16:43
It's just a minute and a half.
425
988000
2000
Трае само минута и половина.
16:45
It ties together all this into the power of expectation and the power of belief.
426
990000
3000
Сето ова го сумира во моќ на очекувањето и моќ на верувањето.
16:48
Go ahead and roll it.
427
993000
2000
Може да почне.
16:50
Narrator: This is the venue they chose for their fake auditions
428
995000
3000
Раскажувач: Ова е местото кое го избраа за нивната лажна аудиција
16:53
for an advert for lip balm.
429
998000
2000
за балзам за усни.
16:55
Woman: We're hoping we can use part of this
430
1000000
2000
Жената: Се надеваме дека дел од ова ќе можеме да го искористиме
16:57
in a national commercial, right?
431
1002000
2000
за националната реклама, нели.
16:59
And this is test on some lip balms
432
1004000
2000
А ова е тест за некои балзами за усни
17:01
that we have over here.
433
1006000
2000
кои ги имаме овде.
17:03
And these are our models who are going to help us,
434
1008000
2000
А ова се нашите модели кои ќе ни помогнат,
17:05
Roger and Matt.
435
1010000
2000
Роџер и Мет.
17:07
And we have our own lip balm,
436
1012000
2000
Ние го имаме нашиот сопствен балзам за усни,
17:09
and we have a leading brand.
437
1014000
2000
а го имаме и водечкиот бренд.
17:11
Would you have any problem
438
1016000
2000
Дали би имала проблем
17:13
kissing our models to test it?
439
1018000
2000
да ги бакнеш нашите модели за да го тестираш балзамот.
17:15
Girl: No.
440
1020000
2000
Девојката: Не.
17:17
Woman: You wouldn't? (Girl: No.) Woman: You'd think that was fine.
441
1022000
2000
Жената: Нема?(Девојката:Не.) Жената: Мислиш дека тоа е во ред.
17:19
Girl: That would be fine. (Woman: Okay.)
442
1024000
2000
Девојката: Тоа би било во ред.(Жената: Во ред.)
17:21
So this is a blind test.
443
1026000
3000
Значи ова е тест на слепо.
17:24
I'm going to ask you to go ahead
444
1029000
2000
Ќе те замолам
17:26
and put a blindfold on.
445
1031000
2000
да ги врзеш очите.
17:29
Kay, now can you see anything? (Girl: No.)
446
1034000
3000
Во ред, сега дали можеш да видиш нешто? (Девојката: Не.)
17:32
Pull it so you can't even see down. (Girl: Okay.)
447
1037000
2000
Затегни го за да неможеш да гледаш ниту надолу. (Девојката: Во ред.)
17:34
Woman: It's completely blind now, right?
448
1039000
2000
Жената: Сега воопшто не гледаш, нели?
17:36
Girl: Yes. (Woman: Okay.)
449
1041000
2000
Девојката: Да. (Жената: Во ред.)
17:38
Now, what I'm going to be looking for in this test
450
1043000
3000
Значи, тоа што ќе го барам од овој тест
17:41
is how it protects your lips,
451
1046000
3000
е да се види како балзамот ги заштитува твоите усни,
17:44
the texture, right,
452
1049000
2000
текстурата,
17:46
and maybe if you can discern any flavor or not.
453
1051000
3000
и можеби ако можеш да направиш разлика помеѓу вкусовите.
17:49
Girl: Okay. (Woman: Have you ever done a kissing test before?)
454
1054000
3000
Девојката: Во ред. (Жената: Дали претходно си правела тест со бакнување?)
17:52
Girl: No.
455
1057000
2000
Девојката: Не.
17:54
Woman: Take a step here.
456
1059000
2000
Жената: Направи чекор наваму.
17:56
Okay, now I'm going to ask you to pucker up.
457
1061000
2000
Во ред, сега треба да ги собереш усните.
17:58
Pucker up big and lean in just a little bit, okay?
458
1063000
3000
Собери ги повеќе и навали се малку, добро?
18:06
(Music)
459
1071000
4000
♫♪♫
18:10
(Laughter)
460
1075000
5000
(смеење)
18:19
(Laughter)
461
1084000
3000
(смеење)
18:30
Woman: Okay.
462
1095000
2000
Во ред.
18:32
And, Jennifer, how did that feel?
463
1097000
2000
И, Џенифер, какво е чувството?
18:34
Jennifer: Good.
464
1099000
2000
Џенифер: Добро.
18:36
(Laughter)
465
1101000
7000
(смеење)
18:43
Girl: Oh my God!
466
1108000
2000
Девојката: О Боже!
18:45
(Laughter)
467
1110000
4000
(смеење)
18:50
Michael Shermer: Thank you very much. Thank you. Thanks.
468
1115000
3000
Мајкл Шермер:Ви благодарам многу. Благодарам.
Translated by Rozeta Pavlova
Reviewed by Dragan Bocevski

▲Back to top

ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com