ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com
TED2010

Michael Shermer: The pattern behind self-deception

Michael Shermer: La regulaĵo malantaŭ memtrompado

Filmed:
2,854,890 views

Michael Shermer asertas ke la homa tendenco kredi strangajn aferojn -- el ekstertera forkaptado al divenvergoj -- reduktiĝas al du el la plej bazaj kaj enradikiĝintaj lertaĵoj por supervivado. Li eksplikas tion, kio ili estas kaj kiel ili kaŭzas al ni problemojn.
- Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market. Full bio

Double-click the English transcript below to play the video.

00:16
So since I was here last in '06,
0
1000
3000
De kiam mi laste estis tie ĉi, en 2006
00:19
we discovered that global climate change
1
4000
2000
ni malkovris ke tutmonda klimatŝanĝiĝo
00:21
is turning out to be a pretty serious issue,
2
6000
2000
estas ja afero sufiĉe serioza.
00:23
so we covered that fairly extensively
3
8000
2000
Do, ni pritraktis ĝin tre amplekse
00:25
in Skeptic magazine.
4
10000
2000
en la revuo "Skeptic".
00:27
We investigate all kinds
5
12000
2000
Ni esploras ĉiajn sciencajn
00:29
of scientific and quasi-scientific controversies,
6
14000
3000
aŭ kvazaŭsciencajn polemikojn.
00:32
but it turns out we don't have to worry about any of this
7
17000
2000
Sed tamen rezultas ke ni ne devus zorgi pri ĉio ĉi
00:34
because the world's going to end in 2012.
8
19000
2000
ĉar la mondo finiĝos en 2012.
00:36
Another update:
9
21000
2000
Alia novaĵo:
00:38
You will recall I introduced you guys
10
23000
2000
Vi eble memoras ke mi prezentis al vi
00:40
to the Quadro Tracker.
11
25000
2000
la "Quadro Tracker".
00:42
It's like a water dowsing device.
12
27000
2000
Ĝi estas ilo simila al rabdo (divenvergo)
00:44
It's just a hollow piece of plastic with an antenna that swivels around.
13
29000
3000
ia kava plasta peco kun svingiĝanta anteno
00:47
And you walk around, and it points to things.
14
32000
2000
Kaj vi promenadas, kaj ĝi montrocelas ion.
00:49
Like if you're looking for marijuana in students' lockers,
15
34000
3000
Ekzemple se vi serĉas mariĥuanon en studenta ŝranko
00:52
it'll point right to somebody.
16
37000
2000
ĝi montrocelos iun
00:54
Oh, sorry. (Laughter)
17
39000
2000
Ho, pardonu (Ridado)
00:56
This particular one that was given to me
18
41000
2000
Tiu ĉi , kiun oni donis al mi,
00:58
finds golf balls,
19
43000
2000
trovas golfopilkojn,
01:00
especially if you're at a golf course
20
45000
2000
precipe se vi troviĝas en golfejo
01:02
and you check under enough bushes.
21
47000
3000
kaj ade kontrolas ĉe arbedoj.
01:05
Well, under the category of "What's the harm of silly stuff like this?"
22
50000
3000
Nu, sub la kategorio "Kiu estas la damaĝo de stultaĵetoj tiaj?"
01:08
this device, the ADE 651,
23
53000
3000
tiu ĉi ilo, la ADE 651,
01:11
was sold to the Iraqi government
24
56000
3000
estis vendita al la iraka registaro
01:14
for 40,000 dollars apiece.
25
59000
2000
kontraŭ po 40 000 dolaroj ĉiu ilo.
01:16
It's just like this one, completely worthless,
26
61000
2000
Estas io simple kiel tiu ĉi, absolute senvalora,
01:18
in which it allegedly worked by "electrostatic
27
63000
2000
kiu supozeble funkciis per "elektrostatika
01:20
magnetic ion attraction,"
28
65000
3000
magneta jona altiro",
01:24
which translates to
29
69000
2000
kio tradukeblas per
01:26
"pseudoscientific baloney" -- would be the nice word --
30
71000
3000
"pseŭdoscienca blablaaĵo" -- kio estus bela vorto --
01:29
in which you string together a bunch of words that sound good,
31
74000
2000
per kio vi alkroĉas serion da vortoj kiuj sonas bone,
01:31
but it does absolutely nothing.
32
76000
2000
sed signifas nenion.
01:33
In this case, at trespass points,
33
78000
3000
En tiu ĉi kazo, en paskontrolejoj,
01:36
allowing people to go through
34
81000
2000
kie oni lasas homojn transpasi
01:38
because your little tracker device said they were okay,
35
83000
3000
ĉar tiu spurileto diris ke ne estas problemo,
01:41
actually cost lives.
36
86000
3000
tio fakte kostis vivojn.
01:44
So there is a danger to pseudoscience,
37
89000
2000
Do estas danĝero en la pseŭdoscienco,
01:46
in believing in this sort of thing.
38
91000
3000
en la kredado en tiaj aferoj.
01:49
So what I want to talk about today is belief.
39
94000
3000
Do mi volas hodiaŭ paroli pri kredado.
01:52
I want to believe,
40
97000
2000
Mi volas kredi,
01:54
and you do too.
41
99000
2000
kaj ankaŭ vi volas.
01:56
And in fact, I think my thesis here is that
42
101000
2000
Kaj fakte mi pensas ke mia tezo estas
01:58
belief is the natural state of things.
43
103000
2000
ke kredado estas homa natura stato.
02:00
It is the default option. We just believe.
44
105000
2000
Ĝi estas la baza opcio. Simple ni kredas.
02:02
We believe all sorts of things.
45
107000
2000
Ni kredas ĉiajn aferojn.
02:04
Belief is natural;
46
109000
2000
Kredado estas natura.
02:06
disbelief, skepticism, science, is not natural.
47
111000
2000
Nekredado, skeptikismo, scienco, ne estas naturaj.
02:08
It's more difficult.
48
113000
2000
Ili estas pli malfacilaj.
02:10
It's uncomfortable to not believe things.
49
115000
2000
Estas malkonforte ne kredi ion.
02:12
So like Fox Mulder on "X-Files,"
50
117000
3000
Do, kiel Fox Mulder en "X-Files",
02:15
who wants to believe in UFOs? Well, we all do,
51
120000
3000
kiu volas kredi je NIFOj? Ne, ĉiuj ni.
02:18
and the reason for that is because
52
123000
2000
Kaj la kialo por tio estas ĉar
02:20
we have a belief engine in our brains.
53
125000
3000
ni havas kred-maŝinon en niaj cerboj.
02:23
Essentially, we are pattern-seeking primates.
54
128000
3000
Esence, ni estas regulaĵojn serĉantajn primatoj.
02:26
We connect the dots: A is connected to B; B is connected to C.
55
131000
3000
Ni ligas la punktojn: A rilatas al B; B rilatas al C.
02:29
And sometimes A really is connected to B,
56
134000
3000
Kaj kelkfoje A vere rilatas al B.
02:32
and that's called association learning.
57
137000
2000
Kaj tio nomiĝas lernado per asociado.
02:34
We find patterns, we make those connections,
58
139000
3000
Ni trovas regulaĵojn, ni faras kunligojn,
02:37
whether it's Pavlov's dog here
59
142000
2000
ĉu temas pri la hundo de Pavlov
02:39
associating the sound of the bell with the food,
60
144000
3000
kiu rilatigas la sonon de sonorilo kun la manĝo,
02:42
and then he salivates to the sound of the bell,
61
147000
2000
kaj tiam salivas ĉe la sonorado de la sonorilo,
02:44
or whether it's a Skinnerian rat,
62
149000
2000
aŭ ĉu temas pri rato de Skinner,
02:46
in which he's having an association
63
151000
2000
kiu kreas asociadon
02:48
between his behavior and a reward for it,
64
153000
2000
inter sia konduto kaj rekompenco pro ĝi,
02:50
and therefore he repeats the behavior.
65
155000
2000
kaj do ripetas sian konduton.
02:52
In fact, what Skinner discovered
66
157000
2000
Fakte, kio Skinner malkovris estas
02:54
is that, if you put a pigeon in a box like this,
67
159000
3000
ke se vi enmetas kolombon en skatolon kiel tiun ĉi,
02:57
and he has to press one of these two keys,
68
162000
2000
kaj ĝi devas premi unun el tiuj ĉi butonoj,
02:59
and he tries to figure out what the pattern is,
69
164000
2000
kaj klopodas diveni kiu estas la regulaĵo,
03:01
and you give him a little reward in the hopper box there --
70
166000
2000
kaj oni donas al ĝi rekompenceton en tiu ujo,
03:03
if you just randomly assign rewards
71
168000
3000
se vi simple rekompencas hazarde
03:06
such that there is no pattern,
72
171000
2000
tiel ke ne ekzistas reguleco,
03:08
they will figure out any kind of pattern.
73
173000
2000
ili divenos ian regulaĵon.
03:10
And whatever they were doing just before they got the reward,
74
175000
2000
Kaj kion ajn ili faris tuj antaŭ ol ricevi
03:12
they repeat that particular pattern.
75
177000
2000
la rekompencon, ili ripetas.
03:14
Sometimes it was even spinning around twice counterclockwise,
76
179000
3000
Kelkfoje tio estis eĉ sin turni dufoje maldekstrume,
03:17
once clockwise and peck the key twice.
77
182000
3000
unufoje dekstrume, kaj premi la butonon dufoje.
03:20
And that's called superstition,
78
185000
2000
Tio estas nomata superstiĉo.
03:22
and that, I'm afraid,
79
187000
2000
Kaj tion, mi timas,
03:24
we will always have with us.
80
189000
2000
ni ĉiam konservos ĉe ni.
03:26
I call this process "patternicity" --
81
191000
2000
Mi nomas tiun procezon "regulaĵemo"
03:28
that is, the tendency to find meaningful patterns
82
193000
2000
tio estas, la tendenco trovi signifajn regulaĵojn
03:30
in both meaningful and meaningless noise.
83
195000
3000
kaj en signifa kaj en malsignifa fonbruo.
03:33
When we do this process, we make two types of errors.
84
198000
3000
Kiam ni faras tiun procezon, ni faras du klasojn de eraroj.
03:36
A Type I error, or false positive,
85
201000
2000
Eraro de klaso I, aŭ falsa pozitivaĵo,
03:38
is believing a pattern is real
86
203000
2000
estas kredi ke iu regulaĵo estas reala
03:40
when it's not.
87
205000
2000
kiam ĝi ne estas tia.
03:42
Our second type of error is a false negative.
88
207000
2000
Nia dua klaso de eraro estas la falsa negativaĵo.
03:44
A Type II error is not believing
89
209000
2000
La eraro de klaso II estas ne kredi
03:46
a pattern is real when it is.
90
211000
3000
ke regulaĵo estas reala, kiam ĝi estas tia.
03:49
So let's do a thought experiment.
91
214000
2000
Do ni faru pensan eksperimenton.
03:51
You are a hominid three million years ago
92
216000
2000
Vi estas prahomo antaŭ tri milionoj da jaroj
03:53
walking on the plains of Africa.
93
218000
3000
promenante en la ebenaĵoj de Afriko.
03:56
Your name is Lucy, okay?
94
221000
2000
Via nomo estas Lucy, ĉu?
03:58
And you hear a rustle in the grass.
95
223000
2000
Kaj vi aŭdas krakon en la herbejo.
04:00
Is it a dangerous predator,
96
225000
2000
Ĉu tio estas danĝera predanto,
04:02
or is it just the wind?
97
227000
2000
aŭ simple la vento?
04:04
Your next decision could be the most important one of your life.
98
229000
3000
Via venonta decido povus esti la plej grava en via vivo.
04:07
Well, if you think that the rustle in the grass is a dangerous predator
99
232000
3000
Nu, se vi pensas ke temas pri danĝera predanto,
04:10
and it turns out it's just the wind,
100
235000
2000
kaj okazas ke simple estis la vento,
04:12
you've made an error in cognition,
101
237000
2000
vi faris kognan eraron,
04:14
made a Type I error, false positive.
102
239000
2000
vi faris eraron de klaso I, falsan pozitivaĵon.
04:16
But no harm. You just move away.
103
241000
2000
Sed ne estis damaĝo. Simple formoviĝu.
04:18
You're more cautious. You're more vigilant.
104
243000
2000
Vi estas pli zorga. Vi estas pli singarda.
04:20
On the other hand, if you believe that the rustle in the grass is just the wind,
105
245000
2000
Aliflanke, se vi pensas ke simple temas pri la vento,
04:22
and it turns out it's a dangerous predator,
106
247000
3000
kaj okazas ke estas danĝera predanto,
04:25
you're lunch.
107
250000
2000
vi fariĝas manĝaĵo.
04:27
You've just won a Darwin award.
108
252000
2000
Vi gajnis Darvin-premion.
04:29
You've been taken out of the gene pool.
109
254000
2000
Vi estis forigita el la genprovizo.
04:31
Now the problem here is that
110
256000
2000
Nu, la problemo ĉi-kaze estas
04:33
patternicities will occur whenever the cost
111
258000
2000
ke regulaĵemo okazos ĉiam ajn kiam la kosto
04:35
of making a Type I error
112
260000
2000
fari eraron de klaso I
04:37
is less than the cost of making a Type II error.
113
262000
2000
estas malpli granda ol la kosto fari eraron de klaso II.
04:39
This is the only equation in the talk by the way.
114
264000
2000
Tiu ĉi parenteze estas la sola ekvacio en la parolado.
04:41
We have a pattern detection problem
115
266000
2000
Ni havas problemon de detektado de regulaĵoj
04:43
that is assessing the difference between a Type I and a Type II error
116
268000
3000
tio estas, taksi la diferencon inter eraroj de klaso I kaj de klaso II
04:46
is highly problematic,
117
271000
2000
estas io alte problemeca,
04:48
especially in split-second, life-and-death situations.
118
273000
3000
ĉefe en okazaĵoj tut-urĝaj, de vivo-aŭ-morto.
04:51
So the default position
119
276000
2000
Do, la baza opcio estas
04:53
is just: Believe all patterns are real --
120
278000
2000
simple "kredu ke ĉiuj regulaĵoj estas realaj".
04:55
All rustles in the grass are dangerous predators
121
280000
3000
"Ĉiuj krakoj en la herbejo estas danĝeraj predantoj
04:58
and not just the wind.
122
283000
2000
kaj ne simple la vento".
05:00
And so I think that we evolved ...
123
285000
2000
Kaj tiel mi pensas ke ni evoluis...
05:02
there was a natural selection for the propensity for our belief engines,
124
287000
3000
estis natura selektado por la inklino de niaj kredmaŝinoj,
05:05
our pattern-seeking brain processes,
125
290000
2000
niaj regulaĵojn serĉantaj cerboprocezoj,
05:07
to always find meaningful patterns
126
292000
2000
ĉiam trovi signifajn regulaĵojn
05:09
and infuse them with these sort of
127
294000
2000
kaj enplanti ilin per tiu tipo da
05:11
predatory or intentional agencies that I'll come back to.
128
296000
3000
predantaj aŭ intencaj agentaĵoj pri kiuj mi poste revenos.
05:14
So for example, what do you see here?
129
299000
2000
Do ekzemple, kion vi vidas tie ĉi?
05:16
It's a horse head, that's right.
130
301000
2000
Ĝi estas ĉevala kapo, ĝuste.
05:18
It looks like a horse. It must be a horse.
131
303000
2000
Ĝi similas al ĉevalo. Ĝi devas esti iu ĉevalo.
05:20
That's a pattern.
132
305000
2000
Tio estas regulaĵo.
05:22
And is it really a horse?
133
307000
2000
Kaj ĉu ĝi vere estas ĉevalo?
05:24
Or is it more like a frog?
134
309000
3000
Aŭ ĉu ĝi pli similas al rano?
05:27
See, our pattern detection device,
135
312000
2000
Vidu, nia regulaĵ-serĉilo,
05:29
which appears to be located in the anterior cingulate cortex --
136
314000
3000
kiu ŝajne lokiĝas en la antaŭa cingula kortekso --
05:32
it's our little detection device there --
137
317000
3000
ĝi estas nia detektileto tie ĉi --
05:35
can be easily fooled, and this is the problem.
138
320000
2000
povas esti facile trompita, kaj tie estas la problemo.
05:37
For example, what do you see here?
139
322000
2000
Ekzemple, kion vi vidas tie ĉi?
05:39
Yes, of course, it's a cow.
140
324000
3000
Jes, kompreneble. Ĝi estas bovino.
05:42
Once I prime the brain -- it's called cognitive priming --
141
327000
3000
Jam kiam vi stampas la cerbon -- tio nomiĝas kogna stampado --
05:45
once I prime the brain to see it,
142
330000
2000
kiam mi stampas la cerbon por vidi ĝin,
05:47
it pops back out again even without the pattern that I've imposed on it.
143
332000
3000
ĝi remontriĝas eĉ sen la regulaĵo kiun ni trudis al ĝi.
05:50
And what do you see here?
144
335000
2000
Kaj kion vi vidas tie ĉi?
05:52
Some people see a Dalmatian dog.
145
337000
2000
Kelkaj homoj vidas dalmatan hundon.
05:54
Yes, there it is. And there's the prime.
146
339000
2000
Jes, jen ĝi estas. Kaj jen estas la stampado.
05:56
So when I go back without the prime,
147
341000
2000
Do, kiam mi revenas sen la stampado,
05:58
your brain already has the model
148
343000
2000
la cerbo jam havas la modelon
06:00
so you can see it again.
149
345000
2000
tiel ke oni povas vidi ĝin denove.
06:02
What do you see here?
150
347000
3000
Kion vi vidas tie ĉi?
06:05
Planet Saturn. Yes, that's good.
151
350000
2000
La planedo Saturno. Jes, tio ĝustas.
06:07
How about here?
152
352000
3000
Kaj tie ĉi?
06:10
Just shout out anything you see.
153
355000
3000
Simple laŭtkriu ion ajn kion vi vidas.
06:14
That's a good audience, Chris.
154
359000
2000
Tio estas bona aŭskultantaro, Chris.
06:16
Because there's nothing in this. Well, allegedly there's nothing.
155
361000
3000
Ĉar estas nenio tie ĉi. Nu, supozeble estas nenio.
06:19
This is an experiment done by Jennifer Whitson
156
364000
3000
Tiu ĉi estis eksperimento farita de Jennifer Whitson,
06:22
at U.T. Austin
157
367000
2000
ĉe la Universitato de Teksaso ĉe Aŭstino,
06:24
on corporate environments
158
369000
2000
pri korporaciaj etosoj
06:26
and whether feelings of uncertainty and out of control
159
371000
3000
kaj ĉu sentoj pri necerteco kaj senkontrolo
06:29
makes people see illusory patterns.
160
374000
2000
igas la homojn vidi iluziajn regulaĵojn.
06:31
That is, almost everybody sees the planet Saturn.
161
376000
3000
Tio estas, preskaŭ ĉiuj vidas la planedon Saturnon.
06:34
People that are put in a condition of feeling out of control
162
379000
3000
Homoj metitaj en kondiĉoj de sento pri manko de kontrolo
06:37
are more likely to see something in this,
163
382000
2000
pli emas vidi ion en tio ĉi,
06:39
which is allegedly patternless.
164
384000
3000
kio supozeble ne enhavas regulaĵojn.
06:42
In other words, the propensity to find these patterns
165
387000
3000
Alivorte, la tendenco trovi tiujn ĉi regulaĵojn
06:45
goes up when there's a lack of control.
166
390000
3000
kreskas kiam estas manko de kontrolo.
06:48
For example, baseball players are notoriously superstitious
167
393000
3000
Ekzemple, basbalistoj estas notinde superstiĉaj
06:51
when they're batting,
168
396000
2000
kiam ili batadas,
06:53
but not so much when they're fielding.
169
398000
2000
sed ne tiom kiam ili kampulas.
06:55
Because fielders are successful
170
400000
2000
Ĉar kampuloj sukcesas
06:57
90 to 95 percent of the time.
171
402000
2000
90 ĝis 91 procente de la okazoj.
06:59
The best batters fail seven out of 10 times.
172
404000
3000
La plej bonaj batuloj fiaskas sep fojojn el dek.
07:02
So their superstitions, their patternicities,
173
407000
2000
Do, iliaj superstiĉoj, iliaj regulaĵemoj,
07:04
are all associated with feelings of lack of control
174
409000
3000
estas ĉiuj asociataj kun sentoj de manko de kontrolo
07:07
and so forth.
175
412000
2000
kaj tiel cetere.
07:10
What do you see in this particular one here, in this field?
176
415000
3000
Kion vi vidas en tiu ĉi konkreta kazo tie ĉi, en tiu ĉi kampo?
07:13
Anybody see an object there?
177
418000
2000
Ĉu iu vidas objekton tie ĉi?
07:15
There actually is something here,
178
420000
2000
Estas vere io,
07:17
but it's degraded.
179
422000
2000
sed ĝi estas stompita.
07:19
While you're thinking about that,
180
424000
2000
Dum vi pripensas pri tio,
07:21
this was an experiment done by Susan Blackmore,
181
426000
2000
tiu estis eksperimento farita de Susan Blackmore,
07:23
a psychologist in England,
182
428000
2000
psikologiisto en Anglio,
07:25
who showed subjects this degraded image
183
430000
2000
kiu montris al individuoj tiun stompitan bildon
07:27
and then ran a correlation between
184
432000
2000
kaj tiam faris rilatigon inter
07:29
their scores on an ESP test:
185
434000
2000
iliaj poentoj en testo pri ekstersensa perceptado (ESP)
07:31
How much did they believe in the paranormal,
186
436000
2000
kiom ili kredas je paranormaleco,
07:33
supernatural, angels and so forth.
187
438000
3000
supernaturaĵoj, anĝeloj kaj cetere.
07:36
And those who scored high on the ESP scale,
188
441000
3000
Kaj tiuj kiuj poentis alte en la ESP-skalo,
07:39
tended to not only see
189
444000
2000
emis ne nur vidi
07:41
more patterns in the degraded images
190
446000
2000
pli da regulaĵoj en la stompitaj bildoj,
07:43
but incorrect patterns.
191
448000
2000
sen malĝustajn regulaĵojn.
07:45
Here is what you show subjects.
192
450000
2000
Tio ĉi estas kion oni montras al individuoj.
07:47
The fish is degraded 20 percent, 50 percent
193
452000
3000
La fiŝo estas stompita 20 procente, 50 procente
07:50
and then the one I showed you,
194
455000
2000
kaj jen kion mi montris al vi,
07:52
70 percent.
195
457000
2000
70 procente.
07:54
A similar experiment was done by another [Swiss] psychologist
196
459000
2000
Simila eksperimento estis farita de alia psikologiisto,
07:56
named Peter Brugger,
197
461000
2000
Sviso nomata Peter Brugger,
07:58
who found significantly more meaningful patterns
198
463000
3000
kiu trovis ke signife pli da veraj regulaĵoj
08:01
were perceived on the right hemisphere,
199
466000
2000
estis perceptitaj en la dekstra hemisfero,
08:03
via the left visual field, than the left hemisphere.
200
468000
3000
tra la maldekstra vidkampo, ol en la maldekstra hemisfero.
08:06
So if you present subjects the images such
201
471000
2000
Do, se oni prezentas al la individuoj la bildon tiel
08:08
that it's going to end up on the right hemisphere instead of the left,
202
473000
3000
ke ĝi fine atingos la dekstran hemisferon anstataŭ la maldekstran,
08:11
then they're more likely to see patterns
203
476000
2000
tiam ili pli probable vidos regulaĵojn
08:13
than if you put it on the left hemisphere.
204
478000
2000
ol kaze ke oni metu ĝin en la maldekstran hemisferon.
08:15
Our right hemisphere appears to be
205
480000
2000
Nia dekstra hemisfero ŝajnas esti
08:17
where a lot of this patternicity occurs.
206
482000
2000
la loko kie tiu regulaĵemo okazadas.
08:19
So what we're trying to do is bore into the brain
207
484000
2000
Do kion ni provas fari estas penetri en la cerbon
08:21
to see where all this happens.
208
486000
2000
por vidi kie ĉio ĉi okazas.
08:23
Brugger and his colleague, Christine Mohr,
209
488000
3000
Brugger kaj lia kolego, Christine Mohr,
08:26
gave subjects L-DOPA.
210
491000
2000
doni al la individuojn L-DOPA-on.
08:28
L-DOPA's a drug, as you know, given for treating Parkinson's disease,
211
493000
3000
L-DOPA estas medicinaĵo, kiel oni scias, uzata por la traktado de Parkinson-malsano,
08:31
which is related to a decrease in dopamine.
212
496000
3000
kiu rilatas al la malkresko de dopamino.
08:34
L-DOPA increases dopamine.
213
499000
2000
L-DOPA kreskigas dopaminon.
08:36
An increase of dopamine caused
214
501000
2000
Kaj kresko de dopamino igis
08:38
subjects to see more patterns
215
503000
2000
la individuojn vidi pli da regulaĵoj
08:40
than those that did not receive the dopamine.
216
505000
2000
ol tiuj kiuj ne ricevis dopaminon.
08:42
So dopamine appears to be the drug
217
507000
2000
Do, dopamino ŝajnas esti la medicinaĵo
08:44
associated with patternicity.
218
509000
2000
asociita al regulaĵemo.
08:46
In fact, neuroleptic drugs
219
511000
2000
Fakte, la neŭroleptaj medicinaĵoj
08:48
that are used to eliminate psychotic behavior,
220
513000
2000
uzataj por forigi psikozan konduton,
08:50
things like paranoia, delusions
221
515000
2000
aferojn kiel paranojon, iluziojn
08:52
and hallucinations,
222
517000
2000
kaj halucinojn,
08:54
these are patternicities.
223
519000
2000
tiuj ĉi estas regulaĵemoj.
08:56
They're incorrect patterns. They're false positives. They're Type I errors.
224
521000
3000
Ili estas malĝustaj regulaĵoj, falsaj pozitivaĵoj, eraroj de klaso I.
08:59
And if you give them drugs
225
524000
2000
Kaj se oni donas al ili medicinaĵojn
09:01
that are dopamine antagonists,
226
526000
2000
kiuj estas dopamin-antagonistoj,
09:03
they go away.
227
528000
2000
ili foriĝas.
09:05
That is, you decrease the amount of dopamine,
228
530000
2000
Tio estas, se oni malkreskigas la kvanton da dopamino,
09:07
and their tendency to see
229
532000
2000
ilia tendenco vidi
09:09
patterns like that decreases.
230
534000
2000
regulaĵojn kiaj tiuj malkreskas.
09:11
On the other hand, amphetamines like cocaine
231
536000
3000
Aliflanke, amfetaminoj kiel kokaino,
09:14
are dopamine agonists.
232
539000
2000
estas dopamin-agonistoj.
09:16
They increase the amount of dopamine.
233
541000
2000
Ili kreskigas la kvanton da dopamino.
09:18
So you're more likely to feel in a euphoric state,
234
543000
3000
Do, estas pli probable ke oni sentos eŭforian staton,
09:21
creativity, find more patterns.
235
546000
2000
kreivecon, trovos pli da regulaĵoj.
09:23
In fact, I saw Robin Williams recently
236
548000
2000
Fakte, mi antaŭnemulte vidis (aktoron) Robin Williams
09:25
talk about how he thought he was much funnier
237
550000
2000
paroli pri tio ke li pensis ke li estis multe pli amuza
09:27
when he was doing cocaine, when he had that issue, than now.
238
552000
3000
kiam li konsumadis kokainon, kiam li havis tiun problemon, ol nun.
09:30
So perhaps more dopamine
239
555000
2000
Do eble pli da dopamino
09:32
is related to more creativity.
240
557000
2000
rilatas al pli da kreivo.
09:34
Dopamine, I think, changes
241
559000
2000
Dopamino, pensas mi, ŝanĝas
09:36
our signal-to-noise ratio.
242
561000
2000
la rilaton inter signalo kaj fonbruo.
09:38
That is, how accurate we are
243
563000
2000
Tio estas, kiel preciza ni estas
09:40
in finding patterns.
244
565000
2000
ĉe la trovo de regulaĵoj.
09:42
If it's too low, you're more likely to make too many Type II errors.
245
567000
3000
Se ĝi estas tro malalta, oni pli probable faros erarojn de klaso du.
09:45
You miss the real patterns. You don't want to be too skeptical.
246
570000
2000
Oni ne rimarkas la realajn regulaĵojn. Oni ne volas esti tro skeptika.
09:47
If you're too skeptical, you'll miss the really interesting good ideas.
247
572000
3000
Se oni estas tro skeptika, oni ne rimarkas la vere interesajn kaj bonajn ideojn.
09:51
Just right, you're creative, and yet you don't fall for too much baloney.
248
576000
3000
Tute ĝuste, oni estas kreiva, kaj tamen, oni ne trovas troan blablaaĵon.
09:54
Too high and maybe you see patterns everywhere.
249
579000
3000
Tro alte, kaj eble oni vidos regulaĵojn ĉie.
09:57
Every time somebody looks at you, you think people are staring at you.
250
582000
3000
Ĉiufoje kiam iu rigardas vin, vi pensas ke homoj gvatas vin.
10:00
You think people are talking about you.
251
585000
2000
Vi pensas ke homoj parolas pri vi.
10:02
And if you go too far on that, that's just simply
252
587000
2000
Kaj se oni tro longe sekvas tiun vojon, tion oni simple
10:04
labeled as madness.
253
589000
2000
etikedas kiel frenezecon.
10:06
It's a distinction perhaps we might make
254
591000
2000
Ĝi estas distingo kiun ni eble povus fari
10:08
between two Nobel laureates, Richard Feynman
255
593000
2000
inter du Nobelpremiitoj, Richard Feynman
10:10
and John Nash.
256
595000
2000
kaj John Nash.
10:12
One sees maybe just the right number
257
597000
2000
Oni eble vidas simple la ĝustan nombron
10:14
of patterns to win a Nobel Prize.
258
599000
2000
da regulaĵoj por gajni Nobelpremion.
10:16
The other one also, but maybe too many patterns.
259
601000
2000
Ankaŭ la alia, sed eble tro multajn regulaĵojn.
10:18
And we then call that schizophrenia.
260
603000
3000
Kaj tiam ni nomas tion skizofrenio.
10:21
So the signal-to-noise ratio then presents us with a pattern-detection problem.
261
606000
3000
Do la rilato inter signalo kaj fonbruo prezentas al ni problemon de detektado de regulaĵoj.
10:24
And of course you all know exactly
262
609000
2000
Kaj kompreneble vi ĉiuj scias ekzakte
10:26
what this is, right?
263
611000
2000
kio tio estas, ĉu?
10:28
And what pattern do you see here?
264
613000
2000
Kaj kiun regulaĵon vi vidas tie ĉi?
10:30
Again, I'm putting your anterior cingulate cortex to the test here,
265
615000
3000
Denove mi testas nun vian antaŭan cingulan kortekson,
10:33
causing you conflicting pattern detections.
266
618000
3000
kaŭzante al vi kontraŭdirajn detektojn de regulaĵoj.
10:36
You know, of course, this is Via Uno shoes.
267
621000
2000
Vi kompreneble scias ke tio estas ŝuoj "Via Uno"
10:38
These are sandals.
268
623000
3000
Tio estas sandaloj.
10:41
Pretty sexy feet, I must say.
269
626000
3000
Sufiĉe seksallogajn piedojn, mi diru.
10:44
Maybe a little Photoshopped.
270
629000
2000
Eble iom tro submetitaj al Photoshop.
10:46
And of course, the ambiguous figures
271
631000
2000
Kaj kompreneble la ambiguajn figurojn,
10:48
that seem to flip-flop back and forth.
272
633000
2000
kiuj ŝajnas ŝanceliĝi antaŭen kaj malantaŭen.
10:50
It turns out what you're thinking about a lot
273
635000
2000
Rezultas, ke tio, pri kio oni multe pensas
10:52
influences what you
274
637000
2000
influas tion kion oni
10:54
tend to see.
275
639000
2000
emas vidi.
10:56
And you see the lamp here, I know.
276
641000
2000
Kaj mi scias ke vi tie ĉi vidas la lampon.
10:58
Because the lights on here.
277
643000
3000
Tial ke la lumo estas tie ĉi.
11:01
Of course, thanks to the environmentalist movement
278
646000
2000
Kompreneble, danke al la mediprotekta movado
11:03
we're all sensitive to the plight of marine mammals.
279
648000
3000
ni estas ĉiuj sentemaj pri la sorto de la marmamuloj.
11:06
So what you see in this particular ambiguous figure
280
651000
3000
Do kion vi vidas en tiu ĉi aparta ambigua bildo
11:09
is, of course, the dolphins, right?
281
654000
2000
estas, kompreneble, delfenoj, ĝuste.
11:11
You see a dolphin here,
282
656000
2000
Vi vidas delfenon tie ĉi.
11:13
and there's a dolphin,
283
658000
2000
Kaj jen estas delfeno.
11:15
and there's a dolphin.
284
660000
2000
Kaj jen estas delfeno.
11:17
That's a dolphin tail there, guys.
285
662000
3000
Tio estas delfenvosto, uloj.
11:20
(Laughter)
286
665000
3000
(Ridado)
11:25
If we can give you conflicting data, again,
287
670000
3000
Se ni povas doni al vi kontraŭdirajn informojn, denove,
11:28
your ACC is going to be going into hyperdrive.
288
673000
3000
via ACK [antaŭa cingula kortekso] estas hiperaktiviĝonta.
11:31
If you look down here, it's fine. If you look up here, then you get conflicting data.
289
676000
3000
Se vi rigardas tie malsupre, tio ĝustas. Se vi rigardas tie supre, vi akiras kontraŭdirajn informojn.
11:34
And then we have to flip the image
290
679000
2000
Kaj tiam ni devas turni la bildon
11:36
for you to see that it's a set up.
291
681000
2000
por ke vi vidu ke temas pri truko.
11:40
The impossible crate illusion.
292
685000
2000
La iluzio de la neebla kesto.
11:42
It's easy to fool the brain in 2D.
293
687000
2000
Estas facile trompi la cerbon en du dimensioj.
11:44
So you say, "Aw, come on Shermer, anybody can do that
294
689000
2000
Kaj do vi diras, "He, vidu, Shermer, ĉiu ajn povas tion fari
11:46
in a Psych 101 text with an illusion like that."
295
691000
2000
en iu norma testo "Psikologio 101" kun iu tia iluzio"
11:48
Well here's the late, great Jerry Andrus'
296
693000
2000
Nu, tie ĉi ni havas ion de la forpasinta, granda Jery Andrus,
11:50
"impossible crate" illusion in 3D,
297
695000
3000
la iluzion de la "neebla kesto" en 3 dimensioj,
11:53
in which Jerry is standing inside
298
698000
2000
en kiu Jerry staras ene
11:55
the impossible crate.
299
700000
2000
de la neebla kesto.
11:57
And he was kind enough to post this
300
702000
2000
Kaj li estis sufiĉe afabla por publikigi tion ĉi
11:59
and give us the reveal.
301
704000
2000
kaj riveli tion al ni.
12:01
Of course, camera angle is everything. The photographer is over there,
302
706000
3000
Kompreneble, la angulo de la kamerao estas ĉio. La fotografiisto estas tie.
12:04
and this board appears to overlap with this one, and this one with that one, and so on.
303
709000
3000
Kaj tiu ĉi tabulo ŝajnas supermetiĝi kun tiu ĉi, kaj tiu ĉi kun tiu, kaj cetere.
12:07
But even when I take it away,
304
712000
2000
sed eĉ kiam mi ĝin forigas,
12:09
the illusion is so powerful because of how are brains are wired
305
714000
2000
la iluzio estas tiel potenca, pro la maniero kiel niaj cerboj estas konektitaj
12:11
to find those certain kinds of patterns.
306
716000
3000
por trovi iajn tipojn de regulaĵoj.
12:14
This is a fairly new one
307
719000
2000
Tiu ĉi estas iu sufiĉe nova
12:16
that throws us off because of the conflicting patterns
308
721000
2000
kiu perpleksigas nin pro la kontraŭdiraj regulaĵoj
12:18
of comparing this angle with that angle.
309
723000
3000
ĉe la komparado de tiu ĉi angulo kun tiu.
12:21
In fact, it's the exact same picture side by side.
310
726000
3000
Fakte, estas la sama bildo unu apud la alia.
12:24
So what you're doing is comparing that angle
311
729000
2000
Do, kion oni faras estas kompari tiun angulon
12:26
instead of with this one, but with that one.
312
731000
2000
anstataŭ kun tiu ĉi, kun tiu alia.
12:28
And so your brain is fooled.
313
733000
2000
Kaj do via cerbo estas trompata.
12:30
Yet again, your pattern detection devices are fooled.
314
735000
2000
Kaj ankoraŭfoje viaj detektiloj de regulaĵoj estas trompataj.
12:32
Faces are easy to see
315
737000
2000
La vizaĝoj estas facile videblaj
12:34
because we have an additional evolved
316
739000
2000
ĉar ni havas aldonan evoluigitan
12:36
facial recognition software
317
741000
2000
vizaĝrekonan softvaron
12:38
in our temporal lobes.
318
743000
3000
en niaj temporalaj loboj.
12:41
Here's some faces on the side of a rock.
319
746000
3000
Jen kelkaj vizaĝoj en flanko de roko
12:44
I'm actually not even sure if this is -- this might be Photoshopped.
320
749000
3000
Mi eĉ ne estas certa se tio estas -- eble oni uzis Photoshop.
12:47
But anyway, the point is still made.
321
752000
2000
Sed ĉiukaze, la afero estas prezentita.
12:49
Now which one of these looks odd to you?
322
754000
2000
Nun, kiu el tiuj ĉi aspektas stranga al vi?
12:51
In a quick reaction, which one looks odd?
323
756000
2000
En rapida reago, kiu aspektas stranga?
12:53
The one on the left. Okay. So I'll rotate it
324
758000
2000
Tiu maldekstre. Konforme. Do mi nun rulu ĝin
12:55
so it'll be the one on the right.
325
760000
2000
tiel ke ĝi estos tiu dekstre.
12:57
And you are correct.
326
762000
2000
Kaj vi pravas.
12:59
A fairly famous illusion -- it was first done with Margaret Thatcher.
327
764000
3000
Sufiĉe fama iluzio -- unue farita rilate al Margaret Thatcher.
13:02
Now, they trade up the politicians every time.
328
767000
2000
Nun oni ĉiufoje ŝanĝas la politikistojn.
13:04
Well, why is this happening?
329
769000
2000
Nu, kial tio okazas?
13:06
Well, we know exactly where it happens,
330
771000
2000
Bone, ni scias ekzakte kiel tio okazas,
13:08
in the temporal lobe, right across, sort of above your ear there,
331
773000
3000
en la temporala lobo, tute transe, iel super via orelo tie.
13:11
in a little structure called the fusiform gyrus.
332
776000
3000
En malgranda strukturo nomata ŝpinilforma giro.
13:14
And there's two types of cells that do this,
333
779000
2000
Kaj du tipoj de ĉeloj faras tion ĉi,
13:16
that record facial features either globally,
334
781000
3000
kaj registras vizaĝajn trajtojn, ĉu ĝenerale,
13:19
or specifically these large, rapid-firing cells,
335
784000
2000
ĉu specife, tiuj grandaj, rapide ekscitiĝantaj ĉeloj,
13:21
first look at the general face.
336
786000
2000
unue rigardas la ĝeneralan vizaĝon.
13:23
So you recognize Obama immediately.
337
788000
2000
Do vi unue tuj rekonas Obama-n.
13:25
And then you notice something quite
338
790000
2000
Kaj tiam vi rimarkas ion
13:27
a little bit odd about the eyes and the mouth.
339
792000
2000
sufiĉe strangan pri la okuloj kaj la buŝo.
13:29
Especially when they're upside down,
340
794000
2000
Speciale kiam ili estas inversigitaj, supre-al-malsupre,
13:31
you're engaging that general facial recognition software there.
341
796000
3000
Vi tie konektas tiun ĝeneralan vizaĝrekonan programaron.
13:34
Now I said back in our little thought experiment,
342
799000
3000
Nu, mi diris ĉe nia malgranda pensa eksperimento,
13:37
you're a hominid walking on the plains of Africa.
343
802000
2000
vi estas prahomo promenante en la ebenaĵoj de Afriko.
13:39
Is it just the wind or a dangerous predator?
344
804000
3000
Ĉu temas pri la vento aŭ pri danĝera predanto?
13:42
What's the difference between those?
345
807000
2000
Kiu estas la diferenco inter ambaŭ?
13:44
Well, the wind is inanimate;
346
809000
2000
Nu, la vento estas senviva;
13:46
the dangerous predator is an intentional agent.
347
811000
2000
la danĝera predanto estas intenca aganto.
13:48
And I call this process agenticity.
348
813000
2000
Kaj mi nomas tiun procezon "agantemeco".
13:50
That is the tendency to infuse patterns
349
815000
2000
Tiu estas la tendenco enplanti regulaĵojn
13:52
with meaning, intention and agency,
350
817000
2000
per signifoj, intencoj kaj aganteco,
13:54
often invisible beings from the top down.
351
819000
3000
ofte tute nevideblaj estuloj.
13:57
This is an idea that we got
352
822000
2000
Tiu estas ideo kiun ni akiris
13:59
from a fellow TEDster here, Dan Dennett,
353
824000
2000
de kolego de TED tie ĉi, Dan Dennett,
14:01
who talked about taking the intentional stance.
354
826000
2000
kiu parolis pri la alpreno de intenca sinteno.
14:03
So it's a type of that expanded to explain, I think, a lot of different things:
355
828000
3000
Do, estas io tia etendita por ekspliki, mi pensas, multajn malsamajn aferojn,
14:06
souls, spirits, ghosts, gods, demons, angels,
356
831000
3000
animojn, spiritojn, fantomojn, diojn, demonojn, anĝelojn,
14:09
aliens, intelligent designers,
357
834000
2000
eksterterulojn, partianojn de la inteligenta dezajno,
14:11
government conspiracists
358
836000
2000
registar-konspiremulojn
14:13
and all manner of invisible agents
359
838000
2000
kaj ĉiajn nevideblajn agantojn
14:15
with power and intention, are believed
360
840000
2000
kun potenco kaj intenco, pri kiuj oni suspektas
14:17
to haunt our world and control our lives.
361
842000
2000
ke ili hantas nian mondon kaj kontrolas niajn vivojn.
14:19
I think it's the basis of animism
362
844000
2000
Mi pensas ke ĝi estas la bazo de animismo
14:21
and polytheism and monotheism.
363
846000
3000
kaj politeismo kaj monoteismo.
14:24
It's the belief that aliens are somehow
364
849000
2000
Tio estas la kredo ke esterteranoj iel estas
14:26
more advanced than us, more moral than us,
365
851000
2000
pli evoluintaj ol ni, pli moralaj ol ni,
14:28
and the narratives always are
366
853000
2000
kaj la rakontaro ĉiam estas
14:30
that they're coming here to save us and rescue us from on high.
367
855000
3000
ke ili venas tien ĉi por savi nin kaj liberigi nin de supre.
14:33
The intelligent designer's always portrayed
368
858000
2000
La inteligenta dezajnisto estas ĉiam pentrata
14:35
as this super intelligent, moral being
369
860000
3000
kiel tiu supere inteligenta morala estaĵo
14:38
that comes down to design life.
370
863000
2000
kiu malsuprenvenas por fasoni la vivon.
14:40
Even the idea that government can rescue us --
371
865000
2000
Eĉ la ideo ke la registaro povas savi nin.
14:42
that's no longer the wave of the future,
372
867000
2000
Tio ne plu estas granda furoro.
14:44
but that is, I think, a type of agenticity:
373
869000
2000
Sed tiu estas, mi pensas, alia klaso de agantemeco,
14:46
projecting somebody up there,
374
871000
2000
pensi, ke "iu" tie supre,
14:48
big and powerful, will come rescue us.
375
873000
2000
granda kaj potenca, venos por nin savi.
14:50
And this is also, I think, the basis of conspiracy theories.
376
875000
2000
Kaj tiu estas ankaŭ, pensas mi, la bazo de la konspiraj teorioj.
14:52
There's somebody hiding behind there pulling the strings,
377
877000
3000
Estas iu sin kaŝanta malantaŭe, tenante ĉiujn fadenojn en la mano,
14:55
whether it's the Illuminati
378
880000
2000
ĉu temas pri la Iluminatoj
14:57
or the Bilderbergers.
379
882000
2000
aŭ pri la Bilderberguloj.
14:59
But this is a pattern detection problem, isn't it?
380
884000
2000
Sed temas pri problemo de detektado de regulaĵoj, ĉu ne?
15:01
Some patterns are real and some are not.
381
886000
2000
Iuj regulaĵoj estas realaj, kaj aliaj ne.
15:03
Was JFK assassinated by a conspiracy or by a lone assassin?
382
888000
3000
Ĉu Kennedy estis murdita de konspirantaro aŭ de soleca murdisto?
15:06
Well, if you go there -- there's people there on any given day --
383
891000
3000
Nu, se vi iras tien -- estas homoj tie ĉiun ajn tagon --
15:09
like when I went there, here -- showing me where the different shooters were.
384
894000
3000
kiel tiam kiam mi tien iris, vidu -- montrante al mi kie troviĝis la diversaj pafintoj.
15:12
My favorite one was he was in the manhole.
385
897000
3000
Mia plejŝatata estas ke li troviĝis en luko
15:15
And he popped out at the last second, took that shot.
386
900000
3000
Kaj li subite elsaltis en la lasta momento kaj elpafis.
15:18
But of course, Lincoln was assassinated by a conspiracy.
387
903000
2000
Sed kompreneble, Lincoln estis murdita pere de konspiro.
15:20
So we can't just uniformly dismiss
388
905000
2000
Do ni ne povas simple ĝenerale ignori
15:22
all patterns like that.
389
907000
2000
ĉiujn tiajn regulaĵojn.
15:24
Because, let's face it, some patterns are real.
390
909000
2000
Ĉar, ni tion akceptu, iuj regulaĵoj estas realaj.
15:26
Some conspiracies really are true.
391
911000
2000
Iuj konspiroj ja veras.
15:30
Explains a lot, maybe.
392
915000
2000
Tio multon eksplikas, eble.
15:32
And 9/11 has a conspiracy theory. It is a conspiracy.
393
917000
3000
Kaj la atencoj de la dekunua de septembro havas konspiran teorion. Estas konspiro.
15:35
We did a whole issue on it.
394
920000
2000
Ni faris unu tutan numeron pri ĝi.
15:37
Nineteen members of Al Queda plotting to fly planes into buildings
395
922000
2000
19 anoj de Al Kajdo planante flugigi aviadilojn en konstruaĵojn
15:39
constitutes a conspiracy.
396
924000
2000
konsistigas konspiron.
15:41
But that's not what the "9/11 truthers" think.
397
926000
2000
Sed tio ne estas kion pensas la "dekunuaseptembroveruloj"
15:43
They think it was an inside job by the Bush administration.
398
928000
3000
Ili pensas ke ĝi estis komplica laboro de la registaro de Bush
15:46
Well, that's a whole other lecture.
399
931000
2000
Bone, tio estas tute alia interpreto.
15:48
You know how we know that 9/11
400
933000
2000
Sed ĉu vi scias kiel ni certas ke la 11-septembraj atencoj
15:50
was not orchestrated by the Bush administration?
401
935000
2000
ne estis organizitaj de la registaro de Bush?
15:52
Because it worked.
402
937000
2000
Ĉar ili sukcesis.
15:54
(Laughter)
403
939000
3000
(Ridado)
15:57
(Applause)
404
942000
3000
(Aplaŭdo)
16:00
So we are natural-born dualists.
405
945000
2000
Do, ni estas denaskaj dualistoj.
16:02
Our agenticity process comes from
406
947000
2000
Nia procezo de agantemo devenas el
16:04
the fact that we can enjoy movies like these.
407
949000
2000
la fakto ke ni povas ĝui filmojn, kiajn tiuj ĉi.
16:06
Because we can imagine, in essence,
408
951000
2000
Ĉar ni esence povas imagi
16:08
continuing on.
409
953000
2000
pluiradon.
16:10
We know that if you stimulate the temporal lobe,
410
955000
2000
Ni scias ke se oni stimulas la temporalan lobon,
16:12
you can produce a feeling of out-of-body experiences,
411
957000
2000
oni povas krei la senton de eksterkorpa sperto,
16:14
near-death experiences,
412
959000
2000
mortproksimaj spertoj,
16:16
which you can do by just touching an electrode to the temporal lobe there.
413
961000
3000
kion oni povas fari simple kiam elektrodo tuŝas la temporalan lobon tie ĉi.
16:19
Or you can do it through loss of consciousness,
414
964000
2000
Aŭ oni povas tion fari per perdo de konscio,
16:21
by accelerating in a centrifuge.
415
966000
2000
per akcelado en centrifugilo.
16:23
You get a hypoxia, or a lower oxygen.
416
968000
3000
Oni suferas hipoksion (suboksigenadon), malaltan nivelon de oksigeno.
16:26
And the brain then senses
417
971000
2000
Kaj la cerbo tiam sentas
16:28
that there's an out-of-body experience.
418
973000
2000
ke estas eksterkorpa sperto.
16:30
You can use -- which I did, went out and did --
419
975000
2000
Oni povas uzi -- kion mi faris, mi iris kaj faris --
16:32
Michael Persinger's God Helmet,
420
977000
2000
la Dian Kaskon de Michael Persinger,
16:34
that bombards your temporal lobes with electromagnetic waves.
421
979000
2000
kiu bombadas viajn temporalajn lobojn per elektromagnetaj ondoj.
16:36
And you get a sense of out-of-body experience.
422
981000
3000
Kaj donas al vi senton de eksterkorpa sperto.
16:39
So I'm going to end here with a short video clip
423
984000
2000
Do, mi nun finos tie ĉi per videofilmeto
16:41
that sort of brings all this together.
424
986000
2000
kiu iel kunmetas ĉion ĉi.
16:43
It's just a minute and a half.
425
988000
2000
Ĝi daŭras nur unu minuton kaj duonon.
16:45
It ties together all this into the power of expectation and the power of belief.
426
990000
3000
Ĝi kunligas ĉion ĉi en la povon de esperado kaj la povon de kredado.
16:48
Go ahead and roll it.
427
993000
2000
Antaŭen.
16:50
Narrator: This is the venue they chose for their fake auditions
428
995000
3000
Rakontisto: Tiu ĉi estas la kunvenejo kiun ili elektis por siaj falsaj provoj
16:53
for an advert for lip balm.
429
998000
2000
por reklamaĵo pri lipbalzamo.
16:55
Woman: We're hoping we can use part of this
430
1000000
2000
Virino: Ni esperas ke ni povos uzi parton de tio ĉi
16:57
in a national commercial, right?
431
1002000
2000
por tutnacia televidreklamo, ĉu?
16:59
And this is test on some lip balms
432
1004000
2000
Kaj tiu ĉi estas testo de kelkaj lipbalzamoj
17:01
that we have over here.
433
1006000
2000
kiun ni havas tie ĉi.
17:03
And these are our models who are going to help us,
434
1008000
2000
Kaj tiuj ĉi estas niaj modeloj kiuj nin helpos,
17:05
Roger and Matt.
435
1010000
2000
Roger kaj Matt.
17:07
And we have our own lip balm,
436
1012000
2000
Kaj ni havas nian propran lipbalzamon,
17:09
and we have a leading brand.
437
1014000
2000
kaj ni havas alian plejvendatan markon.
17:11
Would you have any problem
438
1016000
2000
Ĉu vi havus problemon
17:13
kissing our models to test it?
439
1018000
2000
kisi niajn modelojn por ĝin testi?
17:15
Girl: No.
440
1020000
2000
Knabino: Ne.
17:17
Woman: You wouldn't? (Girl: No.) Woman: You'd think that was fine.
441
1022000
2000
Virino: Ĉu ne? (Knabino: Ne) Virino: Ĉu vi opinius tion ĝusta?
17:19
Girl: That would be fine. (Woman: Okay.)
442
1024000
2000
Knabino: Tio estus ĝusta. (Virino: Bone)
17:21
So this is a blind test.
443
1026000
3000
Do, temas pri blinda testo.
17:24
I'm going to ask you to go ahead
444
1029000
2000
Mi petos vin antaŭeniri
17:26
and put a blindfold on.
445
1031000
2000
kaj surmeti blindigilon.
17:29
Kay, now can you see anything? (Girl: No.)
446
1034000
3000
Kay, ĉu vi nun povas ion vidi? (Knabino: Ne)
17:32
Pull it so you can't even see down. (Girl: Okay.)
447
1037000
2000
Tiru ĝin, tiel ke vi povas vidi eĉ ne malsupren (Knabino: Bone)
17:34
Woman: It's completely blind now, right?
448
1039000
2000
Virino: Estas tute blinde nun, ĉu?
17:36
Girl: Yes. (Woman: Okay.)
449
1041000
2000
Knabino: Jes (Virino: Bone)
17:38
Now, what I'm going to be looking for in this test
450
1043000
3000
Nun, kion mi estos serĉanta en tiu ĉi testo
17:41
is how it protects your lips,
451
1046000
3000
estas kiel ĝi protektas viajn lipojn,
17:44
the texture, right,
452
1049000
2000
la tuŝadsenton, ĉu,
17:46
and maybe if you can discern any flavor or not.
453
1051000
3000
kaj eble vi povas distingi guston aŭ ne.
17:49
Girl: Okay. (Woman: Have you ever done a kissing test before?)
454
1054000
3000
Knabino: Bone. (Virino: Ĉu vi iam faris kisan teston antaŭe?)
17:52
Girl: No.
455
1057000
2000
Knabino: Ne.
17:54
Woman: Take a step here.
456
1059000
2000
Virino: Paŝu tien ĉi.
17:56
Okay, now I'm going to ask you to pucker up.
457
1061000
2000
Bone, nun mi volas ke vi paŭtetu.
17:58
Pucker up big and lean in just a little bit, okay?
458
1063000
3000
Vi pretigu viajn lipojn kaj iomete kliniĝu, bone.
18:06
(Music)
459
1071000
4000
(Muziko)
18:10
(Laughter)
460
1075000
5000
(Ridado)
18:19
(Laughter)
461
1084000
3000
(Ridado)
18:30
Woman: Okay.
462
1095000
2000
Bone.
18:32
And, Jennifer, how did that feel?
463
1097000
2000
Kaj, Jennifer, kia estis la sento?
18:34
Jennifer: Good.
464
1099000
2000
Jennifer: Bona.
18:36
(Laughter)
465
1101000
7000
(Ridado)
18:43
Girl: Oh my God!
466
1108000
2000
Knabino: Ho, mia Dio.
18:45
(Laughter)
467
1110000
4000
(Ridado)
18:50
Michael Shermer: Thank you very much. Thank you. Thanks.
468
1115000
3000
Michael Shermer. Mi tre dankas. Mi dankas. Dankon.
Translated by Toño del Barrio
Reviewed by Stéphane Brault

▲Back to top

ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com