ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com
TED2010

Michael Shermer: The pattern behind self-deception

Michael Shermer: O padrão por trás da auto-decepção

Filmed:
2,854,890 views

Michael Shermer afirma que a tendência humana de acreditar em coisas estranhas -- desde abduções alienígenas a zahoris -- deriva de duas funções cerebrais rígidas de sobrevivência. Ele explica quais são elas, e como elas nos deixam em apuros.
- Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market. Full bio

Double-click the English transcript below to play the video.

00:16
So since I was here last in '06,
0
1000
3000
Quando estive aqui na última vez, em 2006,
00:19
we discovered that global climate change
1
4000
2000
nós descobrimos que a mudança climática global
00:21
is turning out to be a pretty serious issue,
2
6000
2000
estava para ser uma questão bem séria.
00:23
so we covered that fairly extensively
3
8000
2000
Então cobrimos isso de forma ampla
00:25
in Skeptic magazine.
4
10000
2000
na revista Skeptic.
00:27
We investigate all kinds
5
12000
2000
Nós investigamos todos os tipos
00:29
of scientific and quasi-scientific controversies,
6
14000
3000
de controvérsias científicas e semi-científicas.
00:32
but it turns out we don't have to worry about any of this
7
17000
2000
Mas parece que não precisamos nos preocupar com nada disso
00:34
because the world's going to end in 2012.
8
19000
2000
porque o mundo vai acabar em 2012.
00:36
Another update:
9
21000
2000
Outra notícia:
00:38
You will recall I introduced you guys
10
23000
2000
Vocês se lembrarão que apresentei a vocês
00:40
to the Quadro Tracker.
11
25000
2000
o Quadro Tracker.
00:42
It's like a water dowsing device.
12
27000
2000
É como um dispositivo de achar água.
00:44
It's just a hollow piece of plastic with an antenna that swivels around.
13
29000
3000
É apenas uma peça de plástico oca com uma antena que balança.
00:47
And you walk around, and it points to things.
14
32000
2000
E enquanto você anda, ela aponta para coisas.
00:49
Like if you're looking for marijuana in students' lockers,
15
34000
3000
Como se você estivesse procurando maconha nos armários de estudantes,
00:52
it'll point right to somebody.
16
37000
2000
ela apontaria para alguém.
00:54
Oh, sorry. (Laughter)
17
39000
2000
Oh, desculpe. (Risos)
00:56
This particular one that was given to me
18
41000
2000
Este aqui que me deram
00:58
finds golf balls,
19
43000
2000
localiza bolas de golfe,
01:00
especially if you're at a golf course
20
45000
2000
especialmente se você está num campo de golfe
01:02
and you check under enough bushes.
21
47000
3000
e se você procurar em muitos arbustos.
01:05
Well, under the category of "What's the harm of silly stuff like this?"
22
50000
3000
Bem, sob a categoria de "Qual é o prejuízo de uma coisa boba como essa?"
01:08
this device, the ADE 651,
23
53000
3000
esse dispositivo, o ADE 651 [detector de bomba],
01:11
was sold to the Iraqi government
24
56000
3000
foi vendido ao governo do Iraque
01:14
for 40,000 dollars apiece.
25
59000
2000
por 40 mil dólares cada um.
01:16
It's just like this one, completely worthless,
26
61000
2000
É igual a esse, completamente inútil.
01:18
in which it allegedly worked by "electrostatic
27
63000
2000
do qual se alega funcionar à base de
01:20
magnetic ion attraction,"
28
65000
3000
"atração iônica magnética eletrostática",
01:24
which translates to
29
69000
2000
o que se traduz por
01:26
"pseudoscientific baloney" -- would be the nice word --
30
71000
3000
"porcaria pseudocientífica" -- para falar o mínimo --
01:29
in which you string together a bunch of words that sound good,
31
74000
2000
simplesmente por juntar palavras que soam bem,
01:31
but it does absolutely nothing.
32
76000
2000
mas que não faz absolutamente nada.
01:33
In this case, at trespass points,
33
78000
3000
Nesse caso, num ponto de checagem militar,
01:36
allowing people to go through
34
81000
2000
ao deixar as pessoas passarem
01:38
because your little tracker device said they were okay,
35
83000
3000
porque o dispositivo rastreador dizia que elas estavam ok,
01:41
actually cost lives.
36
86000
3000
isso pode custar vidas.
01:44
So there is a danger to pseudoscience,
37
89000
2000
Então aí está um perigo da pseudociência,
01:46
in believing in this sort of thing.
38
91000
3000
em acreditar nesse tipo de coisa.
01:49
So what I want to talk about today is belief.
39
94000
3000
Então o que quero falar hoje é sobre a crença.
01:52
I want to believe,
40
97000
2000
Eu quero acreditar,
01:54
and you do too.
41
99000
2000
e vocês também querem.
01:56
And in fact, I think my thesis here is that
42
101000
2000
E de fato, eu acho que minha tese aqui é que
01:58
belief is the natural state of things.
43
103000
2000
a crença é o estado natural das coisas.
02:00
It is the default option. We just believe.
44
105000
2000
É a opção normal. Nós apenas acreditamos.
02:02
We believe all sorts of things.
45
107000
2000
Nós acreditamos em todo tipo de coisa.
02:04
Belief is natural;
46
109000
2000
A crença é natural.
02:06
disbelief, skepticism, science, is not natural.
47
111000
2000
Descrença, ceticismo, ciência, não é natural.
02:08
It's more difficult.
48
113000
2000
É mais difícil.
02:10
It's uncomfortable to not believe things.
49
115000
2000
É desconfortável não acreditar em coisas.
02:12
So like Fox Mulder on "X-Files,"
50
117000
3000
Como o Fox Mulder do "Arquivos X",
02:15
who wants to believe in UFOs? Well, we all do,
51
120000
3000
quem quer acreditar em OVNIs? Bem, todos nós.
02:18
and the reason for that is because
52
123000
2000
E a razão para isso é porque
02:20
we have a belief engine in our brains.
53
125000
3000
nós temos um motor de crença em nossos cérebros.
02:23
Essentially, we are pattern-seeking primates.
54
128000
3000
Essencialmente, somos primatas localizadores de padrão.
02:26
We connect the dots: A is connected to B; B is connected to C.
55
131000
3000
Nós ligamos os pontos: A está ligado a B, B está ligado a C.
02:29
And sometimes A really is connected to B,
56
134000
3000
E às vezes A realmente está ligado a B.
02:32
and that's called association learning.
57
137000
2000
E isso se chama aprendizagem associativa.
02:34
We find patterns, we make those connections,
58
139000
3000
Nós encontramos padrões, nós fazemos essas ligações,
02:37
whether it's Pavlov's dog here
59
142000
2000
quer seja o cachorro de Pavlov
02:39
associating the sound of the bell with the food,
60
144000
3000
associando o som do sino com a comida,
02:42
and then he salivates to the sound of the bell,
61
147000
2000
e daí ele saliva com o som do sino,
02:44
or whether it's a Skinnerian rat,
62
149000
2000
quer seja o rato de Skinner,
02:46
in which he's having an association
63
151000
2000
em que ele tem uma associação
02:48
between his behavior and a reward for it,
64
153000
2000
entre seu comportamento e a recompensa por ele,
02:50
and therefore he repeats the behavior.
65
155000
2000
e portanto ele repete o comportamento.
02:52
In fact, what Skinner discovered
66
157000
2000
De fato, o que Skinner descobriu
02:54
is that, if you put a pigeon in a box like this,
67
159000
3000
foi que, se você colocar um pombo numa caixa como essa,
02:57
and he has to press one of these two keys,
68
162000
2000
e ele precisa apertar uma dessas duas teclas,
02:59
and he tries to figure out what the pattern is,
69
164000
2000
ele tenta descobrir qual é o padrão,
03:01
and you give him a little reward in the hopper box there --
70
166000
2000
e você dá a ele uma pequena recompensa na caixinha ali.
03:03
if you just randomly assign rewards
71
168000
3000
Se você só distribuir recompensas ao acaso
03:06
such that there is no pattern,
72
171000
2000
sem que haja padrão algum,
03:08
they will figure out any kind of pattern.
73
173000
2000
eles descobrirão um padrão qualquer.
03:10
And whatever they were doing just before they got the reward,
74
175000
2000
E o que quer que estejam fazendo antes de receber a recompensa,
03:12
they repeat that particular pattern.
75
177000
2000
eles repetem esse padrão particular.
03:14
Sometimes it was even spinning around twice counterclockwise,
76
179000
3000
Às vezes o pombo estava girando duas vezes no sentido anti horário,
03:17
once clockwise and peck the key twice.
77
182000
3000
uma vez no horário e daí bicava a tecla duas vezes.
03:20
And that's called superstition,
78
185000
2000
É isso que se chama superstição.
03:22
and that, I'm afraid,
79
187000
2000
E eu receio que,
03:24
we will always have with us.
80
189000
2000
nós sempre vamos tê-la conosco.
03:26
I call this process "patternicity" --
81
191000
2000
Eu chamo esse processo de "padronicidade",
03:28
that is, the tendency to find meaningful patterns
82
193000
2000
ou seja, a tendência por buscar padrões significativos
03:30
in both meaningful and meaningless noise.
83
195000
3000
em ruídos com ou sem significado.
03:33
When we do this process, we make two types of errors.
84
198000
3000
Quando fazemos esse processo, cometemos dois tipos de erro.
03:36
A Type I error, or false positive,
85
201000
2000
Um erro Tipo 1, ou falso positivo,
03:38
is believing a pattern is real
86
203000
2000
é acreditar que um padrão é real
03:40
when it's not.
87
205000
2000
quando ele não é.
03:42
Our second type of error is a false negative.
88
207000
2000
Nosso segundo tipo de erro é um falso negativo.
03:44
A Type II error is not believing
89
209000
2000
Um erro Tipo 2 é não acreditar
03:46
a pattern is real when it is.
90
211000
3000
que um padrão é real quando ele é.
03:49
So let's do a thought experiment.
91
214000
2000
Então vamos fazer um experimento de reflexão.
03:51
You are a hominid three million years ago
92
216000
2000
Você é um hominídeo de 3 milhões de anos atrás
03:53
walking on the plains of Africa.
93
218000
3000
andando nas savanas da África.
03:56
Your name is Lucy, okay?
94
221000
2000
Seu nome é Lucy, ok?
03:58
And you hear a rustle in the grass.
95
223000
2000
E você escuta um barulho na mata.
04:00
Is it a dangerous predator,
96
225000
2000
É um predador perigoso,
04:02
or is it just the wind?
97
227000
2000
ou é apenas o vento?
04:04
Your next decision could be the most important one of your life.
98
229000
3000
Sua próxima decisão pode ser a mais importante da sua vida.
04:07
Well, if you think that the rustle in the grass is a dangerous predator
99
232000
3000
Bem, se você achar que o barulho da mata é um predador perigoso
04:10
and it turns out it's just the wind,
100
235000
2000
e na verdade é só o vento,
04:12
you've made an error in cognition,
101
237000
2000
você cometeu um erro de cognição.
04:14
made a Type I error, false positive.
102
239000
2000
Você cometeu um erro Tipo 1, falso positivo.
04:16
But no harm. You just move away.
103
241000
2000
Mas tudo bem. Você se afasta.
04:18
You're more cautious. You're more vigilant.
104
243000
2000
Você é mais cuidadoso. É mais vigilante.
04:20
On the other hand, if you believe that the rustle in the grass is just the wind,
105
245000
2000
Por outro lado, se você acredita que o barulho da mata é só o vento,
04:22
and it turns out it's a dangerous predator,
106
247000
3000
e na verdade é um predador perigoso,
04:25
you're lunch.
107
250000
2000
você vira almoço.
04:27
You've just won a Darwin award.
108
252000
2000
Você acaba de ganhar o prêmio Darwin.
04:29
You've been taken out of the gene pool.
109
254000
2000
Você foi expulso do pool genético.
04:31
Now the problem here is that
110
256000
2000
Agora, o problema aqui é que
04:33
patternicities will occur whenever the cost
111
258000
2000
padronicidades vão ocorrer sempre que o custo
04:35
of making a Type I error
112
260000
2000
de fazer um erro Tipo 1
04:37
is less than the cost of making a Type II error.
113
262000
2000
seja menor que o custo de fazer um erro Tipo 2.
04:39
This is the only equation in the talk by the way.
114
264000
2000
Essa é a única equação de minha palestra, aliás.
04:41
We have a pattern detection problem
115
266000
2000
Nós temos um problema de detecção de padrões
04:43
that is assessing the difference between a Type I and a Type II error
116
268000
3000
porque acessar a diferença entre um erro Tipo 1 de um erro Tipo 2
04:46
is highly problematic,
117
271000
2000
é muito problemático,
04:48
especially in split-second, life-and-death situations.
118
273000
3000
especialmente em situações de fração de segundo, de vida ou morte.
04:51
So the default position
119
276000
2000
Então a situação normal
04:53
is just: Believe all patterns are real --
120
278000
2000
é só "acreditar que todos os padrões são reais".
04:55
All rustles in the grass are dangerous predators
121
280000
3000
"Todos os barulhos da mata são predadores perigosos
04:58
and not just the wind.
122
283000
2000
e não só o vento".
05:00
And so I think that we evolved ...
123
285000
2000
E assim eu acho que evoluímos...
05:02
there was a natural selection for the propensity for our belief engines,
124
287000
3000
houve uma seleção natural pela inclinação de nossos motores de crença,
05:05
our pattern-seeking brain processes,
125
290000
2000
nossos processos cerebrais buscadores de padrões,
05:07
to always find meaningful patterns
126
292000
2000
para sempre achar padrões significativos
05:09
and infuse them with these sort of
127
294000
2000
e fundi-los com esses tipos de
05:11
predatory or intentional agencies that I'll come back to.
128
296000
3000
agentes predatórios ou intencionais que voltarei a falar.
05:14
So for example, what do you see here?
129
299000
2000
Por exemplo, o que vocês veem aqui?
05:16
It's a horse head, that's right.
130
301000
2000
É a cabeça de um cavalo, isso é certo.
05:18
It looks like a horse. It must be a horse.
131
303000
2000
Isso parece com um cavalo. Isso tem que ser um cavalo.
05:20
That's a pattern.
132
305000
2000
Isso é um padrão.
05:22
And is it really a horse?
133
307000
2000
E será que é mesmo um cavalo?
05:24
Or is it more like a frog?
134
309000
3000
Ou parece mais um sapo?
05:27
See, our pattern detection device,
135
312000
2000
Vejam, nosso dispositivo de detecção de padrões,
05:29
which appears to be located in the anterior cingulate cortex --
136
314000
3000
que parece estar localizado no córtex cingulado anterior --
05:32
it's our little detection device there --
137
317000
3000
lá está nosso pequeno dispositivo --
05:35
can be easily fooled, and this is the problem.
138
320000
2000
pode ser facilmente enganado, e esse é o problema.
05:37
For example, what do you see here?
139
322000
2000
Por exemplo, o que vocês veem aqui?
05:39
Yes, of course, it's a cow.
140
324000
3000
Sim, é claro. É uma vaca.
05:42
Once I prime the brain -- it's called cognitive priming --
141
327000
3000
Uma vez que pré-ativo o cérebro -- a chamada pré-ativação cognitiva --
05:45
once I prime the brain to see it,
142
330000
2000
uma vez que pré-ativo o cérebro a ver isso,
05:47
it pops back out again even without the pattern that I've imposed on it.
143
332000
3000
ele destaca isso novamente mesmo sem o padrão imposto a ele.
05:50
And what do you see here?
144
335000
2000
E o que vocês veem aqui?
05:52
Some people see a Dalmatian dog.
145
337000
2000
Algumas pessoas veem um cão dálmata.
05:54
Yes, there it is. And there's the prime.
146
339000
2000
Sim, lá está ele. E lá está a pré-ativação.
05:56
So when I go back without the prime,
147
341000
2000
Então quando eu volto sem a pré-ativação,
05:58
your brain already has the model
148
343000
2000
seu cérebro já tem o modelo
06:00
so you can see it again.
149
345000
2000
de forma que você pode vê-lo de novo.
06:02
What do you see here?
150
347000
3000
O que vocês veem aqui?
06:05
Planet Saturn. Yes, that's good.
151
350000
2000
O planeta Saturno. Sim, isso é bom.
06:07
How about here?
152
352000
3000
E aqui?
06:10
Just shout out anything you see.
153
355000
3000
Grite quando ver qualquer coisa.
06:14
That's a good audience, Chris.
154
359000
2000
Essa é uma boa audência, Chris.
06:16
Because there's nothing in this. Well, allegedly there's nothing.
155
361000
3000
Porque não há nada aqui. Bem, supostamente não há nada.
06:19
This is an experiment done by Jennifer Whitson
156
364000
3000
Esse é um experimento feito por Jennifer Whitson
06:22
at U.T. Austin
157
367000
2000
na U.T. Austin
06:24
on corporate environments
158
369000
2000
sobre ambientes corporativos
06:26
and whether feelings of uncertainty and out of control
159
371000
3000
e como os sentimentos de incerteza e a falta de controle
06:29
makes people see illusory patterns.
160
374000
2000
fazem as pessoas ver padrões ilusórios.
06:31
That is, almost everybody sees the planet Saturn.
161
376000
3000
Isto é, quase todo mundo acha o planeta Saturno.
06:34
People that are put in a condition of feeling out of control
162
379000
3000
As pessoas que são condicionadas a se sentir fora de controle
06:37
are more likely to see something in this,
163
382000
2000
são mais predispostas a ver algo nisso,
06:39
which is allegedly patternless.
164
384000
3000
que supostamente não tem padrões.
06:42
In other words, the propensity to find these patterns
165
387000
3000
Em outras palavras, a tendência de achar esses padrões
06:45
goes up when there's a lack of control.
166
390000
3000
aumenta quando há falta de controle.
06:48
For example, baseball players are notoriously superstitious
167
393000
3000
Por exemplo, jogadores de beisebol são notavelmente superticiosos
06:51
when they're batting,
168
396000
2000
quando estão rebatendo,
06:53
but not so much when they're fielding.
169
398000
2000
mas não tanto quando estão no campo.
06:55
Because fielders are successful
170
400000
2000
Porque os jogadores no campo são
06:57
90 to 95 percent of the time.
171
402000
2000
bem sucedidos 90 a 95 por cento do tempo.
06:59
The best batters fail seven out of 10 times.
172
404000
3000
Os melhores rebatedores falham 7 em 10 vezes.
07:02
So their superstitions, their patternicities,
173
407000
2000
Então suas supertições, suas padronicidades,
07:04
are all associated with feelings of lack of control
174
409000
3000
estão todas associadas a sentimentos de falta de controle
07:07
and so forth.
175
412000
2000
e assim por diante.
07:10
What do you see in this particular one here, in this field?
176
415000
3000
O que vocês veem nessa imagem aqui, nesse campo?
07:13
Anybody see an object there?
177
418000
2000
Alguém vê um objeto ali?
07:15
There actually is something here,
178
420000
2000
Há de fato alguma coisa aqui,
07:17
but it's degraded.
179
422000
2000
mas está degradada.
07:19
While you're thinking about that,
180
424000
2000
Enquanto vocês pensam sobre isso,
07:21
this was an experiment done by Susan Blackmore,
181
426000
2000
isso foi um experimento feito por Susan Blackmore,
07:23
a psychologist in England,
182
428000
2000
uma psicóloga da Inglaterra,
07:25
who showed subjects this degraded image
183
430000
2000
que mostrou essa imagem degradada a indivíduos
07:27
and then ran a correlation between
184
432000
2000
e depois fez uma correlação entre
07:29
their scores on an ESP test:
185
434000
2000
seus índices num teste de percepção extra-sensorial,
07:31
How much did they believe in the paranormal,
186
436000
2000
o quanto eles acreditavam no paranormal,
07:33
supernatural, angels and so forth.
187
438000
3000
sobrenatural, anjos e daí por diante.
07:36
And those who scored high on the ESP scale,
188
441000
3000
E aqueles que pontuaram mais na escala do teste tinham
07:39
tended to not only see
189
444000
2000
tendência a, não apenas ver
07:41
more patterns in the degraded images
190
446000
2000
mais padrões nas imagens degradadas,
07:43
but incorrect patterns.
191
448000
2000
mas padrões incorretos.
07:45
Here is what you show subjects.
192
450000
2000
Aí está o que foi mostrado aos indivíduos.
07:47
The fish is degraded 20 percent, 50 percent
193
452000
3000
O peixe está degradado 20 por cento, 50 por cento
07:50
and then the one I showed you,
194
455000
2000
e aí o peixe que mostrei a vocês,
07:52
70 percent.
195
457000
2000
70 por cento.
07:54
A similar experiment was done by another [Swiss] psychologist
196
459000
2000
Um experimento parecido foi feito por outro psicólogo suíço
07:56
named Peter Brugger,
197
461000
2000
chamado Peter Brugger,
07:58
who found significantly more meaningful patterns
198
463000
3000
que descobriu que mais padrões significativos
08:01
were perceived on the right hemisphere,
199
466000
2000
eram percebidos no hemisfério direito,
08:03
via the left visual field, than the left hemisphere.
200
468000
3000
através do campo visual esquerdo, do que no hemisfério esquerdo.
08:06
So if you present subjects the images such
201
471000
2000
Então, se você mostra a indivíduos imagens
08:08
that it's going to end up on the right hemisphere instead of the left,
202
473000
3000
que vão terminar no hemisfério direito ao invés do esquerdo,
08:11
then they're more likely to see patterns
203
476000
2000
então eles vão tender a ver mais padrões
08:13
than if you put it on the left hemisphere.
204
478000
2000
do que se tivesse colocado no hemisfério esquerdo.
08:15
Our right hemisphere appears to be
205
480000
2000
Nosso hemisfério direito parece ser
08:17
where a lot of this patternicity occurs.
206
482000
2000
onde boa parte dessa padronicidade ocorre.
08:19
So what we're trying to do is bore into the brain
207
484000
2000
Então o que tentamos fazer é penetrar no cérebro
08:21
to see where all this happens.
208
486000
2000
para ver onde tudo isso acontece.
08:23
Brugger and his colleague, Christine Mohr,
209
488000
3000
Brugger e sua colega, Christine Mohr,
08:26
gave subjects L-DOPA.
210
491000
2000
deram L-DOPA a voluntários.
08:28
L-DOPA's a drug, as you know, given for treating Parkinson's disease,
211
493000
3000
L-DOPA é uma droga, como sabem, dada para tratar a doença de Parkinson,
08:31
which is related to a decrease in dopamine.
212
496000
3000
que é associada a uma diminuição de dopamina.
08:34
L-DOPA increases dopamine.
213
499000
2000
L-DOPA aumenta a dopamina.
08:36
An increase of dopamine caused
214
501000
2000
E o aumento de dopamina resultou
08:38
subjects to see more patterns
215
503000
2000
em voluntários vendo mais padrões
08:40
than those that did not receive the dopamine.
216
505000
2000
do que aqueles que não receberam a dopamina.
08:42
So dopamine appears to be the drug
217
507000
2000
Então a dopamina parece ser a droga
08:44
associated with patternicity.
218
509000
2000
associada com padronicidade.
08:46
In fact, neuroleptic drugs
219
511000
2000
De fato, drogas neurolépticas
08:48
that are used to eliminate psychotic behavior,
220
513000
2000
que são usadas para eliminar comportamentos psicóticos,
08:50
things like paranoia, delusions
221
515000
2000
coisas como paranóia, delírios
08:52
and hallucinations,
222
517000
2000
e alucinações,
08:54
these are patternicities.
223
519000
2000
isso são padronicidades.
08:56
They're incorrect patterns. They're false positives. They're Type I errors.
224
521000
3000
Elas são padrões incorretos. São falso positivos. São erros Tipo 1.
08:59
And if you give them drugs
225
524000
2000
E se você der drogas
09:01
that are dopamine antagonists,
226
526000
2000
que são antagonistas de dopamina,
09:03
they go away.
227
528000
2000
elas vão embora.
09:05
That is, you decrease the amount of dopamine,
228
530000
2000
Ou seja, você diminui a quantidade de dopamina,
09:07
and their tendency to see
229
532000
2000
e a tendência a ver
09:09
patterns like that decreases.
230
534000
2000
padrões como esse diminui.
09:11
On the other hand, amphetamines like cocaine
231
536000
3000
Por outro lado, anfetaminas como cocaína,
09:14
are dopamine agonists.
232
539000
2000
são agonistas de dopamina.
09:16
They increase the amount of dopamine.
233
541000
2000
Elas aumentam a quantidade de dopamina.
09:18
So you're more likely to feel in a euphoric state,
234
543000
3000
Então se você se sente num estado de euforia,
09:21
creativity, find more patterns.
235
546000
2000
de criatividade, encontra mais padrões.
09:23
In fact, I saw Robin Williams recently
236
548000
2000
De fato, eu vi recentemente Robin Williams
09:25
talk about how he thought he was much funnier
237
550000
2000
falar sobre como ele achava que era muito mais engraçado
09:27
when he was doing cocaine, when he had that issue, than now.
238
552000
3000
quando ele usava cocaína, quando ele tinha esse problema, do que agora.
09:30
So perhaps more dopamine
239
555000
2000
Então talvez mais dopamina
09:32
is related to more creativity.
240
557000
2000
esteja associada a mais criatividade.
09:34
Dopamine, I think, changes
241
559000
2000
Dopamina, eu acho, muda
09:36
our signal-to-noise ratio.
242
561000
2000
nossa relação sinal-ruído.
09:38
That is, how accurate we are
243
563000
2000
Ou seja, o quanto precisos somos
09:40
in finding patterns.
244
565000
2000
em encontrar padrões.
09:42
If it's too low, you're more likely to make too many Type II errors.
245
567000
3000
Se é muito baixa, você tende a fazer muitos erros Tipo 2.
09:45
You miss the real patterns. You don't want to be too skeptical.
246
570000
2000
Você perde os padrões reais. Você não quer ser tão cético.
09:47
If you're too skeptical, you'll miss the really interesting good ideas.
247
572000
3000
Se você for muito cético, você perde as verdadeiras boas idéias interessantes.
09:51
Just right, you're creative, and yet you don't fall for too much baloney.
248
576000
3000
Na medida certa, você é criativo, e mesmo assim, você não cai em besteira.
09:54
Too high and maybe you see patterns everywhere.
249
579000
3000
Muito alta e talvez você veja padrões em toda parte.
09:57
Every time somebody looks at you, you think people are staring at you.
250
582000
3000
Cada vez que alguém olha para você, você acha que as pessoas estão te espionando.
10:00
You think people are talking about you.
251
585000
2000
Você acha que as pessoas estão falando sobre você.
10:02
And if you go too far on that, that's just simply
252
587000
2000
E se você for muito longe nisso, isso é simplesmente
10:04
labeled as madness.
253
589000
2000
rotulado como loucura.
10:06
It's a distinction perhaps we might make
254
591000
2000
É a diferença que talvez possamos fazer
10:08
between two Nobel laureates, Richard Feynman
255
593000
2000
entre dois laureados com o Nobel, Richard Feynman
10:10
and John Nash.
256
595000
2000
e John Nash.
10:12
One sees maybe just the right number
257
597000
2000
Um procura talvez apenas o número certo
10:14
of patterns to win a Nobel Prize.
258
599000
2000
de padrões para ganhar o prêmio Nobel.
10:16
The other one also, but maybe too many patterns.
259
601000
2000
O outro também procura, mas podem ser padrões demais.
10:18
And we then call that schizophrenia.
260
603000
3000
E chamamos isso de esquizofrenia.
10:21
So the signal-to-noise ratio then presents us with a pattern-detection problem.
261
606000
3000
Então a relação sinal-ruído nos apresenta um problema de detecção de padrões.
10:24
And of course you all know exactly
262
609000
2000
E é claro que todos vocês sabem exatamente
10:26
what this is, right?
263
611000
2000
o que é isso, certo?
10:28
And what pattern do you see here?
264
613000
2000
E qual é o padrão que vocês veem aqui?
10:30
Again, I'm putting your anterior cingulate cortex to the test here,
265
615000
3000
Novamente, aqui estou testando seu córtex cingulado anterior,
10:33
causing you conflicting pattern detections.
266
618000
3000
causando detecções de padrão conflitantes.
10:36
You know, of course, this is Via Uno shoes.
267
621000
2000
Vocês sabem, é claro, isso são sapatos Via Uno.
10:38
These are sandals.
268
623000
3000
Essas são sandálias.
10:41
Pretty sexy feet, I must say.
269
626000
3000
Pés muito sexies, devo dizer.
10:44
Maybe a little Photoshopped.
270
629000
2000
Talvez um pouco photoshopados.
10:46
And of course, the ambiguous figures
271
631000
2000
E é claro, as figuras ambíguas
10:48
that seem to flip-flop back and forth.
272
633000
2000
que parecem se desdobrar para frente e para trás.
10:50
It turns out what you're thinking about a lot
273
635000
2000
Acontece que o que você está pensando muito
10:52
influences what you
274
637000
2000
influencia o que você
10:54
tend to see.
275
639000
2000
tende a ver.
10:56
And you see the lamp here, I know.
276
641000
2000
E vocês veem a luminária aqui, eu sei.
10:58
Because the lights on here.
277
643000
3000
Porque as luzes estão aqui.
11:01
Of course, thanks to the environmentalist movement
278
646000
2000
Claro, graças ao movimento ambientalista
11:03
we're all sensitive to the plight of marine mammals.
279
648000
3000
estamos todos tocados pela crise dos animais marinhos.
11:06
So what you see in this particular ambiguous figure
280
651000
3000
Então o que vocês veem nessa figura particular e ambígua
11:09
is, of course, the dolphins, right?
281
654000
2000
são golfinhos, é claro, certo?
11:11
You see a dolphin here,
282
656000
2000
Vocês veem um golfinho aqui.
11:13
and there's a dolphin,
283
658000
2000
E lá está um golfinho.
11:15
and there's a dolphin.
284
660000
2000
E lá está um golfinho.
11:17
That's a dolphin tail there, guys.
285
662000
3000
Isso é a cauda de um golfinho, pessoal.
11:20
(Laughter)
286
665000
3000
(Risos)
11:25
If we can give you conflicting data, again,
287
670000
3000
Se você fornecer dados conflitantes, de novo,
11:28
your ACC is going to be going into hyperdrive.
288
673000
3000
seu CCA vai entrar em pane.
11:31
If you look down here, it's fine. If you look up here, then you get conflicting data.
289
676000
3000
Ao olhar embaixo, tudo bem. Ao olhar em cima, então você tem dados conflitantes.
11:34
And then we have to flip the image
290
679000
2000
E então precisamos girar a imagem
11:36
for you to see that it's a set up.
291
681000
2000
para que você veja que é um armadilha.
11:40
The impossible crate illusion.
292
685000
2000
A ilusão da caixa impossível.
11:42
It's easy to fool the brain in 2D.
293
687000
2000
É fácil enganar o cérebro em 2D.
11:44
So you say, "Aw, come on Shermer, anybody can do that
294
689000
2000
Então você fala: "Ah, qual é, Shermer, qualquer um pode fazer isso
11:46
in a Psych 101 text with an illusion like that."
295
691000
2000
num teste de psicologia com uma ilusão dessas."
11:48
Well here's the late, great Jerry Andrus'
296
693000
2000
Bem, aqui está a última grande ilusão
11:50
"impossible crate" illusion in 3D,
297
695000
3000
da caixa impossível em 3D, de Jerry Andrus,
11:53
in which Jerry is standing inside
298
698000
2000
na qual Jerry está posicionado dentro da
11:55
the impossible crate.
299
700000
2000
caixa impossível.
11:57
And he was kind enough to post this
300
702000
2000
E ele foi bem gentil em divulgar isso
11:59
and give us the reveal.
301
704000
2000
e nos revelar o segredo.
12:01
Of course, camera angle is everything. The photographer is over there,
302
706000
3000
É claro, o ângulo da câmera é tudo. O fotógrafo está ali.
12:04
and this board appears to overlap with this one, and this one with that one, and so on.
303
709000
3000
E essa cerca parece sobrepor essa, e essa sobre aquela, e assim por diante.
12:07
But even when I take it away,
304
712000
2000
Mas mesmo quando eu a retiro,
12:09
the illusion is so powerful because of how are brains are wired
305
714000
2000
a ilusão é muito poderosa em razão de como o cérebro está conectado
12:11
to find those certain kinds of patterns.
306
716000
3000
para encontrar certos tipos de padrões.
12:14
This is a fairly new one
307
719000
2000
Essa é uma bem recente
12:16
that throws us off because of the conflicting patterns
308
721000
2000
que nos surpreende por causa dos padrões conflitantes
12:18
of comparing this angle with that angle.
309
723000
3000
ao comparar esse ângulo com aquele ângulo.
12:21
In fact, it's the exact same picture side by side.
310
726000
3000
De fato, é a mesma figura lado a lado.
12:24
So what you're doing is comparing that angle
311
729000
2000
Então o que você faz é ao invés de comparar
12:26
instead of with this one, but with that one.
312
731000
2000
este ângulo com esse, compara com aquele.
12:28
And so your brain is fooled.
313
733000
2000
E assim seu cérebro é enganado.
12:30
Yet again, your pattern detection devices are fooled.
314
735000
2000
Mais uma vez, seu dispositivo de detecção de padrões é enganado.
12:32
Faces are easy to see
315
737000
2000
Rostos são fáceis de ver
12:34
because we have an additional evolved
316
739000
2000
porque temos um programa adicional
12:36
facial recognition software
317
741000
2000
evoluído para reconhecer rostos
12:38
in our temporal lobes.
318
743000
3000
em nosso lobo temporal.
12:41
Here's some faces on the side of a rock.
319
746000
3000
Aqui estão alguns rostos sobre uma rocha.
12:44
I'm actually not even sure if this is -- this might be Photoshopped.
320
749000
3000
Eu não tenho muita certeza -- isso pode ter sido photoshopado.
12:47
But anyway, the point is still made.
321
752000
2000
Mas enfim, o argumento ainda é válido.
12:49
Now which one of these looks odd to you?
322
754000
2000
Agora qual dessas parece esquisita para vocês?
12:51
In a quick reaction, which one looks odd?
323
756000
2000
De primeira, qual parece esquisita?
12:53
The one on the left. Okay. So I'll rotate it
324
758000
2000
A da esquerda. Ok. Então vou girá-las
12:55
so it'll be the one on the right.
325
760000
2000
de forma que seja a da direita.
12:57
And you are correct.
326
762000
2000
E vocês estão certos.
12:59
A fairly famous illusion -- it was first done with Margaret Thatcher.
327
764000
3000
Uma ilusão bem famosa -- foi feita primeiro com a Margaret Thatcher.
13:02
Now, they trade up the politicians every time.
328
767000
2000
Agora, eles trocam de políticos o tempo todo.
13:04
Well, why is this happening?
329
769000
2000
Bem, por que isso acontece?
13:06
Well, we know exactly where it happens,
330
771000
2000
Bem, sabemos exatamente onde isso acontece,
13:08
in the temporal lobe, right across, sort of above your ear there,
331
773000
3000
no lobo temporal, logo atrás, um pouco acima do seu ouvido.
13:11
in a little structure called the fusiform gyrus.
332
776000
3000
Numa pequena estrutura chamado giro fusiforme.
13:14
And there's two types of cells that do this,
333
779000
2000
E há dois tipos de células que fazem isso,
13:16
that record facial features either globally,
334
781000
3000
que registram características faciais seja global
13:19
or specifically these large, rapid-firing cells,
335
784000
2000
ou especificamente. Essas grandes células de disparo rápido
13:21
first look at the general face.
336
786000
2000
veem primeiro o rosto geral.
13:23
So you recognize Obama immediately.
337
788000
2000
Assim você reconhece imediatamente o Obama.
13:25
And then you notice something quite
338
790000
2000
E depois você percebe algo meio
13:27
a little bit odd about the eyes and the mouth.
339
792000
2000
esquisito nos olhos e na boca.
13:29
Especially when they're upside down,
340
794000
2000
Especialmente quando estão de ponta-cabeça.
13:31
you're engaging that general facial recognition software there.
341
796000
3000
Você está ativando esse programa de reconhecimento de rostos aqui.
13:34
Now I said back in our little thought experiment,
342
799000
3000
Agora eu disse antes em nosso pequeno experimento de reflexão,
13:37
you're a hominid walking on the plains of Africa.
343
802000
2000
você é um hominídeo andando nas savanas da África.
13:39
Is it just the wind or a dangerous predator?
344
804000
3000
Será só o vento ou um predador perigoso?
13:42
What's the difference between those?
345
807000
2000
Qual a diferença entre eles?
13:44
Well, the wind is inanimate;
346
809000
2000
Bem, o vento é inanimado.
13:46
the dangerous predator is an intentional agent.
347
811000
2000
O predador perigoso é um agente intencional.
13:48
And I call this process agenticity.
348
813000
2000
E a isso chamo de processo de agenticidade.
13:50
That is the tendency to infuse patterns
349
815000
2000
Essa é a tendência de incutir padrões
13:52
with meaning, intention and agency,
350
817000
2000
com significado, intenção e agência,
13:54
often invisible beings from the top down.
351
819000
3000
com frequência seres invisíveis lá de cima.
13:57
This is an idea that we got
352
822000
2000
Essa é uma ideia que ouvimos
13:59
from a fellow TEDster here, Dan Dennett,
353
824000
2000
de um colega TEDster aqui, Dan Dennett,
14:01
who talked about taking the intentional stance.
354
826000
2000
que falou sobre assumir a postura intencional.
14:03
So it's a type of that expanded to explain, I think, a lot of different things:
355
828000
3000
Então é uma expansão disso para explicar, creio, um monte de coisas diferentes:
14:06
souls, spirits, ghosts, gods, demons, angels,
356
831000
3000
almas, espíritos, fantasmas, deuses, demônios, anjos,
14:09
aliens, intelligent designers,
357
834000
2000
alienígenas, designers inteligentes,
14:11
government conspiracists
358
836000
2000
conspiradores do governo
14:13
and all manner of invisible agents
359
838000
2000
e todo o tipo de agentes invisíveis
14:15
with power and intention, are believed
360
840000
2000
com poder e intenção, que se acredita
14:17
to haunt our world and control our lives.
361
842000
2000
assombrar nosso mundo e controlar nossas vidas.
14:19
I think it's the basis of animism
362
844000
2000
Eu acho que isso é a base do animismo,
14:21
and polytheism and monotheism.
363
846000
3000
politeísmo e monoteísmo.
14:24
It's the belief that aliens are somehow
364
849000
2000
É a crença de que alienígenas são de alguma forma
14:26
more advanced than us, more moral than us,
365
851000
2000
mais avançados que nós, mais morais do que nós,
14:28
and the narratives always are
366
853000
2000
e a estória é sempre que
14:30
that they're coming here to save us and rescue us from on high.
367
855000
3000
eles estão vindo aqui nos salvar e nos levar para o céu.
14:33
The intelligent designer's always portrayed
368
858000
2000
Os designers inteligentes sempre descrevem
14:35
as this super intelligent, moral being
369
860000
3000
esse ser super inteligente e moral
14:38
that comes down to design life.
370
863000
2000
que desce para desenhar a vida.
14:40
Even the idea that government can rescue us --
371
865000
2000
Mesmo a ideia de que o governo pode nos salvar.
14:42
that's no longer the wave of the future,
372
867000
2000
Essa não é mais a onda do futuro.
14:44
but that is, I think, a type of agenticity:
373
869000
2000
Mas isso é, eu acho, um tipo de agenticidade,
14:46
projecting somebody up there,
374
871000
2000
a projeção de que alguém lá em cima,
14:48
big and powerful, will come rescue us.
375
873000
2000
grande e poderoso virá nos salvar.
14:50
And this is also, I think, the basis of conspiracy theories.
376
875000
2000
E isso é também, eu acho, a base das teorias de conspiração.
14:52
There's somebody hiding behind there pulling the strings,
377
877000
3000
Há alguém escondido puxando os pauzinhos,
14:55
whether it's the Illuminati
378
880000
2000
sejam os Illuminati
14:57
or the Bilderbergers.
379
882000
2000
ou os Bilderbergers.
14:59
But this is a pattern detection problem, isn't it?
380
884000
2000
Mas isso é um problema de detecção de padrões, não é?
15:01
Some patterns are real and some are not.
381
886000
2000
Alguns padrões são reais e outros não são.
15:03
Was JFK assassinated by a conspiracy or by a lone assassin?
382
888000
3000
JFK foi assassinado por uma conspiração ou por um assassino solitário?
15:06
Well, if you go there -- there's people there on any given day --
383
891000
3000
Bem, se você for lá -- há pessoas lá todos os dias --
15:09
like when I went there, here -- showing me where the different shooters were.
384
894000
3000
como eu fui lá, aqui -- me mostrando onde os diferentes atiradores estavam.
15:12
My favorite one was he was in the manhole.
385
897000
3000
O meu favorito é o que estava no bueiro.
15:15
And he popped out at the last second, took that shot.
386
900000
3000
E ele saiu de lá no último segundo, e atirou.
15:18
But of course, Lincoln was assassinated by a conspiracy.
387
903000
2000
Mas é claro, Lincoln foi assassinado por uma conspiração.
15:20
So we can't just uniformly dismiss
388
905000
2000
Então não podemos descartar uniformemente
15:22
all patterns like that.
389
907000
2000
todos os padrões assim.
15:24
Because, let's face it, some patterns are real.
390
909000
2000
Porque, vamos encarar, alguns padrões são reais.
15:26
Some conspiracies really are true.
391
911000
2000
Algumas conspirações são verdadeiras.
15:30
Explains a lot, maybe.
392
915000
2000
Explicam muito talvez.
15:32
And 9/11 has a conspiracy theory. It is a conspiracy.
393
917000
3000
E o 11 de Setembro tem uma teoria de conspiração. É uma conspiração.
15:35
We did a whole issue on it.
394
920000
2000
Nós fizemos uma edição inteira sobre isso.
15:37
Nineteen members of Al Queda plotting to fly planes into buildings
395
922000
2000
19 membros da Al Qaeda planejando derrubar aviões em edifícios
15:39
constitutes a conspiracy.
396
924000
2000
constituem uma conspiração.
15:41
But that's not what the "9/11 truthers" think.
397
926000
2000
Mas isso não é o que os "verdadeiros" do 11 de Setembro acham.
15:43
They think it was an inside job by the Bush administration.
398
928000
3000
Eles acham que foi uma operação interna da administração Bush.
15:46
Well, that's a whole other lecture.
399
931000
2000
Bem, essa é uma outra palestra.
15:48
You know how we know that 9/11
400
933000
2000
Mas vocês sabem como sabemos que o 11 de Setembro
15:50
was not orchestrated by the Bush administration?
401
935000
2000
não foi orquestrada pela administração Bush?
15:52
Because it worked.
402
937000
2000
Porque funcionou.
15:54
(Laughter)
403
939000
3000
(Risos)
15:57
(Applause)
404
942000
3000
(Aplausos)
16:00
So we are natural-born dualists.
405
945000
2000
Então somos dualistas por nascença.
16:02
Our agenticity process comes from
406
947000
2000
Nosso processo de agenticidade vem
16:04
the fact that we can enjoy movies like these.
407
949000
2000
do fato que podemos gostar de filmes como esse.
16:06
Because we can imagine, in essence,
408
951000
2000
Porque podemos imaginar, em essência,
16:08
continuing on.
409
953000
2000
seguindo em frente.
16:10
We know that if you stimulate the temporal lobe,
410
955000
2000
Sabemos que ao estimular o lobo temporal,
16:12
you can produce a feeling of out-of-body experiences,
411
957000
2000
pode-se produzir uma sensação de experiência extra corporal,
16:14
near-death experiences,
412
959000
2000
experiência de quase morte,
16:16
which you can do by just touching an electrode to the temporal lobe there.
413
961000
3000
que é feita apenas pelo toque de um eletrodo no lobo temporal.
16:19
Or you can do it through loss of consciousness,
414
964000
2000
Ou pode ser feito pela perda de consciência,
16:21
by accelerating in a centrifuge.
415
966000
2000
pela aceleração numa centrífuga.
16:23
You get a hypoxia, or a lower oxygen.
416
968000
3000
Você está em hipóxia, ou com pouco oxigênio.
16:26
And the brain then senses
417
971000
2000
E assim o cérebro sinaliza
16:28
that there's an out-of-body experience.
418
973000
2000
que há uma experiência extra corporal.
16:30
You can use -- which I did, went out and did --
419
975000
2000
Você pode usar -- como usei, fui lá e usei --
16:32
Michael Persinger's God Helmet,
420
977000
2000
o Capacete de Deus de Michael Persinger,
16:34
that bombards your temporal lobes with electromagnetic waves.
421
979000
2000
que bombardeia seus lobos temporais com ondas eletromagnéticas.
16:36
And you get a sense of out-of-body experience.
422
981000
3000
E você tem uma sensação de experiência extra corporal.
16:39
So I'm going to end here with a short video clip
423
984000
2000
Então vou terminar aqui com um pequeno vídeo
16:41
that sort of brings all this together.
424
986000
2000
que resume um pouco disso tudo.
16:43
It's just a minute and a half.
425
988000
2000
Ele tem apenas um minuto e meio.
16:45
It ties together all this into the power of expectation and the power of belief.
426
990000
3000
Ele amarra tudo isso com o poder de expectativa e o poder da crença.
16:48
Go ahead and roll it.
427
993000
2000
Vá em frente e rode.
16:50
Narrator: This is the venue they chose for their fake auditions
428
995000
3000
Narrador: Esse é o lugar que escolheram para suas entrevistas falsas
16:53
for an advert for lip balm.
429
998000
2000
para uma propaganda de protetor labial.
16:55
Woman: We're hoping we can use part of this
430
1000000
2000
Mulher: Nós esperamos que possamos usar parte disso
16:57
in a national commercial, right?
431
1002000
2000
num comercial nacional, certo?
16:59
And this is test on some lip balms
432
1004000
2000
E isso é para testar alguns protetores labiais
17:01
that we have over here.
433
1006000
2000
que temos aqui.
17:03
And these are our models who are going to help us,
434
1008000
2000
E esses são nossos modelos que vão nos ajudar,
17:05
Roger and Matt.
435
1010000
2000
Roger e Matt.
17:07
And we have our own lip balm,
436
1012000
2000
E temos nosso próprio protetor labial
17:09
and we have a leading brand.
437
1014000
2000
e temos um de uma marca famosa.
17:11
Would you have any problem
438
1016000
2000
Você teria algum problema
17:13
kissing our models to test it?
439
1018000
2000
em beijar nossos modelos para testá-lo?
17:15
Girl: No.
440
1020000
2000
Garota: Não.
17:17
Woman: You wouldn't? (Girl: No.) Woman: You'd think that was fine.
441
1022000
2000
Mulher: Você não teria? (Garota: Não.) Mulher: Você acha que está tudo bem?
17:19
Girl: That would be fine. (Woman: Okay.)
442
1024000
2000
Garota: Tudo bem. (Mulher: Ok.)
17:21
So this is a blind test.
443
1026000
3000
Então, isso é um teste cego.
17:24
I'm going to ask you to go ahead
444
1029000
2000
Eu vou pedir a você para ir em frente
17:26
and put a blindfold on.
445
1031000
2000
e colocar uma venda.
17:29
Kay, now can you see anything? (Girl: No.)
446
1034000
3000
Ok, você consegue ver alguma coisa? (Garota: Não.)
17:32
Pull it so you can't even see down. (Girl: Okay.)
447
1037000
2000
Puxe-a para que você não possa ver embaixo. (Garota: Ok.)
17:34
Woman: It's completely blind now, right?
448
1039000
2000
Mulher: Você está completamente cega agora, certo?
17:36
Girl: Yes. (Woman: Okay.)
449
1041000
2000
Garota: Sim. (Mulher: Ok.)
17:38
Now, what I'm going to be looking for in this test
450
1043000
3000
Agora, o que estou interessada nesse teste
17:41
is how it protects your lips,
451
1046000
3000
é como isso protege seus lábios,
17:44
the texture, right,
452
1049000
2000
a textura, certo?
17:46
and maybe if you can discern any flavor or not.
453
1051000
3000
E talvez se você pode sentir algum sabor ou não.
17:49
Girl: Okay. (Woman: Have you ever done a kissing test before?)
454
1054000
3000
Garota: Ok. (Mulher: Você já fez um teste de beijo antes?)
17:52
Girl: No.
455
1057000
2000
Garota: Não.
17:54
Woman: Take a step here.
456
1059000
2000
Mulher: Fique aqui.
17:56
Okay, now I'm going to ask you to pucker up.
457
1061000
2000
Ok, agora eu quero que você faça beicinho.
17:58
Pucker up big and lean in just a little bit, okay?
458
1063000
3000
Faça beicinho e se abaixe um pouquinho, ok.
18:06
(Music)
459
1071000
4000
(Música)
18:10
(Laughter)
460
1075000
5000
(Risos)
18:19
(Laughter)
461
1084000
3000
(Risos)
18:30
Woman: Okay.
462
1095000
2000
Ok.
18:32
And, Jennifer, how did that feel?
463
1097000
2000
Bem, Jennifer, como você se sentiu?
18:34
Jennifer: Good.
464
1099000
2000
Garota: Bem.
18:36
(Laughter)
465
1101000
7000
(Risos)
18:43
Girl: Oh my God!
466
1108000
2000
Garota: Oh meu Deus.
18:45
(Laughter)
467
1110000
4000
(Risos)
18:50
Michael Shermer: Thank you very much. Thank you. Thanks.
468
1115000
3000
Michael Shermer: Muito obrigado a todos. Obrigado. Obrigado.

▲Back to top

ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com