ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com
TED2010

Michael Shermer: The pattern behind self-deception

Michael Shermer: O padrão por trás da auto-ilusão

Filmed:
2,854,890 views

Michael Shermer diz que a tendência humana para acreditar em coisas estranhas - desde raptos alienígenas a varinhas rabdomânticas - se resume a duas das caraterístias mais básicas e intrincadas do cérebro, para que a sobrevivência seja possível. Ele explica quais são, e como elas nos põem em apuros.
- Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market. Full bio

Double-click the English transcript below to play the video.

00:16
So sinceDesde a I was here last in '06,
0
1000
3000
Então, desde que cá estive pela ultima vez, em 2006,
00:19
we discovereddescobriu that globalglobal climateclima changemudança
1
4000
2000
descobrimos que a alteração global do clima
00:21
is turninggiro out to be a prettybonita seriousgrave issuequestão,
2
6000
2000
se está a tornar num problema muito sério.
00:23
so we coveredcoberto that fairlybastante extensivelyextensivamente
3
8000
2000
Fizemos uma cobertura bastante extensa
00:25
in SkepticCético magazinerevista.
4
10000
2000
na revista Skeptic.
00:27
We investigateinvestigar all kindstipos
5
12000
2000
Investigámos todos os tipos
00:29
of scientificcientífico and quasi-scientificquase científico controversiescontrovérsias,
6
14000
3000
de controvérsias científicas e pseudo-científicas.
00:32
but it turnsgira out we don't have to worrypreocupação about any of this
7
17000
2000
Mas afinal, não nos teremos de preocupar com nada disto,
00:34
because the world'sos mundos going to endfim in 2012.
8
19000
2000
porque o mundo vai acabar em 2012.
00:36
AnotherOutro updateatualizar:
9
21000
2000
Outra atualização:
00:38
You will recallrecordar I introducedintroduziu you guys
10
23000
2000
Lembrar-se-ão que vos apresentei
00:40
to the QuadroQuadro TrackerRastreador.
11
25000
2000
o Quadro Tracker.
00:42
It's like a wateragua dowsingradiestesia devicedispositivo.
12
27000
2000
É como um sistema de procura de água.
00:44
It's just a hollowoco piecepeça of plasticplástico with an antennaantena that swivelsdestorcedores around.
13
29000
3000
É apenas uma peça de plástico oca com uma antena que roda à volta.
00:47
And you walkandar around, and it pointspontos to things.
14
32000
2000
Enquanto vós passeias, e ela aponta para coisas.
00:49
Like if you're looking for marijuanamaconha in students'estudantes lockersarmários,
15
34000
3000
Como quando procuram por marijuana no cacifo dos estudantes,
00:52
it'llvai pointponto right to somebodyalguém.
16
37000
2000
um deles apontará imediatamente para outro.
00:54
Oh, sorry. (LaughterRiso)
17
39000
2000
Oh, peço desculpa. (Risos)
00:56
This particularespecial one that was givendado to me
18
41000
2000
Este em particular, que me foi oferecido,
00:58
findsencontra golfgolfe ballsBolas,
19
43000
2000
encontra bolas de golfe,
01:00
especiallyespecialmente if you're at a golfgolfe coursecurso
20
45000
2000
especialmente se estiver num campo de golfe
01:02
and you checkVerifica undersob enoughsuficiente bushesarbustos.
21
47000
3000
emaranhado no meio de arbustos, à procura da bola.
01:05
Well, undersob the categorycategoria of "What's the harmprejuízo of sillyboba stuffcoisa like this?"
22
50000
3000
Bom, sob a categoria de "O que poderá esta palermice fazer de mal?",
01:08
this devicedispositivo, the ADEADE 651,
23
53000
3000
este aparelho, o ADE 651,
01:11
was soldvendido to the IraqiIraquiano governmentgoverno
24
56000
3000
foi vendido ao governo iraquiano
01:14
for 40,000 dollarsdólares apieceum pedaço.
25
59000
2000
por 27.620 euros a unidade.
01:16
It's just like this one, completelycompletamente worthlessinútil,
26
61000
2000
É exatamente como este, sem a mínima utilidade,
01:18
in whichqual it allegedlyalegadamente workedtrabalhou by "electrostaticeletrostático
27
63000
2000
onde, alegadamente, trabalhava por
01:20
magneticmagnético ioníon attractionatração,"
28
65000
3000
"atração magnética iónica eletroestática"
01:24
whichqual translatestraduz-se to
29
69000
2000
o que, traduzindo, significa,
01:26
"pseudoscientificpseudocientífica baloneyconversa fiada" -- would be the nicebom wordpalavra --
30
71000
3000
"Treta pseudo-científica" - um significado minimamente simpático -
01:29
in whichqual you stringcorda togetherjuntos a bunchgrupo of wordspalavras that soundsom good,
31
74000
2000
onde se encadeiam uma série de palavras que soam bem,
01:31
but it does absolutelyabsolutamente nothing.
32
76000
2000
mas que não querem dizer coisa alguma.
01:33
In this casecaso, at trespassTrespass pointspontos,
33
78000
3000
Neste caso, como na transgressão,
01:36
allowingpermitindo people to go throughatravés
34
81000
2000
ao permitir às pessoas que o façam,
01:38
because your little trackerrastreador devicedispositivo said they were okay,
35
83000
3000
porque o vosso pequeno sensor avisou que estava tudo bem.
01:41
actuallyna realidade costcusto livesvidas.
36
86000
3000
na realidade, reclama vidas humanas.
01:44
So there is a dangerperigo to pseudosciencepseudociência,
37
89000
2000
Daí que haja um perigo na pseudo-ciência,
01:46
in believingacreditando in this sortordenar of thing.
38
91000
3000
no acreditar neste tipo de coisas.
01:49
So what I want to talk about todayhoje is beliefcrença.
39
94000
3000
Por isso, hoje quero falar-vos de crença.
01:52
I want to believe,
40
97000
2000
Eu quero acreditar,
01:54
and you do too.
41
99000
2000
e vós também.
01:56
And in factfacto, I think my thesistese here is that
42
101000
2000
E, de facto, creio que a minha tese nesta matéria é que
01:58
beliefcrença is the naturalnatural stateEstado of things.
43
103000
2000
a crença é o estado natural das coisas.
02:00
It is the defaultpadrão optionopção. We just believe.
44
105000
2000
É a opção inata. Acreditamos, apenas.
02:02
We believe all sortstipos of things.
45
107000
2000
Acreditamos nos mais variados tipos de coisas.
02:04
BeliefCrença is naturalnatural;
46
109000
2000
A crença é natural.
02:06
disbeliefdescrença, skepticismceticismo, scienceCiência, is not naturalnatural.
47
111000
2000
A descrença, o ceticismo, a ciência, não são naturais.
02:08
It's more difficultdifícil.
48
113000
2000
É mais difícil.
02:10
It's uncomfortabledesconfortável to not believe things.
49
115000
2000
É desconfortável não acreditar nas coisas.
02:12
So like FoxFox MulderMulder on "X-FilesX-Files,"
50
117000
3000
Então, como o Fox Mulder nos "Ficheiros Secretos",
02:15
who wants to believe in UFOsOVNIs? Well, we all do,
51
120000
3000
quem quer acreditar em OVNIs? Bom, todos nós.
02:18
and the reasonrazão for that is because
52
123000
2000
E a razão para que tal aconteça é
02:20
we have a beliefcrença enginemotor in our brainscérebro.
53
125000
3000
que temos um mecanismo de crença nos nossos cérebros.
02:23
EssentiallyEssencialmente, we are pattern-seekingprocura de padrões primatesprimatas.
54
128000
3000
No essencial, somos primatas que seguem padrões.
02:26
We connectconectar the dotspontos: A is connectedconectado to B; B is connectedconectado to C.
55
131000
3000
Unimos os pontos: A está relacionado com B; B está relacionado com C.
02:29
And sometimesas vezes A really is connectedconectado to B,
56
134000
3000
E, por vezes, A está realmente relacionado com B.
02:32
and that's calledchamado associationAssociação learningAprendendo.
57
137000
2000
E a isso chama-se aprendizagem por associação.
02:34
We find patternspadrões, we make those connectionsconexões,
58
139000
3000
Encontramos padrões, fazemos essas ligações,
02:37
whetherse it's Pavlov'sPavlov dogcachorro here
59
142000
2000
seja o cão de Pavlov
02:39
associatingassociando the soundsom of the bellSino with the foodComida,
60
144000
3000
a associar o som da sineta com a comida,
02:42
and then he salivatessaliva to the soundsom of the bellSino,
61
147000
2000
e a salivar ao som da sineta,
02:44
or whetherse it's a SkinnerianSkinnerian ratrato,
62
149000
2000
ou seja uma ratazana de Skinner,
02:46
in whichqual he's havingtendo an associationAssociação
63
151000
2000
onde ela faz uma associação
02:48
betweenentre his behaviorcomportamento and a rewardrecompensa for it,
64
153000
2000
entre o seu comportamento e a recompensa devida,
02:50
and thereforeassim sendo he repeatsse repete the behaviorcomportamento.
65
155000
2000
e que, por isso, repete o comportamento.
02:52
In factfacto, what SkinnerSkinner discovereddescobriu
66
157000
2000
De facto, o que Skinner descobriu,
02:54
is that, if you put a pigeonpombo in a boxcaixa like this,
67
159000
3000
foi que, se pusermos um pombo numa caixa como esta,
02:57
and he has to presspressione one of these two keyschaves,
68
162000
2000
e ele tenha de pressionar duas teclas,
02:59
and he triestentativas to figurefigura out what the patternpadronizar is,
69
164000
2000
ele tenta destrinçar qual será o padrão
03:01
and you give him a little rewardrecompensa in the hopperfunil boxcaixa there --
70
166000
2000
e é-lhe dada uma pequena recompensa no comedouro disponível na caixa.
03:03
if you just randomlyaleatoriamente assignatribuir rewardsrecompensas
71
168000
3000
Se as recompensas forem dadas aleatoriamente
03:06
suchtal that there is no patternpadronizar,
72
171000
2000
como se não existisse um padrão,
03:08
they will figurefigura out any kindtipo of patternpadronizar.
73
173000
2000
eles imaginariam outros quaisquer padrões.
03:10
And whatevertanto faz they were doing just before they got the rewardrecompensa,
74
175000
2000
E, independentemente do que estivessem a fazer antes da recepção da recompensa,
03:12
they repeatrepetir that particularespecial patternpadronizar.
75
177000
2000
repetiriam esse padrão em particular.
03:14
SometimesÀs vezes it was even spinningfiação around twiceduas vezes counterclockwiseno sentido anti-horário,
76
179000
3000
Chegaram mesmo a rodar duas vezes no sentido anti-horário,
03:17
onceuma vez clockwiseno sentido horário and peckPeck the keychave twiceduas vezes.
77
182000
3000
uma no sentido horário e deram duas bicadas na tecla.
03:20
And that's calledchamado superstitionsuperstição,
78
185000
2000
A isto, dá-se o nome de superstição.
03:22
and that, I'm afraidreceoso,
79
187000
2000
E temo que andaremos sempre de mãos
03:24
we will always have with us.
80
189000
2000
dadas com ela.
03:26
I call this processprocesso "patternicitypatternicity" --
81
191000
2000
Chamo a este processo "apofenia",
03:28
that is, the tendencytendência to find meaningfulsignificativo patternspadrões
82
193000
2000
ou seja, a tendência para encontrar padrões com significado
03:30
in bothambos meaningfulsignificativo and meaninglesssem significado noisebarulho.
83
195000
3000
tanto em situações com significado, como não.
03:33
When we do this processprocesso, we make two typestipos of errorserros.
84
198000
3000
Quando realizamos este processo, fazemos dois tipos de erros.
03:36
A TypeTipo I errorerro, or falsefalso positivepositivo,
85
201000
2000
O erro Tipo I, ou falso positivo,
03:38
is believingacreditando a patternpadronizar is realreal
86
203000
2000
é acreditar que o padrão é real
03:40
when it's not.
87
205000
2000
quando não o é.
03:42
Our secondsegundo typetipo of errorerro is a falsefalso negativenegativo.
88
207000
2000
O nosso segundo tipo de erro é o falso negativo.
03:44
A TypeTipo IIII errorerro is not believingacreditando
89
209000
2000
O erro Tipo II é não acreditar
03:46
a patternpadronizar is realreal when it is.
90
211000
3000
que um padrão é real quando na realidade o é.
03:49
So let's do a thought experimentexperimentar.
91
214000
2000
Façamos uma experiência mental.
03:51
You are a hominidhominídeo threetrês millionmilhão yearsanos agoatrás
92
216000
2000
Vocês são um hominídeo, há três milhões de anos atrás,
03:53
walkingcaminhando on the plainsplanícies of AfricaÁfrica.
93
218000
3000
que caminham pelas planícies de África.
03:56
Your namenome is LucyLucy, okay?
94
221000
2000
O vosso nome é Lucy, está bem?
03:58
And you hearouvir a rustleRustle in the grassgrama.
95
223000
2000
E ouvem um restolhar na erva.
04:00
Is it a dangerousperigoso predatorpredador,
96
225000
2000
Será um predador perigoso,
04:02
or is it just the windvento?
97
227000
2000
ou será apenas o vento?
04:04
Your nextPróximo decisiondecisão could be the mosta maioria importantimportante one of your life.
98
229000
3000
A vossa próxima decisão poderia ser a mais importante da vossa vida.
04:07
Well, if you think that the rustleRustle in the grassgrama is a dangerousperigoso predatorpredador
99
232000
3000
Bom, se pensarem que o restolhar é um predador perigoso,
04:10
and it turnsgira out it's just the windvento,
100
235000
2000
e na volta for só o vento,
04:12
you've madefeito an errorerro in cognitionconhecimento,
101
237000
2000
experienciaram um erro cognitivo
04:14
madefeito a TypeTipo I errorerro, falsefalso positivepositivo.
102
239000
2000
fizeram um erro Tipo I, o falso positivo.
04:16
But no harmprejuízo. You just movemover away.
103
241000
2000
Mas sem danos. Apenas se afastam.
04:18
You're more cautiouscauteloso. You're more vigilantvigilante.
104
243000
2000
São mais prudentes. Estão mais alerta.
04:20
On the other handmão, if you believe that the rustleRustle in the grassgrama is just the windvento,
105
245000
2000
Por outro lado, se acreditam que o restolhar na erva é apenas o vento,
04:22
and it turnsgira out it's a dangerousperigoso predatorpredador,
106
247000
3000
e afinal era um predador perigoso,
04:25
you're lunchalmoço.
107
250000
2000
vocês servem de almoço.
04:27
You've just wonGanhou a DarwinDarwin awardprêmio.
108
252000
2000
Acabaram de ganhar um Prémio Darwin.
04:29
You've been takenocupado out of the genegene poolpiscina.
109
254000
2000
Foram retirados da piscina genética.
04:31
Now the problemproblema here is that
110
256000
2000
O problema é que
04:33
patternicitiespatternicities will occurocorrer wheneversempre que the costcusto
111
258000
2000
as apofenias acontecerão sempre que o custo
04:35
of makingfazer a TypeTipo I errorerro
112
260000
2000
de fazer um erro Tipo I
04:37
is lessMenos than the costcusto of makingfazer a TypeTipo IIII errorerro.
113
262000
2000
seja inferior ao custo de fazer um erro Tipo II.
04:39
This is the only equationequação in the talk by the way.
114
264000
2000
Esta é, já agora, a única equação na palestra.
04:41
We have a patternpadronizar detectiondetecção problemproblema
115
266000
2000
Temos um problema de deteção de padrões
04:43
that is assessingavaliar the differencediferença betweenentre a TypeTipo I and a TypeTipo IIII errorerro
116
268000
3000
que está a avaliar a diferença entre os erros do tipo um e dois
04:46
is highlyaltamente problematicproblemático,
117
271000
2000
é altamente problemático,
04:48
especiallyespecialmente in split-secondfração de segundo, life-and-deathvida e morte situationssituações.
118
273000
3000
especialmente em segundos-chave, situações de vida-ou-morte.
04:51
So the defaultpadrão positionposição
119
276000
2000
Então a posição base
04:53
is just: Believe all patternspadrões are realreal --
120
278000
2000
é "acreditem que todos os padrões são reais".
04:55
All rustlessussurra in the grassgrama are dangerousperigoso predatorspredadores
121
280000
3000
"Todo o restolhar de ervas quer dizer predadores perigosos,
04:58
and not just the windvento.
122
283000
2000
e não apenas o vento"
05:00
And so I think that we evolvedevoluiu ...
123
285000
2000
Então, penso que evoluímos...
05:02
there was a naturalnatural selectionseleção for the propensitypropensão for our beliefcrença enginesmotores,
124
287000
3000
houve uma seleção natural para a tendência para a nossa maquinaria de fé,
05:05
our pattern-seekingprocura de padrões braincérebro processesprocessos,
125
290000
2000
os nossos processos de procura de padrões,
05:07
to always find meaningfulsignificativo patternspadrões
126
292000
2000
para encontrarmos sempre padrões com significado
05:09
and infuseinfundir them with these sortordenar of
127
294000
2000
e preenchêmo-los com esta espécie de
05:11
predatorypredatórios or intentionalintencional agenciesagências that I'll come back to.
128
296000
3000
agências predatórias ou intencionais às quais voltaremos.
05:14
So for exampleexemplo, what do you see here?
129
299000
2000
Então, por exemplo, o que vêem aqui?
05:16
It's a horsecavalo headcabeça, that's right.
130
301000
2000
Sim, é a cabeça de um cavalo.
05:18
It looksparece like a horsecavalo. It mustdevo be a horsecavalo.
131
303000
2000
Parece-se com um cavalo. Tem de ser um cavalo.
05:20
That's a patternpadronizar.
132
305000
2000
Isto é um padrão.
05:22
And is it really a horsecavalo?
133
307000
2000
E será, realmente, um cavalo?
05:24
Or is it more like a frog?
134
309000
3000
Ou parecer-se-á mais com um sapo?
05:27
See, our patternpadronizar detectiondetecção devicedispositivo,
135
312000
2000
Notem, o nosso equipamento de deteção de padrões,
05:29
whichqual appearsaparece to be locatedlocalizado in the anterioranterior cingulatecingulado cortexcórtex --
136
314000
3000
que parece estar localizado no córtex cingulado anterior -
05:32
it's our little detectiondetecção devicedispositivo there --
137
317000
3000
é ali o nosso pequeno equipamento de deteção -
05:35
can be easilyfacilmente fooledenganado, and this is the problemproblema.
138
320000
2000
pode ser facilmente enganado, e é este o problema.
05:37
For exampleexemplo, what do you see here?
139
322000
2000
Por exemplo, o que vêem aqui?
05:39
Yes, of coursecurso, it's a cowvaca.
140
324000
3000
Sim, claro. É uma vaca.
05:42
OnceVez I primePrime the braincérebro -- it's calledchamado cognitivecognitivo primingescorva --
141
327000
3000
Quando ativo o cérebro - o chamado primado cognitivo -
05:45
onceuma vez I primePrime the braincérebro to see it,
142
330000
2000
assim que ativo o cérebro para vê-lo,
05:47
it popsaparece back out again even withoutsem the patternpadronizar that I've imposedimpostas on it.
143
332000
3000
ele aparece novamente, mesmo sem o padrão que eu lhe havia imposto.
05:50
And what do you see here?
144
335000
2000
O que vêem aqui?
05:52
Some people see a DalmatianDálmata dogcachorro.
145
337000
2000
Algumas pessoas vêem um dálmata.
05:54
Yes, there it is. And there's the primePrime.
146
339000
2000
Sim, lá está ele. E é um primado.
05:56
So when I go back withoutsem the primePrime,
147
341000
2000
Então quando volto sem o primado,
05:58
your braincérebro already has the modelmodelo
148
343000
2000
o vosso cérebro já tem o modelo
06:00
so you can see it again.
149
345000
2000
para que o possam ver novamente.
06:02
What do you see here?
150
347000
3000
O que vêem aqui?
06:05
PlanetPlaneta SaturnSaturno. Yes, that's good.
151
350000
2000
O planeta Saturno. Sim, isso é bom.
06:07
How about here?
152
352000
3000
E aqui?
06:10
Just shoutgrito out anything you see.
153
355000
3000
Gritem aquilo que virem.
06:14
That's a good audiencepúblico, ChrisChris.
154
359000
2000
Que bela audiência, Chris.
06:16
Because there's nothing in this. Well, allegedlyalegadamente there's nothing.
155
361000
3000
Porque não há aqui nada. Bem, alegadamente, não há nada.
06:19
This is an experimentexperimentar donefeito by JenniferJennifer WhitsonWhitson
156
364000
3000
Isto é uma experiência feita por Jennifer Whitson,
06:22
at U.T. AustinAustin
157
367000
2000
na Universidade do Texas, em Austin,
06:24
on corporatecorporativo environmentsambientes
158
369000
2000
sobre ambientes corporativos,
06:26
and whetherse feelingssentimentos of uncertaintyincerteza and out of controlao controle
159
371000
3000
e na possibilidade dos sentimentos de incerteza e descontrolo
06:29
makesfaz com que people see illusoryilusória patternspadrões.
160
374000
2000
fazerem as pessoas ver padrões ilusórios.
06:31
That is, almostquase everybodytodo mundo sees the planetplaneta SaturnSaturno.
161
376000
3000
Quer dizer, quase toda a gente vê o planeta Saturno.
06:34
People that are put in a conditioncondição of feelingsentindo-me out of controlao controle
162
379000
3000
Pessoas numa condição de se sentirem descontroladas
06:37
are more likelyprovável to see something in this,
163
382000
2000
são mais passíveis de ver algo nisto,
06:39
whichqual is allegedlyalegadamente patternlesspatternless.
164
384000
3000
que não é, alegadamente, um padrão.
06:42
In other wordspalavras, the propensitypropensão to find these patternspadrões
165
387000
3000
Por outras palavras, a propensão para encontrar estes padrões
06:45
goesvai up when there's a lackfalta of controlao controle.
166
390000
3000
sobe em situações de descontrolo.
06:48
For exampleexemplo, baseballbaseball playersjogadoras are notoriouslynotoriamente superstitioussupersticioso
167
393000
3000
Por exemplo, os jogadores de basebol são notoriamente supersticiosos
06:51
when they're battingrebatidas,
168
396000
2000
quando na posição de batedor,
06:53
but not so much when they're fieldingFielding.
169
398000
2000
mas não o são tanto quando na posição de corredor.
06:55
Because fieldersdefensores are successfulbem sucedido
170
400000
2000
Isto porque os corredores têm sucesso
06:57
90 to 95 percentpor cento of the time.
171
402000
2000
90 a 95 porcento das vezes.
06:59
The bestmelhor battersmassas failfalhou sevenSete out of 10 timesvezes.
172
404000
3000
Os melhores batedores falham 7 a cada 10 vezes.
07:02
So theirdeles superstitionssuperstições, theirdeles patternicitiespatternicities,
173
407000
2000
Então as suas superstições, as suas apofenias,
07:04
are all associatedassociado with feelingssentimentos of lackfalta of controlao controle
174
409000
3000
estão todas relacionadas com sentimentos de descontrolo,
07:07
and so forthadiante.
175
412000
2000
e por aí em diante.
07:10
What do you see in this particularespecial one here, in this fieldcampo?
176
415000
3000
O que vêem neste em particular, nesta área?
07:13
AnybodyNinguém see an objectobjeto there?
177
418000
2000
Alguém vê aqui um objeto?
07:15
There actuallyna realidade is something here,
178
420000
2000
Há, realmente, aqui qualquer coisa,
07:17
but it's degradeddegradado.
179
422000
2000
mas está degradada.
07:19
While you're thinkingpensando about that,
180
424000
2000
Enquanto pensam nisso,
07:21
this was an experimentexperimentar donefeito by SusanSusan BlackmoreBlackmore,
181
426000
2000
esta foi uma experiência feita por Susan Blackmore,
07:23
a psychologistpsicólogo in EnglandInglaterra,
182
428000
2000
uma psicóloga inglesa,
07:25
who showedmostrou subjectsassuntos this degradeddegradado imageimagem
183
430000
2000
que mostrou aos participantes esta imagem degradada
07:27
and then rancorreu a correlationcorrelação betweenentre
184
432000
2000
e depois fez a correlação entre
07:29
theirdeles scorespontuações on an ESPESP testteste:
185
434000
2000
as suas notas num teste de Percepção Extrassensorial,
07:31
How much did they believe in the paranormalparanormal,
186
436000
2000
nas suas crenças no paranormal,
07:33
supernaturalsobrenatural, angelsanjos and so forthadiante.
187
438000
3000
no sobrenatural, anjos e por aí fora.
07:36
And those who scoredmarcou highAlto on the ESPESP scaleescala,
188
441000
3000
E aqueles com melhores resultados na escala da Percepção Extrassensorial,
07:39
tendedtendiam to not only see
189
444000
2000
tendiam a, nao apenas ver
07:41
more patternspadrões in the degradeddegradado imagesimagens
190
446000
2000
mais padrões nas imagens degradadas,
07:43
but incorrectincorreta patternspadrões.
191
448000
2000
mas padrões incorretos.
07:45
Here is what you showexposição subjectsassuntos.
192
450000
2000
Aqui está o que se mostra aos participantes.
07:47
The fishpeixe is degradeddegradado 20 percentpor cento, 50 percentpor cento
193
452000
3000
O peixe está degradado 20 porcento, 50 porcento
07:50
and then the one I showedmostrou you,
194
455000
2000
e depois, o que vos mostrei,
07:52
70 percentpor cento.
195
457000
2000
70 porcento.
07:54
A similarsemelhante experimentexperimentar was donefeito by anotheroutro [SwissSuíço] psychologistpsicólogo
196
459000
2000
Uma experiência semelhante foi realizada por outro psicólogo [suíço]
07:56
namednomeado PeterPeter BruggerBrugger,
197
461000
2000
de nome Peter Brugger,
07:58
who foundencontrado significantlysignificativamente more meaningfulsignificativo patternspadrões
198
463000
3000
que descobriu que os padrões com maior expressão significativa
08:01
were perceivedpercebida on the right hemisphereHemisfério,
199
466000
2000
eram percecionados no hemisfério direito,
08:03
viaatravés da the left visualvisual fieldcampo, than the left hemisphereHemisfério.
200
468000
3000
pelo campo visual esquerdo, em detrimento do hemisfério esquerdo.
08:06
So if you presentpresente subjectsassuntos the imagesimagens suchtal
201
471000
2000
Então, se mostram aos participantes imagens de modo
08:08
that it's going to endfim up on the right hemisphereHemisfério insteadem vez de of the left,
202
473000
3000
a que vão parar ao hemisfério direito em vez do esquerdo,
08:11
then they're more likelyprovável to see patternspadrões
203
476000
2000
eles terão mais propensão para ver padrões
08:13
than if you put it on the left hemisphereHemisfério.
204
478000
2000
do que se estes forem parar ao hemisfério esquerdo.
08:15
Our right hemisphereHemisfério appearsaparece to be
205
480000
2000
Aparentemente, ocorre muita apofenia no
08:17
where a lot of this patternicitypatternicity occursocorre.
206
482000
2000
nosso hemisfério direito.
08:19
So what we're tryingtentando to do is boredo furo into the braincérebro
207
484000
2000
Então, o que estamos a tentar é perfurar o cérebro
08:21
to see where all this happensacontece.
208
486000
2000
para ver onde tudo isso acontece.
08:23
BruggerBrugger and his colleaguecolega, ChristineChristine MohrMohr,
209
488000
3000
Brugger e a sua colega, Christine Mohr,
08:26
gavedeu subjectsassuntos L-DOPAL-DOPA.
210
491000
2000
deram L-DOPA aos participantes.
08:28
L-DOPA'sL-DOPA a drugdroga, as you know, givendado for treatingtratando Parkinson'sA doença de Parkinson diseasedoença,
211
493000
3000
Como sabem, o L-DOPA é um medicamento indicado para o tratamento da doença de Parkinson,
08:31
whichqual is relatedrelacionado to a decreasediminuir in dopaminedopamina.
212
496000
3000
e está relacionado com um aumento da dopamina.
08:34
L-DOPAL-DOPA increasesaumenta dopaminedopamina.
213
499000
2000
O L-DOPA aumenta a dopamina.
08:36
An increaseaumentar of dopaminedopamina causedcausou
214
501000
2000
E o incremento de dopamina fez com que
08:38
subjectsassuntos to see more patternspadrões
215
503000
2000
os participantes vissem mais padrões
08:40
than those that did not receivereceber the dopaminedopamina.
216
505000
2000
do que aqueles a quem não foi administrada dopamina.
08:42
So dopaminedopamina appearsaparece to be the drugdroga
217
507000
2000
Então a dopamina parece ser uma droga
08:44
associatedassociado with patternicitypatternicity.
218
509000
2000
associada à apofenia.
08:46
In factfacto, neurolepticneuroléptica drugsdrogas
219
511000
2000
De facto, as drogas neuroléticas
08:48
that are used to eliminateeliminar psychoticpsicótico behaviorcomportamento,
220
513000
2000
são usadas para eliminar comportamentos psicóticos,
08:50
things like paranoiaparanoia, delusionsdelírios
221
515000
2000
sintomas como paranóia, ilusões,
08:52
and hallucinationsalucinações,
222
517000
2000
e alucinações,
08:54
these are patternicitiespatternicities.
223
519000
2000
isto são apofenias.
08:56
They're incorrectincorreta patternspadrões. They're falsefalso positivespositivos. They're TypeTipo I errorserros.
224
521000
3000
São padrões incorretos. São falsos positivos. São erros do Tipo I.
08:59
And if you give them drugsdrogas
225
524000
2000
E se lhes administrarem drogas
09:01
that are dopaminedopamina antagonistsantagonistas dos,
226
526000
2000
se sejam antagonistas da dopamina,
09:03
they go away.
227
528000
2000
eles desaparecem.
09:05
That is, you decreasediminuir the amountmontante of dopaminedopamina,
228
530000
2000
Isto é, diminuem a quantidade de dopamina,
09:07
and theirdeles tendencytendência to see
229
532000
2000
e a tendência para ver
09:09
patternspadrões like that decreasesdiminui.
230
534000
2000
padrões desse género diminui.
09:11
On the other handmão, amphetaminesanfetaminas like cocainecocaína
231
536000
3000
Por outro lado, anfetaminas como a cocaína,
09:14
are dopaminedopamina agonistsagonistas.
232
539000
2000
são agonistas da dopamina.
09:16
They increaseaumentar the amountmontante of dopaminedopamina.
233
541000
2000
Eles aumentam a quantidade de dopamina.
09:18
So you're more likelyprovável to feel in a euphoriceufórico stateEstado,
234
543000
3000
Então é provável que se sintam num estado de euforia,
09:21
creativitycriatividade, find more patternspadrões.
235
546000
2000
criatividade, reconhecimento de mais padrões.
09:23
In factfacto, I saw RobinRobin WilliamsWilliams recentlyrecentemente
236
548000
2000
De facto, vi recentemente o Robin Williams
09:25
talk about how he thought he was much funniermais engraçado
237
550000
2000
falar sobre como ele se sentia com mais piada
09:27
when he was doing cocainecocaína, when he had that issuequestão, than now.
238
552000
3000
quando consumia cocaína, quando teve esse problema, do que atualmente.
09:30
So perhapspossivelmente more dopaminedopamina
239
555000
2000
Então, talvez mais dopamina
09:32
is relatedrelacionado to more creativitycriatividade.
240
557000
2000
esteja relacionada com uma maior criatividade.
09:34
DopamineDopamina, I think, changesalterar
241
559000
2000
A meu ver, a dopamina altera
09:36
our signal-to-noisesinal-ruído ratiorelação.
242
561000
2000
a nossa razão sinal-ruído.
09:38
That is, how accuratepreciso we are
243
563000
2000
Ou seja, o quão certos estamos
09:40
in findingencontrando patternspadrões.
244
565000
2000
no reconhecimento de padrões.
09:42
If it's too lowbaixo, you're more likelyprovável to make too manymuitos TypeTipo IIII errorserros.
245
567000
3000
Se for muito baixa, é provável que façam demasiados erros do Tipo II.
09:45
You misssenhorita the realreal patternspadrões. You don't want to be too skepticalcéptico.
246
570000
2000
Deixam escapar os padrões verdadeiros. Não queiram ser assim tão céticos.
09:47
If you're too skepticalcéptico, you'llvocê vai misssenhorita the really interestinginteressante good ideasidéias.
247
572000
3000
Se forem demasiado céticos, não repararão nas boas ideias, realmente interessantes.
09:51
Just right, you're creativecriativo, and yetainda you don't fallcair for too much baloneyconversa fiada.
248
576000
3000
Na dose certa, são criativos, e no entanto, não caem em conversa da treta.
09:54
Too highAlto and maybe you see patternspadrões everywhereem toda parte.
249
579000
3000
Demasiado alta, e talvez vejam padrões por toda a parte.
09:57
EveryCada time somebodyalguém looksparece at you, you think people are staringencarando at you.
250
582000
3000
Sempre que alguém olha para vós, pensam que vos estão a encarar.
10:00
You think people are talkingfalando about you.
251
585000
2000
Pensam que estão a falar de vós.
10:02
And if you go too farlonge on that, that's just simplysimplesmente
252
587000
2000
E se continuam por esse caminho, isso é simplesmente
10:04
labeledrotulado as madnessloucura.
253
589000
2000
rotulado como loucura.
10:06
It's a distinctiondistinção perhapspossivelmente we mightpoderia make
254
591000
2000
É uma distinção que talvez possamos fazer
10:08
betweenentre two NobelNobel laureateslaureados, RichardRichard FeynmanFeynman
255
593000
2000
entre dois laureados com o Prémio Nobel, Richard Feynman
10:10
and JohnJohn NashNash.
256
595000
2000
e John Nash.
10:12
One sees maybe just the right numbernúmero
257
597000
2000
Um vê o número exato de padrões
10:14
of patternspadrões to winganhar a NobelNobel PrizePrêmio.
258
599000
2000
necessários para ganhar um Prémio Nobel.
10:16
The other one alsoAlém disso, but maybe too manymuitos patternspadrões.
259
601000
2000
O outro também os vê, mas talvez em demasia.
10:18
And we then call that schizophreniaesquizofrenia.
260
603000
3000
E depois chamamos a isso esquizofrenia.
10:21
So the signal-to-noisesinal-ruído ratiorelação then presentspresentes us with a pattern-detectionpadrão-deteção problemproblema.
261
606000
3000
Então a razão sinal-ruído saúda-nos aí com um problema de deteção de padrões.
10:24
And of coursecurso you all know exactlyexatamente
262
609000
2000
E todos vós sabeis claramente
10:26
what this is, right?
263
611000
2000
o que isso é, certo?
10:28
And what patternpadronizar do you see here?
264
613000
2000
E que padrão vêem aqui?
10:30
Again, I'm puttingcolocando your anterioranterior cingulatecingulado cortexcórtex to the testteste here,
265
615000
3000
Novamente, estou a testar o vosso cortex cingulado anterior,
10:33
causingcausando you conflictingem conflito patternpadronizar detectionsdetecções.
266
618000
3000
causando-vos deteções de padrões que entram em conflito.
10:36
You know, of coursecurso, this is ViaAtravés UnoUno shoessapatos.
267
621000
2000
Sabem, com certeza, que estes sapatos são Via Uno.
10:38
These are sandalssandálias.
268
623000
3000
São sandálias.
10:41
PrettyMuito sexysexy feetpés, I mustdevo say.
269
626000
3000
Uns pés bem sensuais, devo dizer.
10:44
Maybe a little PhotoshoppedPhotoshopped.
270
629000
2000
Talvez um pouco editados em Photoshop.
10:46
And of coursecurso, the ambiguousambíguo figuresfiguras
271
631000
2000
E, obviamente, as figuras ambíguas
10:48
that seemparecem to flip-flopflip-flop back and forthadiante.
272
633000
2000
que parecem deambular de trás para a frente.
10:50
It turnsgira out what you're thinkingpensando about a lot
273
635000
2000
Acontece que aquilo em que pensam muito
10:52
influencesinfluências what you
274
637000
2000
tem influência naquilo
10:54
tendtende to see.
275
639000
2000
que tendem a ver.
10:56
And you see the lampluminária here, I know.
276
641000
2000
E vêem esta lâmpada, eu sei.
10:58
Because the lightsluzes on here.
277
643000
3000
Porque aqui a luz está ligada.
11:01
Of coursecurso, thanksobrigado to the environmentalistecologista movementmovimento
278
646000
2000
Obviamente, graças ao movimento ambientalista,
11:03
we're all sensitivesensível to the plightsituação difícil of marinefuzileiro naval mammalsmamíferos.
279
648000
3000
todos estamos sensibilizados com os apelos pelos mamíferos marinhos.
11:06
So what you see in this particularespecial ambiguousambíguo figurefigura
280
651000
3000
Então o que vêem nesta figura ambígua, em particular,
11:09
is, of coursecurso, the dolphinsgolfinhos, right?
281
654000
2000
são, certamente os golfinhos, certo?
11:11
You see a dolphingolfinho here,
282
656000
2000
Vêem aqui um golfinho.
11:13
and there's a dolphingolfinho,
283
658000
2000
E aqui está um golfinho.
11:15
and there's a dolphingolfinho.
284
660000
2000
E lá está outro.
11:17
That's a dolphingolfinho tailrabo there, guys.
285
662000
3000
Aquilo é a barbatana de um golfinho, pessoal.
11:20
(LaughterRiso)
286
665000
3000
(Risos)
11:25
If we can give you conflictingem conflito datadados, again,
287
670000
3000
Se vos conseguirmos dar a informação em conflito, novamente,
11:28
your ACCACC is going to be going into hyperdrivehyperdrive.
288
673000
3000
o vosso cortex cingulado anterior entrará em hiperatividade.
11:31
If you look down here, it's fine. If you look up here, then you get conflictingem conflito datadados.
289
676000
3000
Se olharem para aqui, ótimo. Se olharem ali para cima, a informação entrará em conflito.
11:34
And then we have to flipgiro the imageimagem
290
679000
2000
Depois temos de rodar a imagem
11:36
for you to see that it's a setconjunto up.
291
681000
2000
para que vejam que é tudo um logro.
11:40
The impossibleimpossível cratecaixa illusionilusão.
292
685000
2000
A ilusão da caixa impossível.
11:42
It's easyfácil to foolidiota the braincérebro in 2D.
293
687000
2000
É fácil enganar o cérebro em 2D.
11:44
So you say, "AwAh, come on ShermerShermer, anybodyqualquer pessoa can do that
294
689000
2000
E vós dizeis "Oh, vá lá Shermer, qualquer um pode fazer isso
11:46
in a PsychPsicologia 101 texttexto with an illusionilusão like that."
295
691000
2000
munido de textos de iniciação à psicologia, com uma ilusão como essa".
11:48
Well here'saqui está the lateatrasado, great JerryJerry Andrus''Andrus
296
693000
2000
Bem, eis a ilusão em 3D "caixa impossivel"
11:50
"impossibleimpossível cratecaixa" illusionilusão in 3D,
297
695000
3000
do grande, falecido, Jerry Andrus,
11:53
in whichqual JerryJerry is standingparado insidedentro
298
698000
2000
onde o Jerry está em pé, dentro
11:55
the impossibleimpossível cratecaixa.
299
700000
2000
da caixa impossível.
11:57
And he was kindtipo enoughsuficiente to postpostar this
300
702000
2000
E ele foi suficientemente gentil para divulgar isto
11:59
and give us the revealrevelar.
301
704000
2000
e dar-nos a revelação.
12:01
Of coursecurso, cameraCâmera angleângulo is everything. The photographerfotógrafo is over there,
302
706000
3000
Sem dúvida, o ângulo da câmara é tudo. O fotógrafo está lá.
12:04
and this boardborda appearsaparece to overlapsobreposição with this one, and this one with that one, and so on.
303
709000
3000
E esta fronteira parece sobrepor-se àquela, e esta com aquela, e por aí fora.
12:07
But even when I take it away,
304
712000
2000
Mas mesmo quando tento controlá-la
12:09
the illusionilusão is so powerfulpoderoso because of how are brainscérebro are wiredcom fio
305
714000
2000
a ilusão é tão poderosa devido à maneira como os nossos cérebros estão programados
12:11
to find those certaincerto kindstipos of patternspadrões.
306
716000
3000
para reconhecer certos tipos padrões.
12:14
This is a fairlybastante newNovo one
307
719000
2000
Esta é uma moderadamente nova
12:16
that throwslances us off because of the conflictingem conflito patternspadrões
308
721000
2000
isso nos surpreende devido aos padrões em conflito
12:18
of comparingcomparando this angleângulo with that angleângulo.
309
723000
3000
no que respeita à comparação deste ângulo com o outro.
12:21
In factfacto, it's the exactexato samemesmo picturecenário sidelado by sidelado.
310
726000
3000
De facto, é a mesma imagem, lado a lado.
12:24
So what you're doing is comparingcomparando that angleângulo
311
729000
2000
Então o que fazem é comparar esse ângulo
12:26
insteadem vez de of with this one, but with that one.
312
731000
2000
em vez deste, mas com o outro.
12:28
And so your braincérebro is fooledenganado.
313
733000
2000
E então os vossos cérebros são enganados.
12:30
YetAinda again, your patternpadronizar detectiondetecção devicesdispositivos are fooledenganado.
314
735000
2000
Mais uma vez, ou vossos aparelhos de deteção de padrões são enganados.
12:32
FacesRostos are easyfácil to see
315
737000
2000
Os rostos são fáceis de ver
12:34
because we have an additionaladicionais evolvedevoluiu
316
739000
2000
porque temos um software adicional evoluido,
12:36
facialtratamento facial recognitionreconhecimento softwareProgramas
317
741000
2000
software de reconhecimento facial,
12:38
in our temporaltemporal lobeslóbulos.
318
743000
3000
nos nossos lobos temporais.
12:41
Here'sAqui é some facesrostos on the sidelado of a rockRocha.
319
746000
3000
Eis alguns rostos ao lado de uma rocha.
12:44
I'm actuallyna realidade not even sure if this is -- this mightpoderia be PhotoshoppedPhotoshopped.
320
749000
3000
Nem sequer tenho a certeza de que isto seja verdade - pode ter sido editado com Photoshop.
12:47
But anywayde qualquer forma, the pointponto is still madefeito.
321
752000
2000
De qualquer maneira, chegámos onde queríamos.
12:49
Now whichqual one of these looksparece oddímpar to you?
322
754000
2000
Agora, qual destes lhes parece mais estranho?
12:51
In a quickrápido reactionreação, whichqual one looksparece oddímpar?
323
756000
2000
Numa reação rápida, qual parece mais estranho?
12:53
The one on the left. Okay. So I'll rotaterodar it
324
758000
2000
O da esquerda. Muito bem. Então vou rodá-lo
12:55
so it'llvai be the one on the right.
325
760000
2000
para que o mais estranho seja o da direita.
12:57
And you are correctum lugar para outro.
326
762000
2000
E estão certos.
12:59
A fairlybastante famousfamoso illusionilusão -- it was first donefeito with MargaretMargaret ThatcherThatcher.
327
764000
3000
Uma ilusão moderadamente famosa - usada pela primeira vez com Margaret Thatcher.
13:02
Now, they tradecomércio up the politicianspolíticos everycada time.
328
767000
2000
Agora, trocam-se de políticos todos os dias.
13:04
Well, why is this happeningacontecendo?
329
769000
2000
Bom, qual a razão disto?
13:06
Well, we know exactlyexatamente where it happensacontece,
330
771000
2000
Bom, sabemos exatamente onde acontece,
13:08
in the temporaltemporal lobelobo, right acrossatravés, sortordenar of aboveacima your earorelha there,
331
773000
3000
no lobo temporal, atravessado, mais ou menos ali a cima da orelha.
13:11
in a little structureestrutura calledchamado the fusiformfusiforme gyrusGyrus.
332
776000
3000
Numa pequena estrutura chamada giro fusiforme.
13:14
And there's two typestipos of cellscélulas that do this,
333
779000
2000
E existem dois tipos de células que fazem isto,
13:16
that recordregistro facialtratamento facial featurescaracterísticas eitherou globallyglobalmente,
334
781000
3000
que gravam caraterísticas faciais tanto na globalidade,
13:19
or specificallyespecificamente these largeampla, rapid-firingrápido-fogo cellscélulas,
335
784000
2000
como especificamente nestas células de reação rápida, grandes,
13:21
first look at the generalgeral facecara.
336
786000
2000
olham em primeiro lugar para a cara em específico.
13:23
So you recognizereconhecer ObamaObama immediatelyimediatamente.
337
788000
2000
Então reconhecem o Obama de imediato.
13:25
And then you noticeaviso prévio something quitebastante
338
790000
2000
E depois reparam em algo um pouco estranho
13:27
a little bitpouco oddímpar about the eyesolhos and the mouthboca.
339
792000
2000
nos seus olhos e na sua boca.
13:29
EspeciallyEspecialmente when they're upsideparte de cima down,
340
794000
2000
Em especial quando virados ao contrário,
13:31
you're engagingnoivando that generalgeral facialtratamento facial recognitionreconhecimento softwareProgramas there.
341
796000
3000
Estão a usar o software de reconhecimento facial geral, aqui.
13:34
Now I said back in our little thought experimentexperimentar,
342
799000
3000
Já disse anteriormente, na nossa pequena experiência de pensamento,
13:37
you're a hominidhominídeo walkingcaminhando on the plainsplanícies of AfricaÁfrica.
343
802000
2000
que vós sois hominídeos que se passeiam nas planícies africanas.
13:39
Is it just the windvento or a dangerousperigoso predatorpredador?
344
804000
3000
Será apenas o vento ou um predador perigoso?
13:42
What's the differencediferença betweenentre those?
345
807000
2000
Qual a diferença entre ambos?
13:44
Well, the windvento is inanimateinanimado;
346
809000
2000
Bom, o vento é inanimado;
13:46
the dangerousperigoso predatorpredador is an intentionalintencional agentAgente.
347
811000
2000
o predador perigoso é um agente intencional.
13:48
And I call this processprocesso agenticityagenticity.
348
813000
2000
E eu chamo a este processo agenticidade.
13:50
That is the tendencytendência to infuseinfundir patternspadrões
349
815000
2000
É a tendência para preencher padrões
13:52
with meaningsignificado, intentionintenção and agencyagência,
350
817000
2000
com significado, intencionalidade e poder,
13:54
oftenfrequentemente invisibleinvisível beingsseres from the toptopo down.
351
819000
3000
muitas vezes seres inferiores.
13:57
This is an ideaidéia that we got
352
822000
2000
Esta é uma ideia que tivémos
13:59
from a fellowcompanheiro TEDsterTed here, DanDan DennettDennett,
353
824000
2000
a partir de um colega TED, Dan Dennett, aqui presente,
14:01
who talkedfalou about takinglevando the intentionalintencional stanceposição.
354
826000
2000
que falava sobre tomar a posição intencional.
14:03
So it's a typetipo of that expandedexpandido to explainexplicar, I think, a lot of differentdiferente things:
355
828000
3000
Então é um tipo da extensão disso que explica, creio, muitas coisas diferentes,
14:06
soulsalmas, spiritsespíritos, ghostsfantasmas, godsde Deus, demonsdemônios, angelsanjos,
356
831000
3000
almas, espíritos, fantasmas, deuses, demónios, anjos,
14:09
aliensalienígenas, intelligentinteligente designersdesigners,
357
834000
2000
extraterrestres, designers inteligentes,
14:11
governmentgoverno conspiracistsConspiracionistas
358
836000
2000
conspiradores governamentais,
14:13
and all mannermaneira of invisibleinvisível agentsagentes
359
838000
2000
e todas as formas de agentes invisíveis
14:15
with powerpoder and intentionintenção, are believedacreditava
360
840000
2000
com poder e intencionalidade,
14:17
to hauntassombrar our worldmundo and controlao controle our livesvidas.
361
842000
2000
para assombrar o nosso mundo e controlar as nossas vidas.
14:19
I think it's the basisbase of animismanimismo
362
844000
2000
Penso que seja a base do animismo,
14:21
and polytheismpoliteísmo and monotheismmonoteísmo.
363
846000
3000
do politeísmo e do monoteísmo.
14:24
It's the beliefcrença that aliensalienígenas are somehowde alguma forma
364
849000
2000
É a crença que os extraterrestres são, de alguma forma,
14:26
more advancedavançado than us, more moralmoral than us,
365
851000
2000
mais avançados que nós, mais morais que nós,
14:28
and the narrativesnarrativas always are
366
853000
2000
e as narrativas são sempre
14:30
that they're comingchegando here to saveSalve  us and rescueresgatar us from on highAlto.
367
855000
3000
que eles cá vêm para nos salvar e resgatar-nos a partir do céu.
14:33
The intelligentinteligente designer'sdesigner always portrayedretratado
368
858000
2000
Os designers inteligentes são sempre vistos
14:35
as this supersuper intelligentinteligente, moralmoral beingser
369
860000
3000
como uns seres superinteligentes e morais
14:38
that comesvem down to designdesenhar life.
370
863000
2000
cujo resultado é o desenho da vida.
14:40
Even the ideaidéia that governmentgoverno can rescueresgatar us --
371
865000
2000
Até a ideia que o governo nos pode salvar.
14:42
that's no longermais longo the waveonda of the futurefuturo,
372
867000
2000
Esta deixou de ser a onda futurista.
14:44
but that is, I think, a typetipo of agenticityagenticity:
373
869000
2000
Mas isto é, penso, um tipo de agenticidade,
14:46
projectingprojetando somebodyalguém up there,
374
871000
2000
a projeção de alguém lá em cima,
14:48
biggrande and powerfulpoderoso, will come rescueresgatar us.
375
873000
2000
grande e poderoso, que nos virá salvar.
14:50
And this is alsoAlém disso, I think, the basisbase of conspiracyconspiração theoriesteorias.
376
875000
2000
Esta é também, creio, a base das teorias da conspiração.
14:52
There's somebodyalguém hidingse escondendo behindatrás there pullingpuxar the stringscordas,
377
877000
3000
Há lá alguém escondido nas traseiras, a manipular os fios,
14:55
whetherse it's the IlluminatiIlluminati
378
880000
2000
quer sejam os Illuminati
14:57
or the BilderbergersBilderbergers.
379
882000
2000
ou os Bilderbergers.
14:59
But this is a patternpadronizar detectiondetecção problemproblema, isn't it?
380
884000
2000
Mas este é um problema de deteção de padrões, não é?
15:01
Some patternspadrões are realreal and some are not.
381
886000
2000
Alguns padrões são reais, e outros não o são.
15:03
Was JFKJFK assassinatedassassinado by a conspiracyconspiração or by a lonesolitário assassinAssassin?
382
888000
3000
O J.F. Kennedy foi assassinado por causa de uma conspiração, ou por um assassino solitário?
15:06
Well, if you go there -- there's people there on any givendado day --
383
891000
3000
Bom, se vão por aí - há pessoas aí todos os dias -
15:09
like when I wentfoi there, here -- showingmostrando me where the differentdiferente shootersatiradores were.
384
894000
3000
como quando lá fui, aqui está - a mostrarem-me onde os vários atiradores estavam.
15:12
My favoritefavorito one was he was in the manholepoço de inspeção.
385
897000
3000
O meu preferido foi quando ele estava no esgoto.
15:15
And he poppedsurgiu out at the last secondsegundo, tooktomou that shottiro.
386
900000
3000
E saltou num ápice para fora dele no momento exato e deu aquele tiro.
15:18
But of coursecurso, LincolnLincoln was assassinatedassassinado by a conspiracyconspiração.
387
903000
2000
Mas claro, o Lincoln foi assassinado por uma conspiração.
15:20
So we can't just uniformlyuniformemente dismissdemitir
388
905000
2000
Então não podemos simplesmente não ter em conta
15:22
all patternspadrões like that.
389
907000
2000
todos os padrões desse género.
15:24
Because, let's facecara it, some patternspadrões are realreal.
390
909000
2000
Porque, convenhamos, alguns padrões são reais.
15:26
Some conspiraciesconspirações really are trueverdade.
391
911000
2000
Algumas conspirações têm mesmo razão de ser.
15:30
ExplainsExplica a lot, maybe.
392
915000
2000
Isto talvez explique muita coisa
15:32
And 9/11 has a conspiracyconspiração theoryteoria. It is a conspiracyconspiração.
393
917000
3000
E o 11 de setembro foi uma teoria da conspiração. É uma conspiração.
15:35
We did a wholetodo issuequestão on it.
394
920000
2000
Fizémos disso um grande ponto de debate.
15:37
NineteenDezenove membersmembros of AlAl QuedaQaeda plottingplotagem to flymosca planesaviões into buildingsedifícios
395
922000
2000
19 membros da Al Queda, a arquitetar maneiras de fazerem embater aviões em edifícios,
15:39
constitutesconstitui a conspiracyconspiração.
396
924000
2000
é parte de uma conspiração.
15:41
But that's not what the "9/11 truthersTruthers" think.
397
926000
2000
Mas não é isso que os membros do movimento "9/11 Truth" pensam.
15:43
They think it was an insidedentro jobtrabalho by the BushBush administrationadministração.
398
928000
3000
Eles acham que foi tudo planeado pela administração de Bush.
15:46
Well, that's a wholetodo other lecturepalestra.
399
931000
2000
Bom, isso daria para uma nova palestra.
15:48
You know how we know that 9/11
400
933000
2000
Mas fazem ideia de como sabemos que o 11 de setembro
15:50
was not orchestratedorquestrada by the BushBush administrationadministração?
401
935000
2000
não foi orquestrado pela administração de Bush?
15:52
Because it workedtrabalhou.
402
937000
2000
Porque deu resultado.
15:54
(LaughterRiso)
403
939000
3000
(Risos)
15:57
(ApplauseAplausos)
404
942000
3000
(Aplausos)
16:00
So we are natural-bornNATO dualistsdualistas.
405
945000
2000
Então somos dualistas inatos.
16:02
Our agenticityagenticity processprocesso comesvem from
406
947000
2000
O nosso processo de agenticidade provém
16:04
the factfacto that we can enjoyapreciar moviesfilmes like these.
407
949000
2000
do facto de podermos apreciar esses filmes.
16:06
Because we can imagineImagine, in essenceessência,
408
951000
2000
Porque podemos imaginar, na sua essência,
16:08
continuingcontinuando on.
409
953000
2000
que continuarmos.
16:10
We know that if you stimulateestimular o the temporaltemporal lobelobo,
410
955000
2000
Sabemos que, se estimularem o lobo temporal,
16:12
you can produceproduzir a feelingsentindo-me of out-of-bodyfora do corpo experiencesexperiências,
411
957000
2000
podem sentir algo como experiências extra-corporais,
16:14
near-deathquase-morte experiencesexperiências,
412
959000
2000
experiências de quase-morte,
16:16
whichqual you can do by just touchingtocando an electrodeeletrodo to the temporaltemporal lobelobo there.
413
961000
3000
e podem obtê-las apenas pelo toque de um elétrodo no lobo temporal, ali,
16:19
Or you can do it throughatravés lossperda of consciousnessconsciência,
414
964000
2000
ou por perda de consciência,
16:21
by acceleratingacelerando in a centrifugecentrífuga.
415
966000
2000
ao acelerar-se numa centrifugadora.
16:23
You get a hypoxiahipoxia, or a lowermais baixo oxygenoxigênio.
416
968000
3000
Entram em hipóxia, ou um decréscimo em oxigénio.
16:26
And the braincérebro then sensessentidos
417
971000
2000
E depois o cérebro nota
16:28
that there's an out-of-bodyfora do corpo experienceexperiência.
418
973000
2000
que há uma experiência extra-corporal.
16:30
You can use -- whichqual I did, wentfoi out and did --
419
975000
2000
Podem usar - eu fi-lo, pus-me a caminho e fi-lo -
16:32
MichaelMichael Persinger'sDo Persinger God HelmetCapacete,
420
977000
2000
o Capacete Dourado de Michael Persinger,
16:34
that bombardsbombardeia your temporaltemporal lobeslóbulos with electromagneticeletromagnética wavesondas.
421
979000
2000
que bombardeia os vossos lobos temporais com ondas eletromagnéticas.
16:36
And you get a sensesentido of out-of-bodyfora do corpo experienceexperiência.
422
981000
3000
E têm uma sensação de experiência extra-corporal.
16:39
So I'm going to endfim here with a shortcurto videovídeo clipgrampo
423
984000
2000
Acabarei aqui com um pequeno videoclip
16:41
that sortordenar of bringstraz all this togetherjuntos.
424
986000
2000
que como que explana tudo isto em conjunto.
16:43
It's just a minuteminuto and a halfmetade.
425
988000
2000
Tem a duração de apenas um minuto e meio.
16:45
It tieslaços togetherjuntos all this into the powerpoder of expectationexpectativa and the powerpoder of beliefcrença.
426
990000
3000
Liga tudo isto ao poder da expectativa e ao poder da crença.
16:48
Go aheadadiante and rolllista it.
427
993000
2000
Vamos lá vê-lo.
16:50
NarratorNarrador: This is the venuelocal de encontro they choseescolheu for theirdeles fakefalso auditionsaudições
428
995000
3000
Narrador: Este é o espaço que eles escolhem para as suas audições fraudulentas.
16:53
for an advertanúncio for liplábio balmbálsamo.
429
998000
2000
para um anúncio a um batom.
16:55
WomanMulher: We're hopingna esperança we can use partparte of this
430
1000000
2000
Mulher: Esperamos conseguir usar parte disto
16:57
in a nationalnacional commercialcomercial, right?
431
1002000
2000
numa publicidade nacional, certo.
16:59
And this is testteste on some liplábio balmsbálsamos
432
1004000
2000
E está a ser testado em alguns batons
17:01
that we have over here.
433
1006000
2000
que aqui temos.
17:03
And these are our modelsmodelos who are going to help us,
434
1008000
2000
E estes são os modelos que nos vão ajudar,
17:05
RogerRoger and MattMatt.
435
1010000
2000
Roger e Matt.
17:07
And we have our ownpróprio liplábio balmbálsamo,
436
1012000
2000
Temos o nosso próprio batom,
17:09
and we have a leadingconduzindo brandmarca.
437
1014000
2000
e temos uma marca líder.
17:11
Would you have any problemproblema
438
1016000
2000
Veriam algum problema
17:13
kissingse beijando our modelsmodelos to testteste it?
439
1018000
2000
em beijar os nossos modelos, para o testar?
17:15
GirlMenina: No.
440
1020000
2000
Rapariga: Não.
17:17
WomanMulher: You wouldn'tnão seria? (GirlMenina: No.) WomanMulher: You'dVocê faria think that was fine.
441
1022000
2000
Mulher: Não veria? (Rapariga: Não) Mulher: achá-lo-ias muito bem.
17:19
GirlMenina: That would be fine. (WomanMulher: Okay.)
442
1024000
2000
Rapariga: Não me importaria. (Mulher: Está bem.)
17:21
So this is a blindcego testteste.
443
1026000
3000
Então isto é um teste cego.
17:24
I'm going to askpergunte you to go aheadadiante
444
1029000
2000
Vou pedir-vos que
17:26
and put a blindfoldvenda on.
445
1031000
2000
coloquem uma venda nos olhos.
17:29
KayKay, now can you see anything? (GirlMenina: No.)
446
1034000
3000
Muito bem; agora, conseguem ver alguma coisa? (Rapariga: Não.)
17:32
PullPuxe it so you can't even see down. (GirlMenina: Okay.)
447
1037000
2000
Coloquem-na de maneira que nem consigam ver para baixo. (Rapariga: Está bem.)
17:34
WomanMulher: It's completelycompletamente blindcego now, right?
448
1039000
2000
Mulher: Está completamente cega agora, certo?
17:36
GirlMenina: Yes. (WomanMulher: Okay.)
449
1041000
2000
Rapariga: Sim. (Mulher: Muito bem.)
17:38
Now, what I'm going to be looking for in this testteste
450
1043000
3000
Agora, aquilo que me interessa encontrar neste teste
17:41
is how it protectsprotege your lipslábios,
451
1046000
3000
é a maneira como protege os seus lábios,
17:44
the texturetextura, right,
452
1049000
2000
a textura, certo,
17:46
and maybe if you can discerndiscernir any flavorsabor or not.
453
1051000
3000
e talvez se consegue distinguir sabores ou não.
17:49
GirlMenina: Okay. (WomanMulher: Have you ever donefeito a kissingse beijando testteste before?)
454
1054000
3000
Rapariga: Está bem. (Mulher: Alguma vez fez o teste do beijo, anteriormente?
17:52
GirlMenina: No.
455
1057000
2000
Rapariga: Não.
17:54
WomanMulher: Take a stepdegrau here.
456
1059000
2000
Mulher: Venha para aqui.
17:56
Okay, now I'm going to askpergunte you to puckerFranza up.
457
1061000
2000
Muito bem, agora quero que faça caretas.
17:58
PuckerFranza up biggrande and leaninclinar-se in just a little bitpouco, okay?
458
1063000
3000
Faça caretas e incline-se um pouco, sim.
18:06
(MusicMúsica)
459
1071000
4000
(Música)
18:10
(LaughterRiso)
460
1075000
5000
(Risos)
18:19
(LaughterRiso)
461
1084000
3000
(Risos)
18:30
WomanMulher: Okay.
462
1095000
2000
Muito bem.
18:32
And, JenniferJennifer, how did that feel?
463
1097000
2000
Como te sentiste, Jennifer?
18:34
JenniferJennifer: Good.
464
1099000
2000
Jennifer: Bem.
18:36
(LaughterRiso)
465
1101000
7000
(Risos)
18:43
GirlMenina: Oh my God!
466
1108000
2000
Rapariga: Oh, meu Deus!
18:45
(LaughterRiso)
467
1110000
4000
(Risos)
18:50
MichaelMichael ShermerShermer: Thank you very much. Thank you. ThanksObrigado.
468
1115000
3000
Michael Shermer: Muitíssimo obrigado. Obrigado a todos. Obrigado.
Translated by Mafalda Dias
Reviewed by Wanderley Jesus

▲Back to top

ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com