ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com
TED2010

Michael Shermer: The pattern behind self-deception

Michael Shermer: El patrón detrás del auto-engaño.

Filmed:
2,854,890 views

Michael Shermer explica que la tendencia humana de creer en cosas extrañas (desde abducciones de extraterrestres hasta varillas radiestésicas) se resume en dos de las capacidades de supervivencia más básicas del cerebro. Explica cuáles son y cómo nos meten en problemas.
- Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market. Full bio

Double-click the English transcript below to play the video.

00:16
So sinceya que I was here last in '06,
0
1000
3000
Desde que estuve aquí en 2006
00:19
we discovereddescubierto that globalglobal climateclima changecambio
1
4000
2000
descubrimos que el cambio climático global
00:21
is turningtorneado out to be a prettybonita seriousgrave issueproblema,
2
6000
2000
se estaba transformando en algo serio.
00:23
so we coveredcubierto that fairlybastante extensivelyextensamente
3
8000
2000
Por eso lo cubrimos ampliamente
00:25
in SkepticEscéptico magazinerevista.
4
10000
2000
en la revista Skeptic.
00:27
We investigateinvestigar all kindsclases
5
12000
2000
Investigamos todos los tipos
00:29
of scientificcientífico and quasi-scientificcuasi científico controversiescontroversias,
6
14000
3000
de controversias científicas y semi científicas.
00:32
but it turnsvueltas out we don't have to worrypreocupación about any of this
7
17000
2000
Pero resulta que no debemos preocuparnos por nada de esto
00:34
because the world'smundo going to endfin in 2012.
8
19000
2000
porque el mundo se acabará en 2012.
00:36
AnotherOtro updateactualizar:
9
21000
2000
Otra noticia es que
00:38
You will recallrecordar I introducedintroducido you guys
10
23000
2000
recordarán que les presenté
00:40
to the QuadroQuadro TrackerRastreador.
11
25000
2000
el Quadro Tracker.
00:42
It's like a wateragua dowsingradiestesia devicedispositivo.
12
27000
2000
Es como un dispositivo que echa agua
00:44
It's just a hollowhueco piecepieza of plasticel plastico with an antennaantena that swivelsgiratorios around.
13
29000
3000
pero es sólo un pedazo de plástico hueco con una antena que gira,
00:47
And you walkcaminar around, and it pointspuntos to things.
14
32000
2000
y caminas y le apuntas a las cosas.
00:49
Like if you're looking for marijuanamarijuana in students'estudiantes lockerscasilleros,
15
34000
3000
Como si estuvieras buscando marihuana en el armario de un estudiante,
00:52
it'llva a pointpunto right to somebodyalguien.
16
37000
2000
y lo apuntas hacia alguien.
00:54
Oh, sorry. (LaughterRisa)
17
39000
2000
Disculpe. (Risas)
00:56
This particularespecial one that was givendado to me
18
41000
2000
Este dispositivo en particular
00:58
findsencuentra golfgolf ballsbolas,
19
43000
2000
es para encontrar pelotas de golf,
01:00
especiallyespecialmente if you're at a golfgolf coursecurso
20
45000
2000
especialmente si estás en un campo de golf
01:02
and you checkcomprobar underdebajo enoughsuficiente bushesarbustos.
21
47000
3000
y buscas debajo de los arbustos.
01:05
Well, underdebajo the categorycategoría of "What's the harmdaño of sillytonto stuffcosas like this?"
22
50000
3000
Bien, bajo la categoría "¿Qué daño causa una cosa tonta como esta?"
01:08
this devicedispositivo, the ADEADE 651,
23
53000
3000
el dispositivo, el ADE 651,
01:11
was soldvendido to the Iraqiiraquí governmentgobierno
24
56000
3000
fue vendido al gobierno iraquí
01:14
for 40,000 dollarsdólares apieceuna pieza.
25
59000
2000
por 40 mil dólares cada uno.
01:16
It's just like this one, completelycompletamente worthlesssin valor,
26
61000
2000
Es igual que este, no tiene ningún valor,
01:18
in whichcual it allegedlypretendidamente workedtrabajó by "electrostaticelectrostático
27
63000
2000
y supuestamente funciona por "atracción
01:20
magneticmagnético ionion attractionatracción,"
28
65000
3000
iónica magnética electrostática",
01:24
whichcual translatestraduce to
29
69000
2000
que se traduce como
01:26
"pseudoscientificpseudocientífico baloneycamelo" -- would be the nicebonito wordpalabra --
30
71000
3000
"bobada pseudocientífica", sería una palabra amable;
01:29
in whichcual you stringcuerda togetherjuntos a bunchmanojo of wordspalabras that soundsonar good,
31
74000
2000
donde unes varias palabras que suenan bien
01:31
but it does absolutelyabsolutamente nothing.
32
76000
2000
pero no sirve para nada.
01:33
In this casecaso, at trespasspecado pointspuntos,
33
78000
3000
En este caso, si en los puntos de frontera
01:36
allowingpermitir people to go throughmediante
34
81000
2000
se permite que la gente pase
01:38
because your little trackerrastreador devicedispositivo said they were okay,
35
83000
3000
porque el rastreador dice que está bien
01:41
actuallyactualmente costcosto livesvive.
36
86000
3000
en verdad cuesta vidas.
01:44
So there is a dangerpeligro to pseudosciencepseudociencia,
37
89000
2000
Entonces hay peligro en la pesudociencia,
01:46
in believingcreyendo in this sortordenar of thing.
38
91000
3000
en creer en este tipo de cosas.
01:49
So what I want to talk about todayhoy is beliefcreencia.
39
94000
3000
Por eso hoy quiero hablar de la creencia.
01:52
I want to believe,
40
97000
2000
Quiero creer,
01:54
and you do too.
41
99000
2000
y tú también.
01:56
And in facthecho, I think my thesistesis here is that
42
101000
2000
Y de hecho creo que mi tesis es que
01:58
beliefcreencia is the naturalnatural stateestado of things.
43
103000
2000
la creencia es parte natural de las cosas.
02:00
It is the defaultdefecto optionopción. We just believe.
44
105000
2000
Es la opción por defecto. Simplemente creemos.
02:02
We believe all sortstipo of things.
45
107000
2000
Creemos en todo tipo de cosas.
02:04
BeliefCreencia is naturalnatural;
46
109000
2000
La creencia es natural.
02:06
disbeliefincredulidad, skepticismescepticismo, scienceciencia, is not naturalnatural.
47
111000
2000
La incredulidad, el escepticismo y la ciencia no son naturales.
02:08
It's more difficultdifícil.
48
113000
2000
Es más difícil.
02:10
It's uncomfortableincómodo to not believe things.
49
115000
2000
Es incómodo no creer en cosas.
02:12
So like Foxzorro MulderMulder on "X-FilesArchivos X,"
50
117000
3000
Como Fox Mulder en "Expediente X"
02:15
who wants to believe in UFOsOvnis? Well, we all do,
51
120000
3000
¿quién quiere creen en los OVNIs? Todos queremos.
02:18
and the reasonrazón for that is because
52
123000
2000
Y el motivo es porque
02:20
we have a beliefcreencia enginemotor in our brainssesos.
53
125000
3000
tenemos un motor de creencia en nuestros cerebros.
02:23
EssentiallyEsencialmente, we are pattern-seekingbúsqueda de patrones primatesprimates.
54
128000
3000
Básicamente somos primates buscadores de patrones.
02:26
We connectconectar the dotspuntos: A is connectedconectado to B; B is connectedconectado to C.
55
131000
3000
Conectamos los puntos: A se conecta con B, B se conecta con C.
02:29
And sometimesa veces A really is connectedconectado to B,
56
134000
3000
Y a veces A sí se conecta con B.
02:32
and that's calledllamado associationasociación learningaprendizaje.
57
137000
2000
Eso se llama aprendizaje por asociación.
02:34
We find patternspatrones, we make those connectionsconexiones,
58
139000
3000
Encontramos patrones y hacemos esas conexiones,
02:37
whethersi it's Pavlov'sPavlov dogperro here
59
142000
2000
ya se trate del perro de Pavlov
02:39
associatingasociando the soundsonar of the bellcampana with the foodcomida,
60
144000
3000
que asocia el sonido de la campana con la comida
02:42
and then he salivatessaliva to the soundsonar of the bellcampana,
61
147000
2000
y luego saliva con el sonido de la campana;
02:44
or whethersi it's a SkinnerianSkinnerian ratrata,
62
149000
2000
o que se trate de la rata de Skinner,
02:46
in whichcual he's havingteniendo an associationasociación
63
151000
2000
donde hace una asociación
02:48
betweenEntre his behaviorcomportamiento and a rewardrecompensa for it,
64
153000
2000
entre el comportamiento y la recompensa por ello
02:50
and thereforepor lo tanto he repeatsrepeticiones the behaviorcomportamiento.
65
155000
2000
y por lo tanto repite el comportamiento.
02:52
In facthecho, what SkinnerDesollador discovereddescubierto
66
157000
2000
De hecho, lo que Skinner descubrió
02:54
is that, if you put a pigeonPaloma in a boxcaja like this,
67
159000
3000
es que si pones una paloma en una caja como esta,
02:57
and he has to pressprensa one of these two keysllaves,
68
162000
2000
y tiene que presionar una de estas teclas,
02:59
and he triesintentos to figurefigura out what the patternpatrón is,
69
164000
2000
e intentar descubrir el patrón,
03:01
and you give him a little rewardrecompensa in the hoppertolva boxcaja there --
70
166000
2000
y se le da una recompensa en la caja.
03:03
if you just randomlyal azar assignasignar rewardsrecompensas
71
168000
3000
Si se asignan recompensas al azar
03:06
suchtal that there is no patternpatrón,
72
171000
2000
para que no haya un patrón,
03:08
they will figurefigura out any kindtipo of patternpatrón.
73
173000
2000
encontrará cualquier tipo de patrón.
03:10
And whateverlo que sea they were doing just before they got the rewardrecompensa,
74
175000
2000
Y lo que sea que hacía antes de la recompensa,
03:12
they repeatrepetir that particularespecial patternpatrón.
75
177000
2000
lo repetirá.
03:14
SometimesA veces it was even spinninghilado around twicedos veces counterclockwisesinistrórsum,
76
179000
3000
A veces era dar dos vueltas en sentido antihorario,
03:17
onceuna vez clockwiseagujas del reloj and peckpicotear the keyllave twicedos veces.
77
182000
3000
una vez en sentido horario y presionar la tecla dos veces.
03:20
And that's calledllamado superstitionsuperstición,
78
185000
2000
Y eso se llama superstición.
03:22
and that, I'm afraidasustado,
79
187000
2000
Y me temo que eso
03:24
we will always have with us.
80
189000
2000
siempre lo tendremos entre nosotros.
03:26
I call this processproceso "patternicitypatrón" --
81
191000
2000
A este proceso lo llamo "patronicidad",
03:28
that is, the tendencytendencia to find meaningfulsignificativo patternspatrones
82
193000
2000
es decir, es la tendencia a encontrar patrones significativos
03:30
in bothambos meaningfulsignificativo and meaninglesssin sentido noiseruido.
83
195000
3000
en ruido con y sin significado.
03:33
When we do this processproceso, we make two typestipos of errorserrores.
84
198000
3000
Cuando realizamos este proceso cometemos dos tipos de errores.
03:36
A TypeTipo I errorerror, or falsefalso positivepositivo,
85
201000
2000
El error de tipo 1 o falso positivo,
03:38
is believingcreyendo a patternpatrón is realreal
86
203000
2000
que es creer que un patrón es real
03:40
when it's not.
87
205000
2000
cuando no lo es.
03:42
Our secondsegundo typetipo of errorerror is a falsefalso negativenegativo.
88
207000
2000
Y el segundo tipo de error es el falso negativo.
03:44
A TypeTipo IIII errorerror is not believingcreyendo
89
209000
2000
El error de tipo 2 es no creer
03:46
a patternpatrón is realreal when it is.
90
211000
3000
en un patrón cuando es real.
03:49
So let's do a thought experimentexperimentar.
91
214000
2000
Hagamos un experimento de reflexión.
03:51
You are a hominidhomínido threeTres millionmillón yearsaños agohace
92
216000
2000
Supón que eres un homínido hace 3 millones de años
03:53
walkingpara caminar on the plainsllanuras of AfricaÁfrica.
93
218000
3000
que camina por las llanuras de África.
03:56
Your namenombre is LucyLucy, okay?
94
221000
2000
Tu nombre es Lucy, ¿bien?
03:58
And you hearoír a rustlecrujido in the grasscésped.
95
223000
2000
Oyes un crujido en la hierba.
04:00
Is it a dangerouspeligroso predatordepredador,
96
225000
2000
¿Se trata de un depredador peligroso
04:02
or is it just the windviento?
97
227000
2000
o es sólo el viento?
04:04
Your nextsiguiente decisiondecisión could be the mostmás importantimportante one of your life.
98
229000
3000
Tu próxima decisión podría ser la más importante de tu vida.
04:07
Well, if you think that the rustlecrujido in the grasscésped is a dangerouspeligroso predatordepredador
99
232000
3000
Si piensas que el crujido en la hierba es un depredador peligroso
04:10
and it turnsvueltas out it's just the windviento,
100
235000
2000
pero resulta ser el viento,
04:12
you've madehecho an errorerror in cognitioncognición,
101
237000
2000
has cometido un error de cognición,
04:14
madehecho a TypeTipo I errorerror, falsefalso positivepositivo.
102
239000
2000
un error de tipo 1, un falso positivo.
04:16
But no harmdaño. You just movemovimiento away.
103
241000
2000
Pero no sucede nada, simplemente te alejas.
04:18
You're more cautiouscauteloso. You're more vigilantvigilante.
104
243000
2000
Estás más cauteloso, más alerta.
04:20
On the other handmano, if you believe that the rustlecrujido in the grasscésped is just the windviento,
105
245000
2000
Por otro lado, si crees que el crujido en la hierba es el viento,
04:22
and it turnsvueltas out it's a dangerouspeligroso predatordepredador,
106
247000
3000
pero se trata de un depredador peligroso,
04:25
you're lunchalmuerzo.
107
250000
2000
eres el almuerzo.
04:27
You've just wonwon a DarwinDarwin awardpremio.
108
252000
2000
Te acabas de ganar un premio Darwin.
04:29
You've been takentomado out of the genegene poolpiscina.
109
254000
2000
Te han sacado del acervo genético.
04:31
Now the problemproblema here is that
110
256000
2000
El problema aquí es que
04:33
patternicitiespatrones will occurocurrir whenevercuando the costcosto
111
258000
2000
la patronicidad ocurre cuando el costo
04:35
of makingfabricación a TypeTipo I errorerror
112
260000
2000
de cometer un error de tipo 1
04:37
is lessMenos than the costcosto of makingfabricación a TypeTipo IIII errorerror.
113
262000
2000
es menor que el costo de cometer un error de tipo 2.
04:39
This is the only equationecuación in the talk by the way.
114
264000
2000
Es la única ecuación de la charla.
04:41
We have a patternpatrón detectiondetección problemproblema
115
266000
2000
Tenemos un problema para detectar el patrón
04:43
that is assessingevaluando the differencediferencia betweenEntre a TypeTipo I and a TypeTipo IIII errorerror
116
268000
3000
y es que evaluar la diferencia entre un error de tipo 1 y de tipo 2
04:46
is highlyaltamente problematicproblemático,
117
271000
2000
es en verdad problemático.
04:48
especiallyespecialmente in split-secondfracción de segundo, life-and-deathvida y muerte situationssituaciones.
118
273000
3000
En especial en situaciones de vida o muerte y en una fracción de segundo.
04:51
So the defaultdefecto positionposición
119
276000
2000
Por eso la postura por defecto
04:53
is just: Believe all patternspatrones are realreal --
120
278000
2000
es "creer que todos los patrones son reales".
04:55
All rustlescrujidos in the grasscésped are dangerouspeligroso predatorsdepredadores
121
280000
3000
"Todos los crujidos en la hierba son depredadores peligrosos
04:58
and not just the windviento.
122
283000
2000
y no sólo el viento".
05:00
And so I think that we evolvedevolucionado ...
123
285000
2000
Por eso pienso que evolucionamos...
05:02
there was a naturalnatural selectionselección for the propensitypropensión for our beliefcreencia enginesmotores,
124
287000
3000
había una selección natural para la tendencia de nuestros motores de creencia,
05:05
our pattern-seekingbúsqueda de patrones braincerebro processesprocesos,
125
290000
2000
nuestros procesos cerebrales buscadores de patrones,
05:07
to always find meaningfulsignificativo patternspatrones
126
292000
2000
de encontrar siempre patrones significativos
05:09
and infuseinfundir them with these sortordenar of
127
294000
2000
e infundirlos con esta especie de
05:11
predatorydepredador or intentionalintencional agenciesagencias that I'll come back to.
128
296000
3000
agentes depredadores o intencionales de los que hablaré luego.
05:14
So for exampleejemplo, what do you see here?
129
299000
2000
Por eso, por ejemplo, ¿qué ven aquí?
05:16
It's a horsecaballo headcabeza, that's right.
130
301000
2000
Es la cabeza de un caballo, correcto.
05:18
It looksmiradas like a horsecaballo. It mustdebe be a horsecaballo.
131
303000
2000
Si parece un caballo debe ser un caballo.
05:20
That's a patternpatrón.
132
305000
2000
Ese es el patrón.
05:22
And is it really a horsecaballo?
133
307000
2000
Pero, ¿es en verdad un caballo?
05:24
Or is it more like a frograna?
134
309000
3000
¿O se parece más a una rana?
05:27
See, our patternpatrón detectiondetección devicedispositivo,
135
312000
2000
¿Lo ven? Nuestro dispositivo de detección de patrones,
05:29
whichcual appearsaparece to be locatedsituado in the anterioranterior cingulatecíngulo cortexcorteza --
136
314000
3000
que al parecer se encuentra en la corteza cingular anterior
05:32
it's our little detectiondetección devicedispositivo there --
137
317000
3000
(allí está nuestro dispositivo de detección)
05:35
can be easilyfácilmente fooledengañado, and this is the problemproblema.
138
320000
2000
puede ser engañado fácilmente, y eso es un problema.
05:37
For exampleejemplo, what do you see here?
139
322000
2000
Por ejemplo, ¿qué ven aquí?
05:39
Yes, of coursecurso, it's a cowvaca.
140
324000
3000
Por supuesto, es una vaca.
05:42
OnceUna vez I primeprincipal the braincerebro -- it's calledllamado cognitivecognitivo primingcebado --
141
327000
3000
Si predispongo el cerebro -- predisposición cognitiva --
05:45
onceuna vez I primeprincipal the braincerebro to see it,
142
330000
2000
si predispongo el cerebro a ver algo,
05:47
it popsestalla back out again even withoutsin the patternpatrón that I've imposedimpuesto on it.
143
332000
3000
aparece nuevamente incluso sin el patrón que le impuse.
05:50
And what do you see here?
144
335000
2000
Y ¿qué ven aquí?
05:52
Some people see a Dalmatiandálmata dogperro.
145
337000
2000
Algunos ve un perro dálmata.
05:54
Yes, there it is. And there's the primeprincipal.
146
339000
2000
Y allí está. Esa es la predisposición.
05:56
So when I go back withoutsin the primeprincipal,
147
341000
2000
Por eso cuando quito la predisposición,
05:58
your braincerebro alreadyya has the modelmodelo
148
343000
2000
el cerebro ya tiene el modelo
06:00
so you can see it again.
149
345000
2000
para que puedan verlo nuevamente.
06:02
What do you see here?
150
347000
3000
¿Qué ven aquí?
06:05
PlanetPlaneta SaturnSaturno. Yes, that's good.
151
350000
2000
El planeta Saturno. Bien.
06:07
How about here?
152
352000
3000
¿Y aquí?
06:10
Just shoutgritar out anything you see.
153
355000
3000
Sólo digan cualquier cosa que vean.
06:14
That's a good audienceaudiencia, ChrisChris.
154
359000
2000
Qué buen público, Chris.
06:16
Because there's nothing in this. Well, allegedlypretendidamente there's nothing.
155
361000
3000
Porque no hay nada aquí. Supuestamente no hay nada.
06:19
This is an experimentexperimentar donehecho by JenniferJennifer WhitsonWhitson
156
364000
3000
Este es un experimento de Jennifer Whitson
06:22
at U.T. AustinAustin
157
367000
2000
en la Universidad de Texas, Austin
06:24
on corporatecorporativo environmentsambientes
158
369000
2000
sobre ambientes corporativos
06:26
and whethersi feelingssentimientos of uncertaintyincertidumbre and out of controlcontrolar
159
371000
3000
sobre si los sentimientos de incertidumbre y falta de control
06:29
makeshace people see illusoryilusorio patternspatrones.
160
374000
2000
causan que la gente vea patrones ilusorios.
06:31
That is, almostcasi everybodytodos seesve the planetplaneta SaturnSaturno.
161
376000
3000
Es decir, la mayoría ve el planeta Saturno.
06:34
People that are put in a conditioncondición of feelingsensación out of controlcontrolar
162
379000
3000
pero cuando las personas se sienten sin control
06:37
are more likelyprobable to see something in this,
163
382000
2000
es más probable que vean algo aquí,
06:39
whichcual is allegedlypretendidamente patternlesssin patrón.
164
384000
3000
una figura supuestamente si patrón.
06:42
In other wordspalabras, the propensitypropensión to find these patternspatrones
165
387000
3000
En otras palabras, la tendencia a ver estos patrones
06:45
goesva up when there's a lackausencia of controlcontrolar.
166
390000
3000
aumenta cuando no hay control.
06:48
For exampleejemplo, baseballbéisbol playersjugadores are notoriouslynotoriamente superstitioussupersticioso
167
393000
3000
Por ejemplo, los jugadores de béisbol son muy supersticiosos
06:51
when they're battingguata,
168
396000
2000
cuando batean,
06:53
but not so much when they're fieldingalineación.
169
398000
2000
pero no tanto cuando están en el campo.
06:55
Because fieldersfielders are successfulexitoso
170
400000
2000
Porque los jugadores de campo tienen éxito
06:57
90 to 95 percentpor ciento of the time.
171
402000
2000
del 90 al 95 por ciento de las veces.
06:59
The bestmejor battersbateadores failfallar sevensiete out of 10 timesveces.
172
404000
3000
Y los mejores bateadores fallan 7 de 10 veces.
07:02
So theirsu superstitionssupersticiones, theirsu patternicitiespatrones,
173
407000
2000
Por eso su superstición, su patronicidad,
07:04
are all associatedasociado with feelingssentimientos of lackausencia of controlcontrolar
174
409000
3000
está asociada con los sentimientos de falta de control
07:07
and so forthadelante.
175
412000
2000
y así, sucesivamente.
07:10
What do you see in this particularespecial one here, in this fieldcampo?
176
415000
3000
¿Qué ven en esta imagen, en este campo?
07:13
AnybodyNadie see an objectobjeto there?
177
418000
2000
¿Alguien ve algún objeto aquí?
07:15
There actuallyactualmente is something here,
178
420000
2000
De hecho sí hay algo,
07:17
but it's degradeddegradado.
179
422000
2000
pero está degradado.
07:19
While you're thinkingpensando about that,
180
424000
2000
Mientras piensan en eso,
07:21
this was an experimentexperimentar donehecho by SusanSusana BlackmoreBlackmore,
181
426000
2000
este es un experimento de Susan Blackmore,
07:23
a psychologistpsicólogo in EnglandInglaterra,
182
428000
2000
una psicóloga de Inglaterra,
07:25
who showedmostró subjectsasignaturas this degradeddegradado imageimagen
183
430000
2000
que le mostró esta imagen a algunas personas
07:27
and then rancorrió a correlationcorrelación betweenEntre
184
432000
2000
y luego dedujo una correlación entre
07:29
theirsu scorespuntuaciones on an ESPESP testprueba:
185
434000
2000
sus puntajes en una prueba de percepción extrasensorial,
07:31
How much did they believe in the paranormalparanormal,
186
436000
2000
cuánto creían en lo paranormal,
07:33
supernaturalsobrenatural, angelsángeles and so forthadelante.
187
438000
3000
lo sobrenatural, los ángeles y ese tipo de cosas.
07:36
And those who scoredanotado highalto on the ESPESP scaleescala,
188
441000
3000
Y aquellos con los puntajes más altos en la escala
07:39
tendedtendido to not only see
189
444000
2000
tendían no sólo a ver
07:41
more patternspatrones in the degradeddegradado imagesimágenes
190
446000
2000
más patrones en las imágenes degradadas,
07:43
but incorrectincorrecto patternspatrones.
191
448000
2000
sino patrones incorrectos.
07:45
Here is what you showespectáculo subjectsasignaturas.
192
450000
2000
Esto es lo que les mostró a las personas.
07:47
The fishpescado is degradeddegradado 20 percentpor ciento, 50 percentpor ciento
193
452000
3000
El pez degradado en un 20%, un 50%
07:50
and then the one I showedmostró you,
194
455000
2000
y luego el que les mostré,
07:52
70 percentpor ciento.
195
457000
2000
en un 70%.
07:54
A similarsimilar experimentexperimentar was donehecho by anotherotro [Swisssuizo] psychologistpsicólogo
196
459000
2000
Otro psicólogo suizo llamado Peter Brugger realizó
07:56
namedllamado PeterPeter BruggerBrugger,
197
461000
2000
un experimento similar.
07:58
who foundencontró significantlysignificativamente more meaningfulsignificativo patternspatrones
198
463000
3000
Él descubrió que el hemisferio derecho percibe
08:01
were perceivedpercibido on the right hemispherehemisferio,
199
466000
2000
patrones mucho más significativos,
08:03
viavía the left visualvisual fieldcampo, than the left hemispherehemisferio.
200
468000
3000
a través del campo visual izquierdo, que el hemisferio izquierdo.
08:06
So if you presentpresente subjectsasignaturas the imagesimágenes suchtal
201
471000
2000
Por eso si le muestran esta imagen a una persona, tal que
08:08
that it's going to endfin up on the right hemispherehemisferio insteaden lugar of the left,
202
473000
3000
acabe en el hemisferio derecho en lugar del izquierdo,
08:11
then they're more likelyprobable to see patternspatrones
203
476000
2000
es más probable que vea patrones
08:13
than if you put it on the left hemispherehemisferio.
204
478000
2000
que si lo ponen en el hemisferio izquierdo.
08:15
Our right hemispherehemisferio appearsaparece to be
205
480000
2000
Al parecer, es en el hemisferio derecho
08:17
where a lot of this patternicitypatrón occursocurre.
206
482000
2000
donde ocurre la mayoría de esta patronicidad.
08:19
So what we're tryingmolesto to do is boreaburrir into the braincerebro
207
484000
2000
Por eso, intentamos ver en qué parte del cerebro
08:21
to see where all this happenssucede.
208
486000
2000
ocurre todo esto.
08:23
BruggerBrugger and his colleaguecolega, ChristineChristine MohrMohr,
209
488000
3000
Brugger y su colega, Christine Mohr,
08:26
gavedio subjectsasignaturas L-DOPAL-DOPA.
210
491000
2000
le administraron L-dopa a un grupo de personas.
08:28
L-DOPA'sL-DOPA's a drugdroga, as you know, givendado for treatingtratar Parkinson'sParkinson diseaseenfermedad,
211
493000
3000
La L-Dopa es un fármaco para trata la enfermedad de Parkinson,
08:31
whichcual is relatedrelacionado to a decreasedisminución in dopaminedopamina.
212
496000
3000
que está relacionada con una disminución de la dopamina,
08:34
L-DOPAL-DOPA increasesaumenta dopaminedopamina.
213
499000
2000
La L-dopa aumenta la dopamina.
08:36
An increaseincrementar of dopaminedopamina causedcausado
214
501000
2000
Y el aumento de dopamina
08:38
subjectsasignaturas to see more patternspatrones
215
503000
2000
causa que las persona vean más patrones
08:40
than those that did not receiverecibir the dopaminedopamina.
216
505000
2000
que aquellas que no recibieron dopamina.
08:42
So dopaminedopamina appearsaparece to be the drugdroga
217
507000
2000
Parece que la dopamina es el fármaco
08:44
associatedasociado with patternicitypatrón.
218
509000
2000
asociado con la patronicidad.
08:46
In facthecho, neurolepticneuroléptico drugsdrogas
219
511000
2000
Se usan fármacos neurolépticos
08:48
that are used to eliminateeliminar psychoticpsicópata behaviorcomportamiento,
220
513000
2000
para eliminar el comportamiento psicótico,
08:50
things like paranoiaparanoia, delusionsilusiones
221
515000
2000
como la paranoia, el delirio
08:52
and hallucinationsalucinaciones,
222
517000
2000
y las alucinaciones,
08:54
these are patternicitiespatrones.
223
519000
2000
que son patronicidades.
08:56
They're incorrectincorrecto patternspatrones. They're falsefalso positivespositivos. They're TypeTipo I errorserrores.
224
521000
3000
Son patrones incorrectos. Falsos positivos. Errores de tipo1.
08:59
And if you give them drugsdrogas
225
524000
2000
Y si se administran fármacos
09:01
that are dopaminedopamina antagonistsantagonistas,
226
526000
2000
antagonistas de la dopamina,
09:03
they go away.
227
528000
2000
desaparecen.
09:05
That is, you decreasedisminución the amountcantidad of dopaminedopamina,
228
530000
2000
Es decir, si se disminuye la cantidad de dopamina,
09:07
and theirsu tendencytendencia to see
229
532000
2000
disminuye la tendencia a ver
09:09
patternspatrones like that decreasesdisminuye.
230
534000
2000
patrones de ese tipo.
09:11
On the other handmano, amphetaminesanfetaminas like cocainecocaína
231
536000
3000
Por otro lado, las anfetaminas, como la cocaína,
09:14
are dopaminedopamina agonistsagonistas.
232
539000
2000
son agonistas de la dopamina.
09:16
They increaseincrementar the amountcantidad of dopaminedopamina.
233
541000
2000
Aumenten la cantidad de dopamina.
09:18
So you're more likelyprobable to feel in a euphoriceufórico stateestado,
234
543000
3000
Por eso es más probable que se sientan eufóricos,
09:21
creativitycreatividad, find more patternspatrones.
235
546000
2000
creativos, que encuentren más patrones.
09:23
In facthecho, I saw RobinRobin WilliamsWilliams recentlyrecientemente
236
548000
2000
De hecho, hace poco vi a Robin Williams
09:25
talk about how he thought he was much funniermás divertido
237
550000
2000
hablando sobre cómo era más cómico
09:27
when he was doing cocainecocaína, when he had that issueproblema, than now.
238
552000
3000
cuando consumía cocaína, cuando tenía ese problema, que ahora.
09:30
So perhapsquizás more dopaminedopamina
239
555000
2000
Tal vez una mayor cantidad de dopamina
09:32
is relatedrelacionado to more creativitycreatividad.
240
557000
2000
esté relacionada con una mayor creatividad.
09:34
DopamineDopamina, I think, changescambios
241
559000
2000
Creo que la dopamina cambia
09:36
our signal-to-noiseseñal a ruido ratioproporción.
242
561000
2000
nuestra relación señal-ruido.
09:38
That is, how accuratepreciso we are
243
563000
2000
Es decir, cómo de certero somos
09:40
in findinghallazgo patternspatrones.
244
565000
2000
encontrando patrones.
09:42
If it's too lowbajo, you're more likelyprobable to make too manymuchos TypeTipo IIII errorserrores.
245
567000
3000
Si está muy baja, es probable que cometas más errores de tipo 2.
09:45
You missperder the realreal patternspatrones. You don't want to be too skepticalescéptico.
246
570000
2000
Te pierdes los patrones reales. Y no quieres ser demasiado escéptico.
09:47
If you're too skepticalescéptico, you'lltu vas a missperder the really interestinginteresante good ideasideas.
247
572000
3000
Si eres demasiado escéptico, te perderás las ideas interesantes.
09:51
Just right, you're creativecreativo, and yettodavía you don't fallotoño for too much baloneycamelo.
248
576000
3000
En la medida justa, eres creativo y no crees mucho en tonterías.
09:54
Too highalto and maybe you see patternspatrones everywhereen todos lados.
249
579000
3000
Si está muy alta tal vez veas patrones en todos lados.
09:57
EveryCada time somebodyalguien looksmiradas at you, you think people are staringcurioso at you.
250
582000
3000
Cada vez que alguien te mire pensarás que te está analizando.
10:00
You think people are talkinghablando about you.
251
585000
2000
Pensarás que la gente habla de ti.
10:02
And if you go too farlejos on that, that's just simplysimplemente
252
587000
2000
Y si se te va la mano con eso, simplemente
10:04
labeledetiquetado as madnessLocura.
253
589000
2000
se clasifica como locura.
10:06
It's a distinctiondistinción perhapsquizás we mightpodría make
254
591000
2000
Tal vez debamos hacer una distinción
10:08
betweenEntre two NobelNobel laureateslaureados, RichardRicardo FeynmanFeynman
255
593000
2000
entre dos ganadores del Nobel, como Richard Feynman
10:10
and JohnJohn NashNash.
256
595000
2000
y John Nash.
10:12
One seesve maybe just the right numbernúmero
257
597000
2000
Uno ve la cantidad adecuada
10:14
of patternspatrones to winganar a NobelNobel PrizePremio.
258
599000
2000
de patrones como para ganar el premio Nobel.
10:16
The other one alsoademás, but maybe too manymuchos patternspatrones.
259
601000
2000
El otro también, pero tal vez sean demasiados patrones
10:18
And we then call that schizophreniaesquizofrenia.
260
603000
3000
y se lo llama esquizofrenia.
10:21
So the signal-to-noiseseñal a ruido ratioproporción then presentspresenta us with a pattern-detectiondetección de patrones problemproblema.
261
606000
3000
Por eso, la relación señal-ruido nos plantea un problema de detección de patrones.
10:24
And of coursecurso you all know exactlyexactamente
262
609000
2000
Seguro que todos saben exactamente
10:26
what this is, right?
263
611000
2000
qué es esto, ¿verdad?
10:28
And what patternpatrón do you see here?
264
613000
2000
¿Qué patrón ven aquí?
10:30
Again, I'm puttingponiendo your anterioranterior cingulatecíngulo cortexcorteza to the testprueba here,
265
615000
3000
Otra vez estoy evaluando su corteza cingular anterior,
10:33
causingcausando you conflictingcontradictorio patternpatrón detectionsdetecciones.
266
618000
3000
con una detección de patrones contradictoria.
10:36
You know, of coursecurso, this is ViaVía UnoUno shoesZapatos.
267
621000
2000
Obviamente saben que estos son zapatos Via Uno.
10:38
These are sandalssandalias.
268
623000
3000
Son sandalias.
10:41
PrettyBonita sexysexy feetpies, I mustdebe say.
269
626000
3000
Debo decir que son pies muy seductores.
10:44
Maybe a little PhotoshoppedPhotoshopped.
270
629000
2000
Tal vez un poco photoshopeados.
10:46
And of coursecurso, the ambiguousambiguo figuresfiguras
271
631000
2000
Y por supuesto que son imágenes ambiguas
10:48
that seemparecer to flip-flopchanclas back and forthadelante.
272
633000
2000
que parecen dar un giro.
10:50
It turnsvueltas out what you're thinkingpensando about a lot
273
635000
2000
Resulta que lo que piensan más a menudo
10:52
influencesinfluencias what you
274
637000
2000
influencia lo que
10:54
tendtender to see.
275
639000
2000
tienden a ver.
10:56
And you see the lamplámpara here, I know.
276
641000
2000
Y sé que aquí ven la lámpara
10:58
Because the lightsluces on here.
277
643000
3000
porque tiene la luz encendida.
11:01
Of coursecurso, thanksGracias to the environmentalistambientalista movementmovimiento
278
646000
2000
Y gracias al movimiento ambientalista
11:03
we're all sensitivesensible to the plightsituación of marinemarina mammalsmamíferos.
279
648000
3000
somos sensibles a la difícil situación de los mamíferos marinos.
11:06
So what you see in this particularespecial ambiguousambiguo figurefigura
280
651000
3000
Por eso lo que ven en esta imagen ambigua
11:09
is, of coursecurso, the dolphinsdelfines, right?
281
654000
2000
es un delfín, por supuesto.
11:11
You see a dolphindelfín here,
282
656000
2000
Aquí ven un delfín.
11:13
and there's a dolphindelfín,
283
658000
2000
porque hay un delfín.
11:15
and there's a dolphindelfín.
284
660000
2000
Hay un delfín.
11:17
That's a dolphindelfín tailcola there, guys.
285
662000
3000
Eso es una cola de delfín.
11:20
(LaughterRisa)
286
665000
3000
(Risas)
11:25
If we can give you conflictingcontradictorio datadatos, again,
287
670000
3000
Entonces si les damos información contradictoria,
11:28
your ACCACC is going to be going into hyperdrivehiperimpulsor.
288
673000
3000
su corteza cingular anterior va a ponerse hiperactiva.
11:31
If you look down here, it's fine. If you look up here, then you get conflictingcontradictorio datadatos.
289
676000
3000
Si miran abajo está bien, pero si miran arriba la información es contradictoria.
11:34
And then we have to flipdar la vuelta the imageimagen
290
679000
2000
Por eso tenemos que girar la imagen
11:36
for you to see that it's a setconjunto up.
291
681000
2000
para que vean que es una trampa.
11:40
The impossibleimposible cratecaja illusionespejismo.
292
685000
2000
La ilusión del cajón imposible.
11:42
It's easyfácil to fooltonto the braincerebro in 2D.
293
687000
2000
Es fácil burlar el cerebro en 2D.
11:44
So you say, "AwAw, come on ShermerShermer, anybodynadie can do that
294
689000
2000
Por eso dirían "Shermer, todos podemos hacer eso
11:46
in a PsychPsicoanalizar 101 texttexto with an illusionespejismo like that."
295
691000
2000
en un texto básico sobre la psique con ese tipo de ilusión".
11:48
Well here'saquí está the latetarde, great Jerryalemán Andrus'Andrus '
296
693000
2000
Pero aquí está el difunto Jerry Andrus
11:50
"impossibleimposible cratecaja" illusionespejismo in 3D,
297
695000
3000
con la ilusión del "cajón imposible" en 3D
11:53
in whichcual Jerryalemán is standingen pie insidedentro
298
698000
2000
y Jerry está de pie dentro
11:55
the impossibleimposible cratecaja.
299
700000
2000
del cajón imposible.
11:57
And he was kindtipo enoughsuficiente to postenviar this
300
702000
2000
Él fue amable y publicó esto
11:59
and give us the revealrevelar.
301
704000
2000
y nos reveló la forma.
12:01
Of coursecurso, cameracámara angleángulo is everything. The photographerfotógrafo is over there,
302
706000
3000
Todo está en el ángulo de la cámara. El fotógrafo está allí.
12:04
and this boardtablero appearsaparece to overlapsuperposición with this one, and this one with that one, and so on.
303
709000
3000
Y parece que esta tabla se superpone con la otra, y esta con la otra, etc.
12:07
But even when I take it away,
304
712000
2000
Pero aún cuando lo quito,
12:09
the illusionespejismo is so powerfulpoderoso because of how are brainssesos are wiredcableado
305
714000
2000
la ilusión es muy fuerte por cómo están configurados nuestros cerebros
12:11
to find those certaincierto kindsclases of patternspatrones.
306
716000
3000
para encontrar ese tipo de patrones.
12:14
This is a fairlybastante newnuevo one
307
719000
2000
Este es uno más nuevo
12:16
that throwstiros us off because of the conflictingcontradictorio patternspatrones
308
721000
2000
que nos despista debido a los patrones contradictorios
12:18
of comparingcomparando this angleángulo with that angleángulo.
309
723000
3000
de comparar este ángulo con aquel ángulo.
12:21
In facthecho, it's the exactexacto samemismo pictureimagen sidelado by sidelado.
310
726000
3000
De hecho, es la misma foto de lado a lado,
12:24
So what you're doing is comparingcomparando that angleángulo
311
729000
2000
y están comparando aquel ángulo
12:26
insteaden lugar of with this one, but with that one.
312
731000
2000
en lugar de este ángulo.
12:28
And so your braincerebro is fooledengañado.
313
733000
2000
Por eso engaña al cerebro.
12:30
YetTodavía again, your patternpatrón detectiondetección devicesdispositivos are fooledengañado.
314
735000
2000
Y una vez más engaña a su dispositivo de detección de patrones.
12:32
FacesCaras are easyfácil to see
315
737000
2000
Es fácil ver rostros
12:34
because we have an additionaladicional evolvedevolucionado
316
739000
2000
porque contamos con un evolucionado
12:36
facialfacial recognitionreconocimiento softwaresoftware
317
741000
2000
software de reconocimiento de rostros
12:38
in our temporaltemporal lobeslóbulos.
318
743000
3000
en nuestro lóbulo temporal.
12:41
Here'sAquí está some facescaras on the sidelado of a rockrock.
319
746000
3000
Aquí se ven algunos rostros sobre una roca.
12:44
I'm actuallyactualmente not even sure if this is -- this mightpodría be PhotoshoppedPhotoshopped.
320
749000
3000
Tal vez han usado Photoshop,
12:47
But anywayde todas formas, the pointpunto is still madehecho.
321
752000
2000
pero de cualquier modo nos vale.
12:49
Now whichcual one of these looksmiradas oddimpar to you?
322
754000
2000
¿Cuál de estas imégenes se ve rara?
12:51
In a quickrápido reactionreacción, whichcual one looksmiradas oddimpar?
323
756000
2000
Rápido, ¿cuál se ve rara?
12:53
The one on the left. Okay. So I'll rotategirar it
324
758000
2000
La de la izquierda, bien. La voy a rotar.
12:55
so it'llva a be the one on the right.
325
760000
2000
Ahora es la de la derecha.
12:57
And you are correctcorrecto.
326
762000
2000
Y tienen razón.
12:59
A fairlybastante famousfamoso illusionespejismo -- it was first donehecho with MargaretMargaret ThatcherThatcher.
327
764000
3000
Una ilusión famosa que primero se hizo con Margaret Thatcher.
13:02
Now, they tradecomercio up the politicianspolíticos everycada time.
328
767000
2000
Ahora le cambiaron el político.
13:04
Well, why is this happeningsucediendo?
329
769000
2000
¿Qué es lo que sucede?
13:06
Well, we know exactlyexactamente where it happenssucede,
330
771000
2000
Sabemos bien dónde sucede,
13:08
in the temporaltemporal lobelóbulo, right acrossa través de, sortordenar of aboveencima your earoreja there,
331
773000
3000
en el lóbulo temporal, casi sobre las orejas.
13:11
in a little structureestructura calledllamado the fusiformfusiforme gyrusgyrus.
332
776000
3000
En una estructura llamada circunvolución fusiforme.
13:14
And there's two typestipos of cellsCélulas that do this,
333
779000
2000
Existen dos tipos de célula que hacen esto,
13:16
that recordgrabar facialfacial featurescaracteristicas eitherya sea globallyglobalmente,
334
781000
3000
graban características de los rostros de manera global
13:19
or specificallyespecíficamente these largegrande, rapid-firingfuego rápido cellsCélulas,
335
784000
2000
o específica. Estas células de disparo rápido
13:21
first look at the generalgeneral facecara.
336
786000
2000
primero ven el rostro general.
13:23
So you recognizereconocer ObamaObama immediatelyinmediatamente.
337
788000
2000
Por eso reconocen a Obama enseguida.
13:25
And then you noticedarse cuenta something quitebastante
338
790000
2000
Y luego notan algo un poco
13:27
a little bitpoco oddimpar about the eyesojos and the mouthboca.
339
792000
2000
raro en los ojos y la boca.
13:29
EspeciallyEspecialmente when they're upsideboca arriba down,
340
794000
2000
En especial si está dada vuelta,
13:31
you're engagingatractivo that generalgeneral facialfacial recognitionreconocimiento softwaresoftware there.
341
796000
3000
comprometen el software de reconocimiento de rostros.
13:34
Now I said back in our little thought experimentexperimentar,
342
799000
3000
Bien, les dije antes en el experimento de reflexión,
13:37
you're a hominidhomínido walkingpara caminar on the plainsllanuras of AfricaÁfrica.
343
802000
2000
supón que eres un homínido que camina por África.
13:39
Is it just the windviento or a dangerouspeligroso predatordepredador?
344
804000
3000
¿Se trata del viento o es un depredador peligroso?
13:42
What's the differencediferencia betweenEntre those?
345
807000
2000
¿Cuál es la diferencia entre ambos?
13:44
Well, the windviento is inanimateinanimado;
346
809000
2000
Bien, el viento es inanimado;
13:46
the dangerouspeligroso predatordepredador is an intentionalintencional agentagente.
347
811000
2000
el depredador peligroso es un agente intencionado.
13:48
And I call this processproceso agenticityagenticity.
348
813000
2000
A este proceso lo llamo agenticidad.
13:50
That is the tendencytendencia to infuseinfundir patternspatrones
349
815000
2000
Es la tendencia a infundir patrones
13:52
with meaningsentido, intentionintención and agencyagencia,
350
817000
2000
con significado, intención y agenticidad,
13:54
oftena menudo invisibleinvisible beingsseres from the topparte superior down.
351
819000
3000
a agentes invisibles desde las alturas.
13:57
This is an ideaidea that we got
352
822000
2000
Esta idea la tomamos de
13:59
from a fellowcompañero TEDsterTEDster here, DanDan DennettDennett,
353
824000
2000
un compañero de TED, Dan Dennett,
14:01
who talkedhabló about takingtomando the intentionalintencional stancepostura.
354
826000
2000
quien habló sobre tomar la postura intencional.
14:03
So it's a typetipo of that expandedexpandido to explainexplique, I think, a lot of differentdiferente things:
355
828000
3000
Es algo así, expandido para explicar, creo, muchas cosas diferentes:
14:06
soulsalmas, spiritsespíritu, ghostsfantasmas, godsgallinero, demonsdemonios, angelsángeles,
356
831000
3000
almas, espíritus, fantasmas, dioses, demonios, ángeles,
14:09
aliensextranjeros, intelligentinteligente designersdiseñadores,
357
834000
2000
extraterrestres, diseñadores inteligentes,
14:11
governmentgobierno conspiracistsconspiradores
358
836000
2000
conspiradores del gobierno
14:13
and all mannermanera of invisibleinvisible agentsagentes
359
838000
2000
y toda forma de agente invisible
14:15
with powerpoder and intentionintención, are believedcreído
360
840000
2000
con el poder y la intención y que se cree
14:17
to hauntguarida our worldmundo and controlcontrolar our livesvive.
361
842000
2000
que rondan nuestro mundo y controlan nuestras vidas.
14:19
I think it's the basisbase of animismanimismo
362
844000
2000
Creo que es la base del animismo,
14:21
and polytheismpoliteísmo and monotheismmonoteísmo.
363
846000
3000
el politeísmo y el monoteísmo.
14:24
It's the beliefcreencia that aliensextranjeros are somehowde algun modo
364
849000
2000
Es la creencia de que los extraterrestres son
14:26
more advancedavanzado than us, more moralmoral than us,
365
851000
2000
más avanzados y tienen más moralidad que nosotros.
14:28
and the narrativesnarrativas always are
366
853000
2000
Y la historia siempre cuenta
14:30
that they're comingviniendo here to savesalvar us and rescuerescate us from on highalto.
367
855000
3000
que vienen a salvarnos y rescatarnos desde las alturas.
14:33
The intelligentinteligente designer'sdiseñador always portrayedretratado
368
858000
2000
Siempre se describe al diseñador inteligente
14:35
as this supersúper intelligentinteligente, moralmoral beingsiendo
369
860000
3000
como este ser súper inteligente y moral
14:38
that comesproviene down to designdiseño life.
370
863000
2000
que baja a diseñar la vida.
14:40
Even the ideaidea that governmentgobierno can rescuerescate us --
371
865000
2000
Incluso la idea de que el gobierno puede rescatarnos.
14:42
that's no longermás the waveola of the futurefuturo,
372
867000
2000
Esa ya no es la moda del futuro.
14:44
but that is, I think, a typetipo of agenticityagenticity:
373
869000
2000
Pero creo que es un tipo de agenticidad,
14:46
projectingsaliente somebodyalguien up there,
374
871000
2000
el de proyectar a alguien grande y poderoso,
14:48
biggrande and powerfulpoderoso, will come rescuerescate us.
375
873000
2000
que vendrá a rescatarnos desde las alturas.
14:50
And this is alsoademás, I think, the basisbase of conspiracyconspiración theoriesteorías.
376
875000
2000
Y creo que también es la base de las teorías de conspiración.
14:52
There's somebodyalguien hidingocultación behinddetrás there pullingtracción the stringsinstrumentos de cuerda,
377
877000
3000
Existe alguien escondido que maneja los hilos,
14:55
whethersi it's the IlluminatiIlluminati
378
880000
2000
ya sean los Illuminati
14:57
or the BilderbergersBilderbergers.
379
882000
2000
o los Bilderbergers.
14:59
But this is a patternpatrón detectiondetección problemproblema, isn't it?
380
884000
2000
Pero es un problema de detección de patrones, ¿no?
15:01
Some patternspatrones are realreal and some are not.
381
886000
2000
Algunos patrones son reales y otros no.
15:03
Was JFKJFK assassinatedasesinado by a conspiracyconspiración or by a lonesolitario assassinasesino?
382
888000
3000
¿A JKF lo asesinó una conspiración o una sola persona?
15:06
Well, if you go there -- there's people there on any givendado day --
383
891000
3000
Bien, si van allí, y hay gente cualquier día
15:09
like when I wentfuimos there, here -- showingdemostración me where the differentdiferente shooterstiradores were.
384
894000
3000
como cuando fui yo, que muestran dónde fueron los diferentes disparos.
15:12
My favoritefavorito one was he was in the manholeagujero de hombre.
385
897000
3000
Mi preferido es el que estaba en un pozo,
15:15
And he poppedestallado out at the last secondsegundo, tooktomó that shotDisparo.
386
900000
3000
y salió en el último segundo y disparó.
15:18
But of coursecurso, LincolnLincoln was assassinatedasesinado by a conspiracyconspiración.
387
903000
2000
Pero igualmente Lincoln fue asesinado por una conspiración.
15:20
So we can't just uniformlyuniformemente dismissdespedir
388
905000
2000
Por eso no podemos descartar
15:22
all patternspatrones like that.
389
907000
2000
todos los patrones así.
15:24
Because, let's facecara it, some patternspatrones are realreal.
390
909000
2000
Porque, vamos, algunos patrones sí son reales.
15:26
Some conspiraciesconspiraciones really are truecierto.
391
911000
2000
Algunas conspiraciones sí son verdaderas.
15:30
ExplainsExplica a lot, maybe.
392
915000
2000
Esto tal vez explica mucho.
15:32
And 9/11 has a conspiracyconspiración theoryteoría. It is a conspiracyconspiración.
393
917000
3000
El 9/11 tiene una teoría de conspiración. Es una conspiración.
15:35
We did a wholetodo issueproblema on it.
394
920000
2000
Escribimos todo un número al respecto.
15:37
NineteenDiecinueve membersmiembros of AlAlabama QuedaQueda plottingtrazado to flymosca planesaviones into buildingsedificios
395
922000
2000
19 miembros de Al Queda tramando para estrellar aviones
15:39
constitutesque constituye a conspiracyconspiración.
396
924000
2000
en edificios, sí es una conspiración.
15:41
But that's not what the "9/11 trutherstruthers" think.
397
926000
2000
Pero eso no es lo que piensan los "buscaverdades del 9/11".
15:43
They think it was an insidedentro jobtrabajo by the BushArbusto administrationadministración.
398
928000
3000
Ellos creen que fue un trabajo interno del gobierno de Bush.
15:46
Well, that's a wholetodo other lectureconferencia.
399
931000
2000
Bien, eso es otra lectura.
15:48
You know how we know that 9/11
400
933000
2000
¿Saben cómo reconocemos que el 9/11
15:50
was not orchestratedorquestado by the BushArbusto administrationadministración?
401
935000
2000
no fue orquestado por el gobierno de Bush?
15:52
Because it workedtrabajó.
402
937000
2000
Porque funcionó.
15:54
(LaughterRisa)
403
939000
3000
(Risas)
15:57
(ApplauseAplausos)
404
942000
3000
(Aplausos)
16:00
So we are natural-bornnacimiento natural dualistsdualistas.
405
945000
2000
Somos dualistas por naturaleza.
16:02
Our agenticityagenticity processproceso comesproviene from
406
947000
2000
Nuestro proceso de agenticidad viene
16:04
the facthecho that we can enjoydisfrutar moviespelículas like these.
407
949000
2000
del hecho de que podemos disfrutar de estas películas.
16:06
Because we can imagineimagina, in essenceesencia,
408
951000
2000
Porque podemos imaginarnos
16:08
continuingcontinuo on.
409
953000
2000
seguir adelante.
16:10
We know that if you stimulateestimular the temporaltemporal lobelóbulo,
410
955000
2000
Sabemos que si se estimula el lóbulo temporal
16:12
you can produceProduce a feelingsensación of out-of-bodyfuera del cuerpo experiencesexperiencias,
411
957000
2000
se puede producir una sensación de experiencia extracorporal,
16:14
near-deathCercano a la muerte experiencesexperiencias,
412
959000
2000
experiencia cercana a la muerte,
16:16
whichcual you can do by just touchingconmovedor an electrodeelectrodo to the temporaltemporal lobelóbulo there.
413
961000
3000
que se logra mediante un electrodo aquí en el lóbulo temporal.
16:19
Or you can do it throughmediante losspérdida of consciousnessconciencia,
414
964000
2000
O mediante la pérdida de conciencia,
16:21
by acceleratingacelerador in a centrifugecentrífugo.
415
966000
2000
mediante la aceleración centrífuga.
16:23
You get a hypoxiahipoxia, or a lowerinferior oxygenoxígeno.
416
968000
3000
Si tienen hipoxia o el oxígeno bajo,
16:26
And the braincerebro then sensessentido
417
971000
2000
el cerebro siente
16:28
that there's an out-of-bodyfuera del cuerpo experienceexperiencia.
418
973000
2000
que hay una experiencia extracorporal.
16:30
You can use -- whichcual I did, wentfuimos out and did --
419
975000
2000
Pueden usar, yo mismo lo probé,
16:32
MichaelMiguel Persinger'sPersinger God HelmetCasco,
420
977000
2000
el Casco de Dios de Michael Persinger,
16:34
that bombardsbombardeos your temporaltemporal lobeslóbulos with electromagneticelectromagnético wavesolas.
421
979000
2000
que bombardea los lóbulos temporales con ondas electromagnéticas
16:36
And you get a sensesentido of out-of-bodyfuera del cuerpo experienceexperiencia.
422
981000
3000
y vives una experiencia extracorporal.
16:39
So I'm going to endfin here with a shortcorto videovídeo clipacortar
423
984000
2000
Entonces voy a terminar con un video
16:41
that sortordenar of bringstrae all this togetherjuntos.
424
986000
2000
que resume un poco todo esto.
16:43
It's just a minuteminuto and a halfmitad.
425
988000
2000
Dura sólo un minuto y medio y
16:45
It tiescorbatas togetherjuntos all this into the powerpoder of expectationexpectativa and the powerpoder of beliefcreencia.
426
990000
3000
une todo esto con el poder de las expectativas y de la creencia.
16:48
Go aheadadelante and rollrodar it.
427
993000
2000
Pónganlo por favor.
16:50
NarratorNarrador: This is the venuelugar de encuentro they choseElegir for theirsu fakefalso auditionsaudiciones
428
995000
3000
Este es el lugar que se eligió para las audiciones falsas
16:53
for an advertanuncio for liplabio balmbálsamo.
429
998000
2000
de un anuncio de protector labial.
16:55
WomanMujer: We're hopingesperando we can use partparte of this
430
1000000
2000
Esperamos poder usar parte de eso
16:57
in a nationalnacional commercialcomercial, right?
431
1002000
2000
en un comercial nacional.
16:59
And this is testprueba on some liplabio balmsbálsamos
432
1004000
2000
Esto es una prueba de protectores labiales
17:01
that we have over here.
433
1006000
2000
que tenemos aquí.
17:03
And these are our modelsmodelos who are going to help us,
434
1008000
2000
Y estos son los modelos que nos ayudarán,
17:05
RogerRoger and MattMate.
435
1010000
2000
Roger y Matt.
17:07
And we have our ownpropio liplabio balmbálsamo,
436
1012000
2000
Tenemos nuestro protector labial
17:09
and we have a leadinglíder brandmarca.
437
1014000
2000
y una marca líder.
17:11
Would you have any problemproblema
438
1016000
2000
¿Tendrías algún problema en
17:13
kissingbesando our modelsmodelos to testprueba it?
439
1018000
2000
besar a los modelos para probarlo?
17:15
GirlNiña: No.
440
1020000
2000
No.
17:17
WomanMujer: You wouldn'tno lo haría? (GirlNiña: No.) WomanMujer: You'dTu hubieras think that was fine.
441
1022000
2000
- ¿No? - No. - ¿Pensarías que está bien?
17:19
GirlNiña: That would be fine. (WomanMujer: Okay.)
442
1024000
2000
- Estaría bien. - OK.
17:21
So this is a blindciego testprueba.
443
1026000
3000
Esta es un prueba a ciegas.
17:24
I'm going to askpedir you to go aheadadelante
444
1029000
2000
Te voy a pedir que
17:26
and put a blindfoldvenda on.
445
1031000
2000
te pongas una venda.
17:29
KayKay, now can you see anything? (GirlNiña: No.)
446
1034000
3000
Bien, ¿ves algo? - No.
17:32
PullHalar it so you can't even see down. (GirlNiña: Okay.)
447
1037000
2000
Bájalo así no puedes ver hacia abajo. - OK.
17:34
WomanMujer: It's completelycompletamente blindciego now, right?
448
1039000
2000
- No ves nada, ¿verdad?
17:36
GirlNiña: Yes. (WomanMujer: Okay.)
449
1041000
2000
- Sí. - OK.
17:38
Now, what I'm going to be looking for in this testprueba
450
1043000
3000
Lo que vamos a buscar en esta prueba
17:41
is how it protectsprotege your lipslabios,
451
1046000
3000
es cuánto protege tus labios,
17:44
the texturetextura, right,
452
1049000
2000
la textura.
17:46
and maybe if you can discerndiscernir any flavorsabor or not.
453
1051000
3000
y si puedes descubrir el sabor.
17:49
GirlNiña: Okay. (WomanMujer: Have you ever donehecho a kissingbesando testprueba before?)
454
1054000
3000
- OK. - ¿Alguna vez has hecho una prueba de besos?
17:52
GirlNiña: No.
455
1057000
2000
- No.
17:54
WomanMujer: Take a steppaso here.
456
1059000
2000
- Acércate aquí.
17:56
Okay, now I'm going to askpedir you to puckerfruncido up.
457
1061000
2000
Bien, ahora déjate besar.
17:58
PuckerFruncido up biggrande and leanapoyarse in just a little bitpoco, okay?
458
1063000
3000
Acércate un poco y déjate besar, ¿bien?.
18:06
(MusicMúsica)
459
1071000
4000
(Música)
18:10
(LaughterRisa)
460
1075000
5000
(Risas)
18:19
(LaughterRisa)
461
1084000
3000
(Risas)
18:30
WomanMujer: Okay.
462
1095000
2000
Bien.
18:32
And, JenniferJennifer, how did that feel?
463
1097000
2000
¿Cómo lo sentiste Jennifer?
18:34
JenniferJennifer: Good.
464
1099000
2000
- Bien
18:36
(LaughterRisa)
465
1101000
7000
(Risas)
18:43
GirlNiña: Oh my God!
466
1108000
2000
- Oh por Dios.
18:45
(LaughterRisa)
467
1110000
4000
(Risas)
18:50
MichaelMiguel ShermerShermer: Thank you very much. Thank you. ThanksGracias.
468
1115000
3000
Michael Shermer - Muchas gracias. Gracias.
Translated by Geo Mangiaterra
Reviewed by Jesus Nuevo-Chiquero

▲Back to top

ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com