ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com
TED2010

Michael Shermer: The pattern behind self-deception

Michael Shermer: lo schema dietro l'auto-inganno.

Filmed:
2,854,890 views

Michael Shermer sostiene che la tendenza umana a credere in cose strane - dai rapimenti alieni alle bacchette da rabdomanti - si riduce a due delle più basiche e innate capacità di sopravvivenza. Ci spiega cosa sono e come ci hanno messo nei pasticci.
- Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market. Full bio

Double-click the English transcript below to play the video.

00:16
So sinceda I was here last in '06,
0
1000
3000
Dall’ultima volta che sono stato qui nel 2006,
00:19
we discoveredscoperto that globalglobale climateclima changemodificare
1
4000
2000
abbiamo scoperto che il cambiamento climatico globale
00:21
is turningsvolta out to be a prettybella seriousgrave issueproblema,
2
6000
2000
si sta rivelando una questione piuttosto seria.
00:23
so we coveredcoperto that fairlyabbastanza extensivelyampiamente
3
8000
2000
Per cui abbiamo ampiamente trattato l’argomento
00:25
in SkepticEro scettico magazinerivista.
4
10000
2000
nel periodico “Skeptic”. (Scettico, ndt)
00:27
We investigateindagare all kindstipi
5
12000
2000
Noi investighiamo qualsiasi tipo
00:29
of scientificscientifico and quasi-scientificquasi-scientifica controversiescontroversie,
6
14000
3000
di controversia scientifica e quasi scientifica.
00:32
but it turnsgiri out we don't have to worrypreoccupazione about any of this
7
17000
2000
Ma a quanto pare non c’è bisogno di preoccuparsi di alcuna di queste cose
00:34
because the world'sIl mondo di going to endfine in 2012.
8
19000
2000
perché il mondo finirà nel 2012.
00:36
AnotherUn altro updateaggiornare:
9
21000
2000
Un altro aggiornamento:
00:38
You will recallrichiamare I introducedintrodotto you guys
10
23000
2000
vi ricorderete che presentai a tutti voi
00:40
to the QuadroQuadro TrackerTracking.
11
25000
2000
il “Quadro Tracker”.
00:42
It's like a wateracqua dowsingrabdomanzia devicedispositivo.
12
27000
2000
È come un dispositivo da rabdomanti.
00:44
It's just a hollowCava piecepezzo of plasticplastica with an antennaantenna that swivelsparti girevoli around.
13
29000
3000
Si tratta di un pezzo di plastica cavo con un antenna ruotante.
00:47
And you walkcamminare around, and it pointspunti to things.
14
32000
2000
Tu cammini, e quello indica delle cose.
00:49
Like if you're looking for marijuanamarijuana in students'studenti' lockersarmadietti,
15
34000
3000
Ad esempio, se stai cercando della marijuana nell’armadietto di uno studente,
00:52
it'llsara pointpunto right to somebodyqualcuno.
16
37000
2000
punterà dritto a qualcuno.
00:54
Oh, sorry. (LaughterRisate)
17
39000
2000
Oh, scusi. (Risate).
00:56
This particularparticolare one that was givendato to me
18
41000
2000
In particolare, questo che è stato regalato a me
00:58
findsreperti golfgolf ballspalle,
19
43000
2000
trova le palline da golf,
01:00
especiallyparticolarmente if you're at a golfgolf coursecorso
20
45000
2000
specialmente se ti trovi in un campo da golf
01:02
and you checkdai un'occhiata undersotto enoughabbastanza bushescespugli.
21
47000
3000
e cerchi sotto un numero sufficiente di cespugli.
01:05
Well, undersotto the categorycategoria of "What's the harmdanno of sillysciocco stuffcose like this?"
22
50000
3000
Bene, sotto la categoria “Che danno possono fare dispositivi sciocchi come questo?”
01:08
this devicedispositivo, the ADEADE 651,
23
53000
3000
questo dispositivo, l’ADE 651,
01:11
was soldvenduto to the IraqiIracheno governmentgoverno
24
56000
3000
è stato venduto al governo Iracheno
01:14
for 40,000 dollarsdollari apieceal pezzo.
25
59000
2000
per 40.000 $ al pezzo.
01:16
It's just like this one, completelycompletamente worthlesssenza valore,
26
61000
2000
Ed è esattamente come questo, completamente inutile,
01:18
in whichquale it allegedlypresunto workedlavorato by "electrostaticelettrostatica
27
63000
2000
nel senso che avrebbe dovuto presumibilmente funzionare per via di
01:20
magneticmagnetico ionione attractionattrazione,"
28
65000
3000
“attrazione elettrostatica magnetica di ioni",
01:24
whichquale translatessi traduce to
29
69000
2000
che si traduce in
01:26
"pseudoscientificpseudoscientifiche baloneymortadella" -- would be the nicesimpatico wordparola --
30
71000
3000
“idiozia pseudoscientifica” -- sarebbe la parola adatta --
01:29
in whichquale you stringstringa togetherinsieme a bunchmazzo of wordsparole that soundsuono good,
31
74000
2000
- ossia un gruppo di parole che suonano bene,
01:31
but it does absolutelyassolutamente nothing.
32
76000
2000
ma che non significano assolutamente niente.
01:33
In this casecaso, at trespassTrespass pointspunti,
33
78000
3000
In questo caso, ai punti di controllo,
01:36
allowingpermettendo people to go throughattraverso
34
81000
2000
permettere alle persone di passare
01:38
because your little trackerTracking devicedispositivo said they were okay,
35
83000
3000
perché il dispositivo diceva che erano a posto,
01:41
actuallyin realtà costcosto livesvite.
36
86000
3000
costa vite umane.
01:44
So there is a dangerPericolo to pseudosciencepseudoscienza,
37
89000
2000
Per cui si corrono dei rischi con la pseudoscienza,
01:46
in believingcredendo in this sortordinare of thing.
38
91000
3000
credendo in questo genere di cose.
01:49
So what I want to talk about todayoggi is beliefcredenza.
39
94000
3000
Per cui oggi voglio parlarvi del credere.
01:52
I want to believe,
40
97000
2000
Io voglio credere,
01:54
and you do too.
41
99000
2000
e anche voi lo volete.
01:56
And in factfatto, I think my thesistesi here is that
42
101000
2000
Ed infatti, credo che la mia tesi sia che
01:58
beliefcredenza is the naturalnaturale statestato of things.
43
103000
2000
credere sia lo stato naturale delle cose.
02:00
It is the defaultimpostazione predefinita optionopzione. We just believe.
44
105000
2000
È l’opzione di base. Semplicemente, noi crediamo.
02:02
We believe all sortstipi of things.
45
107000
2000
E crediamo in qualsiasi tipo di cose.
02:04
BeliefCredenza is naturalnaturale;
46
109000
2000
Credere è naturale.
02:06
disbeliefincredulità, skepticismscetticismo, sciencescienza, is not naturalnaturale.
47
111000
2000
L’incredulità, lo scetticismo, la scienza, non sono naturali.
02:08
It's more difficultdifficile.
48
113000
2000
Sono più difficili.
02:10
It's uncomfortablescomodo to not believe things.
49
115000
2000
È scomodo non credere in qualcosa.
02:12
So like FoxFox MulderMulder on "X-FilesX-Files,"
50
117000
3000
Per cui come Fox Mulder in “X-Files”,
02:15
who wants to believe in UFOsUFO? Well, we all do,
51
120000
3000
chi vuole credere negli UFO? Be', noi tutti.
02:18
and the reasonragionare for that is because
52
123000
2000
E la ragione è che
02:20
we have a beliefcredenza enginemotore in our brainsmente.
53
125000
3000
abbiamo un motore della credenza nei nostri cervelli.
02:23
EssentiallyEssenzialmente, we are pattern-seekingpattern-seeking primatesprimati.
54
128000
3000
In sostanza, siamo dei primati cercatori di schemi.
02:26
We connectCollegare the dotspunti: A is connectedcollegato to B; B is connectedcollegato to C.
55
131000
3000
Uniamo i punti: A è connesso a B; B è connesso a C.
02:29
And sometimesa volte A really is connectedcollegato to B,
56
134000
3000
Ed a volte A è veramente connesso a B.
02:32
and that's calledchiamato associationassociazione learningapprendimento.
57
137000
2000
Questo è l'apprendimento per associazione.
02:34
We find patternsmodelli, we make those connectionsconnessioni,
58
139000
3000
Troviamo schemi e facciamo connessioni,
02:37
whetherse it's Pavlov'sDi Pavlov dogcane here
59
142000
2000
che si tratti dei cani di Pavlov
02:39
associatingassociando i the soundsuono of the bellcampana with the foodcibo,
60
144000
3000
che associano il suono di una campanella al cibo,
02:42
and then he salivatessalivates to the soundsuono of the bellcampana,
61
147000
2000
producendo poi saliva al solo suono della campanella,
02:44
or whetherse it's a SkinnerianSkinnerian ratratto,
62
149000
2000
o che si tratti delle cavie di Skinner,
02:46
in whichquale he's havingavendo an associationassociazione
63
151000
2000
in cui si ha un'associazione
02:48
betweenfra his behaviorcomportamento and a rewardricompensa for it,
64
153000
2000
tra il suo comportamento ed una ricompensa,
02:50
and thereforeperciò he repeatssi ripete the behaviorcomportamento.
65
155000
2000
con conseguente ripetizione del comportamento.
02:52
In factfatto, what SkinnerSkinner discoveredscoperto
66
157000
2000
Di fatto, ciò che Skinner ha scoperto
02:54
is that, if you put a pigeonpiccione in a boxscatola like this,
67
159000
3000
è che se si mette un piccione in una scatola come questa,
02:57
and he has to pressstampa one of these two keyschiavi,
68
162000
2000
dove deve premere uno di due bottoni,
02:59
and he triescerca to figurefigura out what the patternmodello is,
69
164000
2000
e cerca di immaginare quale sia lo schema,
03:01
and you give him a little rewardricompensa in the hoppertramoggia boxscatola there --
70
166000
2000
e gli si mette una piccola ricompensa nella scatola.
03:03
if you just randomlya caso assignassegnare rewardsricompense
71
168000
3000
Se si assegnano in maniera casuale delle ricompense
03:06
suchcome that there is no patternmodello,
72
171000
2000
in modo tale che non ci sia uno schema,
03:08
they will figurefigura out any kindgenere of patternmodello.
73
173000
2000
si immagineranno un qualsiasi tipo di schema.
03:10
And whateverqualunque cosa they were doing just before they got the rewardricompensa,
74
175000
2000
E qualsiasi cosa essi stessero facendo prima di ottenere la ricompensa,
03:12
they repeatripetere that particularparticolare patternmodello.
75
177000
2000
tale cosa viene ripetuta.
03:14
SometimesA volte it was even spinningFilatura around twicedue volte counterclockwisein senso antiorario,
76
179000
3000
A volte poteva trattarsi di girare su se stessi due volte in senso antiorario,
03:17
onceuna volta clockwisein senso orario and peckPeck the keychiave twicedue volte.
77
182000
3000
una volta in senso orario e quindi beccare due volte sul bottone.
03:20
And that's calledchiamato superstitionsuperstizione,
78
185000
2000
E questa si chiama superstizione.
03:22
and that, I'm afraidimpaurito,
79
187000
2000
E mi spiace ma
03:24
we will always have with us.
80
189000
2000
sarà sempre con noi.
03:26
I call this processprocesso "patternicityschemicità" --
81
191000
2000
Chiamo questo processo “schemicità",
03:28
that is, the tendencytendenza to find meaningfulsignificativo patternsmodelli
82
193000
2000
cioè, la tendenza a trovare uno schema con significato
03:30
in bothentrambi meaningfulsignificativo and meaninglesssenza senso noiserumore.
83
195000
3000
sia nel rumore con significato che senza.
03:33
When we do this processprocesso, we make two typestipi of errorserrori.
84
198000
3000
Quando attiviamo questo processo, commettiamo due tipi di errori.
03:36
A TypeTipo I errorerrore, or falsefalso positivepositivo,
85
201000
2000
L’errore di Tipo 1, o falso positivo,
03:38
is believingcredendo a patternmodello is realvero
86
203000
2000
si ha quando si crede che uno schema sia reale
03:40
when it's not.
87
205000
2000
quando non lo è.
03:42
Our secondsecondo typetipo of errorerrore is a falsefalso negativenegativo.
88
207000
2000
Il secondo tipo di errore è un falso negativo.
03:44
A TypeTipo IIII errorerrore is not believingcredendo
89
209000
2000
L’errore di Tipo II si ha quando non si crede
03:46
a patternmodello is realvero when it is.
90
211000
3000
che uno schema sia corretto quando lo è.
03:49
So let's do a thought experimentsperimentare.
91
214000
2000
Facciamo un esperimento mentale.
03:51
You are a hominidominide threetre millionmilione yearsanni agofa
92
216000
2000
Sei un ominide, 3 milioni di anni fa,
03:53
walkinga passeggio on the plainspianure of AfricaAfrica.
93
218000
3000
che cammina in una piana in Africa.
03:56
Your namenome is LucyLucy, okay?
94
221000
2000
Il tuo nome è Lucy, ok?
03:58
And you hearsentire a rustlefruscio in the grasserba.
95
223000
2000
Senti un fruscio tra l’erba.
04:00
Is it a dangerouspericoloso predatorPredator,
96
225000
2000
Si tratta di un predatore pericoloso
04:02
or is it just the windvento?
97
227000
2000
o è solo il vento?
04:04
Your nextIl prossimo decisiondecisione could be the mostmaggior parte importantimportante one of your life.
98
229000
3000
La decisione che stai per prendere potrebbe essere la più importante della tua vita.
04:07
Well, if you think that the rustlefruscio in the grasserba is a dangerouspericoloso predatorPredator
99
232000
3000
Allora, se pensi che il fruscio nell'erba sia un pericoloso predatore
04:10
and it turnsgiri out it's just the windvento,
100
235000
2000
e di fatto è solo il vento,
04:12
you've madefatto an errorerrore in cognitioncognizione,
101
237000
2000
hai commesso un errore di cognizione,
04:14
madefatto a TypeTipo I errorerrore, falsefalso positivepositivo.
102
239000
2000
hai commesso un errore di Tipo I, un falso positivo.
04:16
But no harmdanno. You just movemossa away.
103
241000
2000
Non ci sono danni. Semplicemente ti sposti,
04:18
You're more cautiouscauto. You're more vigilantvigile.
104
243000
2000
fai più attenzione e sei più vigile.
04:20
On the other handmano, if you believe that the rustlefruscio in the grasserba is just the windvento,
105
245000
2000
D’altro canto, se credi che si tratti solo di vento
04:22
and it turnsgiri out it's a dangerouspericoloso predatorPredator,
106
247000
3000
ma in realtà si rivela essere un predatore,
04:25
you're lunchpranzo.
107
250000
2000
tu diventi un pranzo.
04:27
You've just wonha vinto a DarwinDarwin awardpremio.
108
252000
2000
Hai appena vinto un premio Darwin.
04:29
You've been takenprese out of the genegene poolpiscina.
109
254000
2000
Sei stato tirato fuori dal pool genetico.
04:31
Now the problemproblema here is that
110
256000
2000
Il problema a questo punto è che
04:33
patternicitiesschemicità will occursi verificano wheneverogni volta the costcosto
111
258000
2000
la schemicità si ripeterà ogni volta che il costo
04:35
of makingfabbricazione a TypeTipo I errorerrore
112
260000
2000
di commettere un errore di Tipo I
04:37
is lessDi meno than the costcosto of makingfabbricazione a TypeTipo IIII errorerrore.
113
262000
2000
è minore del costo di commettere un errore di Tipo II.
04:39
This is the only equationequazione in the talk by the way.
114
264000
2000
Questa è l’unica equazione del discorso, comunque.
04:41
We have a patternmodello detectionrivelazione problemproblema
115
266000
2000
Abbiamo un problema di rilevamento dello schema
04:43
that is assessingvalutazione the differencedifferenza betweenfra a TypeTipo I and a TypeTipo IIII errorerrore
116
268000
3000
cioè, valutare la differenza tra un errore di tipo I e di tipo II
04:46
is highlyaltamente problematicproblematico,
117
271000
2000
è veramente problematico,
04:48
especiallyparticolarmente in split-secondfrazione di secondo, life-and-deathvita e la morte situationssituazioni.
118
273000
3000
specialmente quando è questione di secondi ed è un caso di vita o di morte.
04:51
So the defaultimpostazione predefinita positionposizione
119
276000
2000
Per cui la posizione di base è
04:53
is just: Believe all patternsmodelli are realvero --
120
278000
2000
“credere che tutti gli schemi siano veri”.
04:55
All rustlesfruscii in the grasserba are dangerouspericoloso predatorspredatori
121
280000
3000
Qualsiasi fruscio tra l’erba è un predatore pericoloso
04:58
and not just the windvento.
122
283000
2000
e non semplicemente il vento.
05:00
And so I think that we evolvedevoluto ...
123
285000
2000
Per cui credo che ci siamo evoluti...
05:02
there was a naturalnaturale selectionselezione for the propensitypropensione for our beliefcredenza enginesmotori,
124
287000
3000
c'è stata una selezione naturale della propensione dei motori del credere,
05:05
our pattern-seekingpattern-seeking braincervello processesprocessi,
125
290000
2000
i nostri processi cerebrali che cercano schemi,
05:07
to always find meaningfulsignificativo patternsmodelli
126
292000
2000
a trovare sempre degli schemi con significato
05:09
and infuseinfondere them with these sortordinare of
127
294000
2000
ed infonderli di agenti predatori
05:11
predatorypredatori or intentionalintenzionale agenciesagenzie that I'll come back to.
128
296000
3000
od intenzionali sui quali ritornerò più in là.
05:14
So for exampleesempio, what do you see here?
129
299000
2000
Per esempio, che cosa vedete qui?
05:16
It's a horsecavallo headcapo, that's right.
130
301000
2000
È una testa di cavallo, corretto.
05:18
It lookssembra like a horsecavallo. It mustdovere be a horsecavallo.
131
303000
2000
Sembra un cavallo. Deve essere un cavallo.
05:20
That's a patternmodello.
132
305000
2000
Quello è uno schema.
05:22
And is it really a horsecavallo?
133
307000
2000
Ed è veramente un cavallo?
05:24
Or is it more like a frograna?
134
309000
3000
O si tratta di una rana?
05:27
See, our patternmodello detectionrivelazione devicedispositivo,
135
312000
2000
Vedete, il nostro dispositivo di rilevamento di schemi,
05:29
whichquale appearsappare to be locatedcollocato in the anterioranteriore cingulatecingolata cortexcorteccia --
136
314000
3000
che si trova nella corteccia cingolata anteriore --
05:32
it's our little detectionrivelazione devicedispositivo there --
137
317000
3000
è quel piccolo dispositivo di rilevamento lì –
05:35
can be easilyfacilmente fooledingannare, and this is the problemproblema.
138
320000
2000
si fa prendere in giro facilmente, e questo è il problema.
05:37
For exampleesempio, what do you see here?
139
322000
2000
Per esempio, cosa vedete lì?
05:39
Yes, of coursecorso, it's a cowmucca.
140
324000
3000
Si, certo, è una mucca.
05:42
OnceVolta I primeprimo the braincervello -- it's calledchiamato cognitiveconoscitivo primingadescamento --
141
327000
3000
Una volta che preparo il cervello – si chiama preparazione cognitiva –
05:45
onceuna volta I primeprimo the braincervello to see it,
142
330000
2000
una volta che preparo il cervello a vedere ciò,
05:47
it popssi apre back out again even withoutsenza the patternmodello that I've imposedimposte on it.
143
332000
3000
esce di nuovo anche senza lo schema che inizialmente avevo imposto.
05:50
And what do you see here?
144
335000
2000
E cosa vedete lì?
05:52
Some people see a DalmatianDalmata dogcane.
145
337000
2000
Alcune persone vedono un dalmata.
05:54
Yes, there it is. And there's the primeprimo.
146
339000
2000
Si, eccolo lì. Ed ecco la preparazione cognitiva.
05:56
So when I go back withoutsenza the primeprimo,
147
341000
2000
Quindi quando ci ritorno senza la preparazione,
05:58
your braincervello alreadygià has the modelmodello
148
343000
2000
il cervello ha già il modello
06:00
so you can see it again.
149
345000
2000
per cui potete vederlo di nuovo.
06:02
What do you see here?
150
347000
3000
Cosa vedete lì?
06:05
PlanetPianeta SaturnSaturno. Yes, that's good.
151
350000
2000
Il pianeta saturno. Sì, molto bene.
06:07
How about here?
152
352000
3000
E lì?
06:10
Just shoutShout out anything you see.
153
355000
3000
Sì, gridate qualsiasi cosa voi pensate di vedere.
06:14
That's a good audiencepubblico, ChrisChris.
154
359000
2000
È una buona platea questa, Chris
06:16
Because there's nothing in this. Well, allegedlypresunto there's nothing.
155
361000
3000
Perché non c’è niente qui. Be’, presumibilmente non c’è niente.
06:19
This is an experimentsperimentare donefatto by JenniferJennifer WhitsonWhitson
156
364000
3000
Questo è un esperimento condotto da Jennifer Whitson
06:22
at U.T. AustinAustin
157
367000
2000
all'università del Texas di Austin
06:24
on corporateaziendale environmentsambienti
158
369000
2000
sugli ambienti aziendali
06:26
and whetherse feelingssentimenti of uncertaintyincertezza and out of controlcontrollo
159
371000
3000
per verificare se le percezioni di incertezza e mancanza di controllo
06:29
makesfa people see illusoryillusoria patternsmodelli.
160
374000
2000
fanno sì che le persone vedano degli schemi illusori.
06:31
That is, almostquasi everybodytutti seesvede the planetpianeta SaturnSaturno.
161
376000
3000
Cioè, quasi tutti vedono il pianeta Saturno.
06:34
People that are put in a conditioncondizione of feelingsensazione out of controlcontrollo
162
379000
3000
Le persone messe in condizione di avere percezioni di mancanza di controllo
06:37
are more likelyprobabile to see something in this,
163
382000
2000
è più probabile che vedano qualcosa in questo,
06:39
whichquale is allegedlypresunto patternlesspatternless.
164
384000
3000
che è in teoria privo di ogni schema.
06:42
In other wordsparole, the propensitypropensione to find these patternsmodelli
165
387000
3000
In altre parole, la propensione a trovare questi schemi
06:45
goesva up when there's a lackmancanza of controlcontrollo.
166
390000
3000
aumenta quando manca il controllo.
06:48
For exampleesempio, baseballbaseball playersGiocatori are notoriouslynotoriamente superstitioussuperstizioso
167
393000
3000
Per esempio, i giocatori di baseball sono notoriamente considerati superstiziosi
06:51
when they're battingalla battuta,
168
396000
2000
quando vanno alla battuta,
06:53
but not so much when they're fieldingmettendo in campo.
169
398000
2000
ma non altrettanto quando giocano in difesa.
06:55
Because fieldersFielders are successfulriuscito
170
400000
2000
Questo perché i giocatori in difesa non sbagliano
06:57
90 to 95 percentper cento of the time.
171
402000
2000
il 90-95% delle volte.
06:59
The bestmigliore batterspastelle failfallire sevenSette out of 10 timesvolte.
172
404000
3000
I migliori battitori sbagliano 7 volte su 10.
07:02
So theirloro superstitionssuperstizioni, theirloro patternicitiesschemicità,
173
407000
2000
Per cui le loro superstizioni, le loro schemicità,
07:04
are all associatedassociato with feelingssentimenti of lackmancanza of controlcontrollo
174
409000
3000
sono tutte associate a percezioni di mancanza di controllo
07:07
and so forthvia.
175
412000
2000
e così via.
07:10
What do you see in this particularparticolare one here, in this fieldcampo?
176
415000
3000
Cosa vedete in questo particolare campo?
07:13
AnybodyNessuno see an objectoggetto there?
177
418000
2000
C’è qualcuno che vede un oggetto qui?
07:15
There actuallyin realtà is something here,
178
420000
2000
In effetti c’è qualcosa qui,
07:17
but it's degradeddegradato.
179
422000
2000
ma è deteriorato.
07:19
While you're thinkingpensiero about that,
180
424000
2000
Mentre ci pensate,
07:21
this was an experimentsperimentare donefatto by SusanSusan BlackmoreBlackmore,
181
426000
2000
si tratta di un esperimento condotto da Susan Blackmore,
07:23
a psychologistpsicologo in EnglandInghilterra,
182
428000
2000
una psicologa in Inghilterra,
07:25
who showedha mostrato subjectssoggetti this degradeddegradato imageImmagine
183
430000
2000
che ha mostrato a degli individui questa immagine degradata
07:27
and then rancorse a correlationcorrelazione betweenfra
184
432000
2000
e quindi ha cercato una correlazione
07:29
theirloro scorespunteggi on an ESPESP testTest:
185
434000
2000
con i loro punteggi in un test ESP,
07:31
How much did they believe in the paranormalparanormale,
186
436000
2000
che misura quanto si creda nel paranormale,
07:33
supernaturalsoprannaturale, angelsAngeli and so forthvia.
187
438000
3000
sovrannaturale, angeli etc...
07:36
And those who scoredavuto un punteggio di highalto on the ESPESP scalescala,
188
441000
3000
E coloro i quali hanno avuto un punteggio alto nella scala ESP,
07:39
tendedla tendenza to not only see
189
444000
2000
tendevano non solo a vedere
07:41
more patternsmodelli in the degradeddegradato imagesimmagini
190
446000
2000
più schemi in quella immagine degradata,
07:43
but incorrectnon corretto patternsmodelli.
191
448000
2000
ma anche schemi sbagliati.
07:45
Here is what you showmostrare subjectssoggetti.
192
450000
2000
Ecco cosa viene mostrato agli individui.
07:47
The fishpesce is degradeddegradato 20 percentper cento, 50 percentper cento
193
452000
3000
Il pesce è degradato al 20%, al 50%
07:50
and then the one I showedha mostrato you,
194
455000
2000
e infine quello che ho mostrato a voi,
07:52
70 percentper cento.
195
457000
2000
al 70%.
07:54
A similarsimile experimentsperimentare was donefatto by anotherun altro [SwissSvizzera] psychologistpsicologo
196
459000
2000
Un esperimento simile è stato condotto da un'altro psicologo svizzero
07:56
nameddi nome PeterPeter BruggerBrugger,
197
461000
2000
di nome Peter Brugger
07:58
who foundtrovato significantlyin modo significativo more meaningfulsignificativo patternsmodelli
198
463000
3000
che ha scoperto che molti più schemi significativi
08:01
were perceivedpercepito on the right hemisphereemisfero,
199
466000
2000
sono percepiti nell’emisfero destro,
08:03
viaattraverso the left visualvisivo fieldcampo, than the left hemisphereemisfero.
200
468000
3000
tramite il campo visivo sinistro, piuttosto che nell'emisfero sinistro.
08:06
So if you presentpresente subjectssoggetti the imagesimmagini suchcome
201
471000
2000
Per cui se mostri a degli individui le immagini in maniera tale
08:08
that it's going to endfine up on the right hemisphereemisfero insteadanziché of the left,
202
473000
3000
che raggiungano l'emisfero destro piuttosto che il sinistro,
08:11
then they're more likelyprobabile to see patternsmodelli
203
476000
2000
vi sono più probabilità che trovino uno schema
08:13
than if you put it on the left hemisphereemisfero.
204
478000
2000
che se raggiungano l'emisfero sinistro.
08:15
Our right hemisphereemisfero appearsappare to be
205
480000
2000
Il nostro emisfero destro sembra essere il luogo
08:17
where a lot of this patternicityschemicità occursverifica.
206
482000
2000
dove un sacco di queste schemicità succedono.
08:19
So what we're tryingprovare to do is boreAlesaggio into the braincervello
207
484000
2000
Quello che stiamo cercando di fare è esaminare il cervello
08:21
to see where all this happensaccade.
208
486000
2000
per vedere dove tutto questo succede.
08:23
BruggerBrugger and his colleaguecollega, ChristineChristine MohrMohr,
209
488000
3000
Brugger e la sua collega, Christine Mohr,
08:26
gaveha dato subjectssoggetti L-DOPAL-DOPA.
210
491000
2000
hanno somministrato a degli individui della L-DOPA
08:28
L-DOPA'sL-DOPA a drugdroga, as you know, givendato for treatingtrattamento Parkinson'sMalattia di Parkinson diseasemalattia,
211
493000
3000
La L-DOPA è una medicina, come sapete, somministrata per trattare il morbo di Parkinson,
08:31
whichquale is relatedrelazionato to a decreasediminuire in dopaminedopamina.
212
496000
3000
che è dovuto ad una riduzione di dopamina.
08:34
L-DOPAL-DOPA increasesaumenta dopaminedopamina.
213
499000
2000
La L-DOPA aumenta la dopamina.
08:36
An increaseaumentare of dopaminedopamina causedcausato
214
501000
2000
Ed un incremento di dopamina ha fatto sì
08:38
subjectssoggetti to see more patternsmodelli
215
503000
2000
che gli individui vedessero più schemi
08:40
than those that did not receivericevere the dopaminedopamina.
216
505000
2000
di coloro che non avevano ricevuto la dopamina.
08:42
So dopaminedopamina appearsappare to be the drugdroga
217
507000
2000
Per cui la dopamina sembrerebbe essere la droga
08:44
associatedassociato with patternicityschemicità.
218
509000
2000
associata alla schemicità.
08:46
In factfatto, neurolepticneurolettico drugsfarmaci
219
511000
2000
Infatti, le medicine neurolettiche
08:48
that are used to eliminateeliminare psychoticpsicotico behaviorcomportamento,
220
513000
2000
che sono usate per eliminare comportamenti psicotici
08:50
things like paranoiaparanoia, delusionsdeliri
221
515000
2000
cose come la paranoia, le illusioni
08:52
and hallucinationsallucinazioni,
222
517000
2000
e le allucinazioni,
08:54
these are patternicitiesschemicità.
223
519000
2000
si tratta di schemicità.
08:56
They're incorrectnon corretto patternsmodelli. They're falsefalso positivespositivi. They're TypeTipo I errorserrori.
224
521000
3000
Si tratta di schemi sbagliati. Sono falsi positivi. Errori di tipo I.
08:59
And if you give them drugsfarmaci
225
524000
2000
E se gli date delle medicine
09:01
that are dopaminedopamina antagonistsantagonisti,
226
526000
2000
che sono antagonisti della dopamina
09:03
they go away.
227
528000
2000
spariscono.
09:05
That is, you decreasediminuire the amountquantità of dopaminedopamina,
228
530000
2000
Cioè, diminuendo l'ammontare di dopamina
09:07
and theirloro tendencytendenza to see
229
532000
2000
la loro tendenza a vedere
09:09
patternsmodelli like that decreasesdiminuisce.
230
534000
2000
schemi come quelli diminuisce.
09:11
On the other handmano, amphetaminesanfetamine like cocainecocaina
231
536000
3000
D'altro canto, le anfetamine come la cocaina
09:14
are dopaminedopamina agonistsagonisti.
232
539000
2000
sono agonisti della dopamina.
09:16
They increaseaumentare the amountquantità of dopaminedopamina.
233
541000
2000
Incrementano l'ammontare di dopamina
09:18
So you're more likelyprobabile to feel in a euphoriceuforico statestato,
234
543000
3000
Per cui è più probabile trovarsi in uno stato euforico,
09:21
creativitycreatività, find more patternsmodelli.
235
546000
2000
creativi, trovare più connessioni.
09:23
In factfatto, I saw RobinRobin WilliamsWilliams recentlyrecentemente
236
548000
2000
Di fatto, ho di recente sentito Robin Williams
09:25
talk about how he thought he was much funnierpiù divertente
237
550000
2000
parlare di come pensasse di essere molto più divertente
09:27
when he was doing cocainecocaina, when he had that issueproblema, than now.
238
552000
3000
quando si faceva di cocaina, quando aveva quel problema, che adesso.
09:30
So perhapsForse more dopaminedopamina
239
555000
2000
Per cui forse, più dopamina
09:32
is relatedrelazionato to more creativitycreatività.
240
557000
2000
è legata a più creatività.
09:34
DopamineDella dopamina, I think, changesi cambiamenti
241
559000
2000
La dopamina, penso, cambia
09:36
our signal-to-noisesegnale-rumore ratiorapporto.
242
561000
2000
il nostro rapporto segnale-rumore
09:38
That is, how accuratepreciso we are
243
563000
2000
Cioè, quanto accurati siamo
09:40
in findingscoperta patternsmodelli.
244
565000
2000
nel trovare schemi.
09:42
If it's too lowBasso, you're more likelyprobabile to make too manymolti TypeTipo IIII errorserrori.
245
567000
3000
Se è troppo basso, è più probabile che si commettano più errori di tipo II.
09:45
You missPerdere the realvero patternsmodelli. You don't want to be too skepticalscettico.
246
570000
2000
Si perdono gli schemi reali. Non si vuole essere troppo scettici.
09:47
If you're too skepticalscettico, you'llpotrai missPerdere the really interestinginteressante good ideasidee.
247
572000
3000
Se si è troppo scettici, si perdono le idee veramente interessanti.
09:51
Just right, you're creativecreativo, and yetancora you don't fallautunno for too much baloneymortadella.
248
576000
3000
In misura giusta, sei creativo ma non caschi per qualsiasi idiozia,
09:54
Too highalto and maybe you see patternsmodelli everywhereovunque.
249
579000
3000
Un livello troppo elevato e probabilmente si vedono schemi dappertutto.
09:57
EveryOgni time somebodyqualcuno lookssembra at you, you think people are staringfissando at you.
250
582000
3000
Ogni volta che qualcuno ti guarda, credi che ti stiano osservando.
10:00
You think people are talkingparlando about you.
251
585000
2000
Pensi che le persone stiano parlando di te.
10:02
And if you go too farlontano on that, that's just simplysemplicemente
252
587000
2000
E se si spinge troppo in là, viene semplicemente
10:04
labeledcon l'etichetta as madnessfollia.
253
589000
2000
etichettata come pazzia.
10:06
It's a distinctiondistinzione perhapsForse we mightpotrebbe make
254
591000
2000
Si tratta di una distinzione che probabilmente va fatta
10:08
betweenfra two NobelNobel laureatesvincitori, RichardRichard FeynmanFeynman
255
593000
2000
tra due premi Nobel, Richard Feynman
10:10
and JohnJohn NashNash.
256
595000
2000
e John Nash.
10:12
One seesvede maybe just the right numbernumero
257
597000
2000
Uno vede, forse, il numero esatto
10:14
of patternsmodelli to winvincere a NobelNobel PrizePremio.
258
599000
2000
di schemi per vincere un premio Nobel.
10:16
The other one alsoanche, but maybe too manymolti patternsmodelli.
259
601000
2000
L'altro pure, ma forse con troppi schemi.
10:18
And we then call that schizophreniaschizofrenia.
260
603000
3000
Ed è ciò che chiamiamo schizofrenia.
10:21
So the signal-to-noisesegnale-rumore ratiorapporto then presentsregali us with a pattern-detectionrilevamento del problemproblema.
261
606000
3000
Per cui il rapporto segnale-rumore ci mette davanti ad un problema di individuazione di schemi
10:24
And of coursecorso you all know exactlydi preciso
262
609000
2000
E naturalmente, tutti voi sapete esattamente
10:26
what this is, right?
263
611000
2000
che cosa è questo, giusto.
10:28
And what patternmodello do you see here?
264
613000
2000
E che cosa vedete qui?
10:30
Again, I'm puttingmettendo your anterioranteriore cingulatecingolata cortexcorteccia to the testTest here,
265
615000
3000
Sto mettendo nuovamente alla prova la vostra corteccia cingolata, qui,
10:33
causingcausando you conflictingin conflitto patternmodello detectionsrilevamenti.
266
618000
3000
portandovi ad individuare degli schemi in conflitto.
10:36
You know, of coursecorso, this is ViaVia UnoUno shoesscarpe.
267
621000
2000
Sapete, naturalmente, che si tratta di scarpe Via Uno.
10:38
These are sandalssandali.
268
623000
3000
Sono dei sandali.
10:41
PrettyPiuttosto sexysexy feetpiedi, I mustdovere say.
269
626000
3000
Devo dire, dei piedi molto sexy.
10:44
Maybe a little PhotoshoppedPhotoshopped.
270
629000
2000
Forse un po' ritoccati con photoshop.
10:46
And of coursecorso, the ambiguousambiguo figuresfigure
271
631000
2000
E naturalmente, le immagini ambigue,
10:48
that seemsembrare to flip-flopFlip-flop back and forthvia.
272
633000
2000
che sembrano saltellare avanti ed indietro.
10:50
It turnsgiri out what you're thinkingpensiero about a lot
273
635000
2000
Pare che quello a cui pensiamo spesso
10:52
influencesinfluenze what you
274
637000
2000
influenzi quello che
10:54
tendtendere to see.
275
639000
2000
tendiamo a vedere.
10:56
And you see the lamplampada here, I know.
276
641000
2000
E so che qui vedete la lampada.
10:58
Because the lightsluci on here.
277
643000
3000
perché la luce è accesa qui.
11:01
Of coursecorso, thanksGrazie to the environmentalistambientalista movementmovimento
278
646000
2000
naturalmente, grazie al movimento ambientalista,
11:03
we're all sensitivesensibile to the plightsituazione critica of marineMarine mammalsmammiferi.
279
648000
3000
siamo tutti sensibili alla causa dei mammiferi marini.
11:06
So what you see in this particularparticolare ambiguousambiguo figurefigura
280
651000
3000
Per cui quello che vedete in questa immagine ambigua,
11:09
is, of coursecorso, the dolphinsdelfini, right?
281
654000
2000
sono, naturalmente, dei delfini, giusto?
11:11
You see a dolphinDelfino here,
282
656000
2000
Vedete un delfino qui.
11:13
and there's a dolphinDelfino,
283
658000
2000
E c'è un delfino.
11:15
and there's a dolphinDelfino.
284
660000
2000
E c'è un delfino.
11:17
That's a dolphinDelfino tailcoda there, guys.
285
662000
3000
E c'è una coda di delfino qui, ragazzi.
11:20
(LaughterRisate)
286
665000
3000
(Risate)
11:25
If we can give you conflictingin conflitto datadati, again,
287
670000
3000
Se possiamo darvi nuovamente, dei dati in conflitto tra loro,
11:28
your ACCACC is going to be going into hyperdrivehyperdrive.
288
673000
3000
la vostra ACC andrà in iperattività.
11:31
If you look down here, it's fine. If you look up here, then you get conflictingin conflitto datadati.
289
676000
3000
Se guardate qui giù, va bene. Se guardate qui su, avete informazioni in conflitto.
11:34
And then we have to flipFlip the imageImmagine
290
679000
2000
E dobbiamo girare l'immagine
11:36
for you to see that it's a setimpostato up.
291
681000
2000
per vedere che si tratta di una montatura.
11:40
The impossibleimpossibile cratecassa illusionillusione.
292
685000
2000
L'illusione della scatola impossibile.
11:42
It's easyfacile to foolscemo the braincervello in 2D.
293
687000
2000
È facile prendersi gioco del cervello in 2 dimensioni.
11:44
So you say, "AwAWW, come on ShermerShermer, anybodynessuno can do that
294
689000
2000
Potete dire, "Ma dai Shermer, chiunque può farlo
11:46
in a PsychPsych 101 texttesto with an illusionillusione like that."
295
691000
2000
in un testo di psicologia di base con un illusione come quella"
11:48
Well here'secco the latein ritardo, great JerryJerry Andrus''Andrus
296
693000
2000
Be', questo è il grande Jerry Andrus, da anziano
11:50
"impossibleimpossibile cratecassa" illusionillusione in 3D,
297
695000
3000
con la sua illusione tridimensionale "scatola impossibile",
11:53
in whichquale JerryJerry is standingin piedi insidedentro
298
698000
2000
nella quale Jerry si trova in piedi dentro
11:55
the impossibleimpossibile cratecassa.
299
700000
2000
alla scatola impossibile.
11:57
And he was kindgenere enoughabbastanza to postinviare this
300
702000
2000
E fu così gentile da aggiungere questo
11:59
and give us the revealsvelare.
301
704000
2000
e rivelarci la verità.
12:01
Of coursecorso, cameramacchina fotografica angleangolo is everything. The photographerfotografo is over there,
302
706000
3000
Naturalmente l'angolo della fotografia è tutto. Il fotografo è là.
12:04
and this boardtavola appearsappare to overlapsovrapposizione with this one, and this one with that one, and so on.
303
709000
3000
E questo bordo sembra sovrapporsi a questo, e questo qui a quest'altro, e così via,
12:07
But even when I take it away,
304
712000
2000
ma anche quando lo tolgo,
12:09
the illusionillusione is so powerfulpotente because of how are brainsmente are wiredcablata
305
714000
2000
l'illusione è così forte, a dimostrazione di come i nostri cervelli siano fatti
12:11
to find those certaincerto kindstipi of patternsmodelli.
306
716000
3000
per trovare quel tipo di schemi.
12:14
This is a fairlyabbastanza newnuovo one
307
719000
2000
Questo è uno relativamente nuovo
12:16
that throwsgetta us off because of the conflictingin conflitto patternsmodelli
308
721000
2000
che ci confonde a causa degli schemi contrastanti
12:18
of comparingconfrontando this angleangolo with that angleangolo.
309
723000
3000
nel confrontare questo angolo con quell'angolo.
12:21
In factfatto, it's the exactesatto samestesso pictureimmagine sidelato by sidelato.
310
726000
3000
In effetti, è la stessa immagine affiancata.
12:24
So what you're doing is comparingconfrontando that angleangolo
311
729000
2000
Quello che state facendo è confrontare quell'angolo
12:26
insteadanziché of with this one, but with that one.
312
731000
2000
invece che con questo, con quell'angolo.
12:28
And so your braincervello is fooledingannare.
313
733000
2000
Per cui il vostro cervello è preso in giro.
12:30
YetAncora again, your patternmodello detectionrivelazione devicesdispositivi are fooledingannare.
314
735000
2000
E di nuovo, i vostri strumenti di identificazione schemi sono stati presi in giro.
12:32
FacesVolti are easyfacile to see
315
737000
2000
le facce sono facili da vedere
12:34
because we have an additionalUlteriori evolvedevoluto
316
739000
2000
perché abbiamo un programma aggiuntivo
12:36
facialtrattamento viso recognitionriconoscimento softwareSoftware
317
741000
2000
ed evoluto di riconoscimento facciale,
12:38
in our temporaltemporale lobeslobi.
318
743000
3000
nei nostri lobi temporali.
12:41
Here'sQui è some facesfacce on the sidelato of a rockroccia.
319
746000
3000
Ecco alcune facce in una roccia.
12:44
I'm actuallyin realtà not even sure if this is -- this mightpotrebbe be PhotoshoppedPhotoshopped.
320
749000
3000
Tra l'altro non sono nemmeno sicuro -- questa foto potrebbe essere ritoccata al computer
12:47
But anywaycomunque, the pointpunto is still madefatto.
321
752000
2000
Ma comunque, il punto è sempre valido.
12:49
Now whichquale one of these lookssembra odddispari to you?
322
754000
2000
Adesso, quale di questi vi sembra strano?
12:51
In a quickveloce reactionreazione, whichquale one lookssembra odddispari?
323
756000
2000
Spontaneamente, quale vi sembra strano?
12:53
The one on the left. Okay. So I'll rotateruotare it
324
758000
2000
Quello a sinistra. Ok, allora lo giro
12:55
so it'llsara be the one on the right.
325
760000
2000
cosicché sia quello a destra.
12:57
And you are correctcorretta.
326
762000
2000
E avete ragione.
12:59
A fairlyabbastanza famousfamoso illusionillusione -- it was first donefatto with MargaretMargaret ThatcherThatcher.
327
764000
3000
Un'illusione abbastanza famosa -- realizzata per la prima volta con Margaret Thatcher.
13:02
Now, they tradecommercio up the politicianspolitici everyogni time.
328
767000
2000
adesso, scambiano i politici ogni volta.
13:04
Well, why is this happeningavvenimento?
329
769000
2000
Ebbene, perché questo succede?
13:06
Well, we know exactlydi preciso where it happensaccade,
330
771000
2000
Be', sappiamo esattamente dove avviene,
13:08
in the temporaltemporale lobeLobo, right acrossattraverso, sortordinare of abovesopra your earorecchio there,
331
773000
3000
nel lobo temporale, giusto dietro l'orecchio.
13:11
in a little structurestruttura calledchiamato the fusiformfusiforme gyruscirconvoluzione.
332
776000
3000
In una piccola struttura chiamata il giro fusiforme.
13:14
And there's two typestipi of cellscellule that do this,
333
779000
2000
E ci sono due tipi di cellule che fanno questo,
13:16
that recorddisco facialtrattamento viso featuresCaratteristiche eithero globallyglobalmente,
334
781000
3000
che registrano i lineamenti facciali, o globalmente,
13:19
or specificallyspecificamente these largegrande, rapid-firingveloce-infornamento cellscellule,
335
784000
2000
o specificamente; queste cellule a fuoco rapido
13:21
first look at the generalgenerale faceviso.
336
786000
2000
guardano dapprima alla faccia in generale.
13:23
So you recognizericonoscere ObamaObama immediatelysubito.
337
788000
2000
Per cui riconoscete Obama immediatamente.
13:25
And then you noticeAvviso something quiteabbastanza
338
790000
2000
E poi notate qualcosa di strano
13:27
a little bitpo odddispari about the eyesocchi and the mouthbocca.
339
792000
2000
intorno agli occhi e alla bocca.
13:29
EspeciallySoprattutto when they're upsidesottosopra down,
340
794000
2000
Specialmente quando sono sotto sopra.
13:31
you're engagingavvincente that generalgenerale facialtrattamento viso recognitionriconoscimento softwareSoftware there.
341
796000
3000
State utilizzando il programma di riconoscimento facciale in quel caso.
13:34
Now I said back in our little thought experimentsperimentare,
342
799000
3000
Come dicevo prima, nel nostro piccolo esperimento mentale,
13:37
you're a hominidominide walkinga passeggio on the plainspianure of AfricaAfrica.
343
802000
2000
siete un ominide che cammina nella pianura Africana.
13:39
Is it just the windvento or a dangerouspericoloso predatorPredator?
344
804000
3000
Si tratta del vento o di un pericoloso predatore?
13:42
What's the differencedifferenza betweenfra those?
345
807000
2000
Qual è la differenza tra i due?
13:44
Well, the windvento is inanimateinanimato;
346
809000
2000
Be', il vento è inanimato,
13:46
the dangerouspericoloso predatorPredator is an intentionalintenzionale agentagente.
347
811000
2000
il predatore pericoloso è un agente intenzionale.
13:48
And I call this processprocesso agenticityagenticità.
348
813000
2000
E questo processo lo chiamo "agenticità"
13:50
That is the tendencytendenza to infuseinfondere patternsmodelli
349
815000
2000
ossia la tendenza a infondere negli schemi
13:52
with meaningsenso, intentionIntenzione and agencyagenzia,
350
817000
2000
significato, intenzione ed azione,
13:54
oftenspesso invisibleinvisibile beingsesseri from the topsuperiore down.
351
819000
3000
spesso esseri invisibili dal migliore al peggiore.
13:57
This is an ideaidea that we got
352
822000
2000
Questa è un'idea che abbiamo
13:59
from a fellowcompagno TEDsterTed here, DanDan DennettDennett,
353
824000
2000
ricevuto da un collega di TED, Dan Dennett,
14:01
who talkedparlato about takingpresa the intentionalintenzionale stanceposizione.
354
826000
2000
che ha parlato di attitudini mentali.
14:03
So it's a typetipo of that expandedallargato to explainspiegare, I think, a lot of differentdiverso things:
355
828000
3000
Si tratta di una idea estesa che spiega molte cose,
14:06
soulsanime, spiritsspiriti, ghostsfantasmi, godsdi Dio, demonsdemoni, angelsAngeli,
356
831000
3000
anime, spiriti, fantasmi, dei, demoni, angeli,
14:09
aliensalieni, intelligentintelligente designersprogettisti,
357
834000
2000
alieni, designer intelligenti,
14:11
governmentgoverno conspiracistscospirazionisti
358
836000
2000
cospirazioni governative
14:13
and all mannermaniera of invisibleinvisibile agentsagenti
359
838000
2000
e tutti i tipi di agenti invisibili
14:15
with powerenergia and intentionIntenzione, are believedcreduto
360
840000
2000
con poteri ed intenzioni, si crede
14:17
to hauntritrovo our worldmondo and controlcontrollo our livesvite.
361
842000
2000
che seguano il nostro mondo e controllino le nostre vite.
14:19
I think it's the basisbase of animismanimismo
362
844000
2000
Credo che si tratti della base dell'animismo
14:21
and polytheismpoliteismo and monotheismmonoteismo.
363
846000
3000
e del politeismo e monoteismo.
14:24
It's the beliefcredenza that aliensalieni are somehowin qualche modo
364
849000
2000
Si tratta della convinzione che gli alieni siano in qualche modo
14:26
more advancedAvanzate than us, more moralmorale than us,
365
851000
2000
più avanzati di noi, più etici di noi,
14:28
and the narrativesnarrazioni always are
366
853000
2000
e la storia è sempre la stessa,
14:30
that they're comingvenuta here to savesalvare us and rescuesalvare us from on highalto.
367
855000
3000
ossia che stanno venendo a salvarci e soccorrerci dall'alto.
14:33
The intelligentintelligente designer'sdesigner always portrayedraffigurato
368
858000
2000
Il designer intelligente è sempre descritto
14:35
as this supersuper intelligentintelligente, moralmorale beingessere
369
860000
3000
come questo essere intelligentissimo ed etico
14:38
that comesviene down to designdesign life.
370
863000
2000
che viene qui per creare la vita.
14:40
Even the ideaidea that governmentgoverno can rescuesalvare us --
371
865000
2000
Anche l'idea che il governo ci possa salvare.
14:42
that's no longerpiù a lungo the waveonda of the futurefuturo,
372
867000
2000
Non è più l'onda del futuro.
14:44
but that is, I think, a typetipo of agenticityagenticità:
373
869000
2000
Ma si tratta credo, di un tipo di agenticità,
14:46
projectingsporgente somebodyqualcuno up there,
374
871000
2000
la proiezione di qualcuno lì in alto,
14:48
biggrande and powerfulpotente, will come rescuesalvare us.
375
873000
2000
grande e potente che verrà a salvarci.
14:50
And this is alsoanche, I think, the basisbase of conspiracycospirazione theoriesteorie.
376
875000
2000
Ed è anche la base, credo, delle teorie cospirative.
14:52
There's somebodyqualcuno hidingnascondere behinddietro a there pullingtraino the stringsstringhe,
377
877000
3000
C'è qualcuno che di nascosto tira le fila,
14:55
whetherse it's the IlluminatiIlluminati
378
880000
2000
che si tratti degli Illuminati
14:57
or the BilderbergersBilderbergers.
379
882000
2000
o del gruppo Bilderberg.
14:59
But this is a patternmodello detectionrivelazione problemproblema, isn't it?
380
884000
2000
Ma si tratta di un problema di identificazione di schemi, giusto?
15:01
Some patternsmodelli are realvero and some are not.
381
886000
2000
Alcuni schemi sono veri, altri non lo sono.
15:03
Was JFKJFK assassinatedassassinato by a conspiracycospirazione or by a lonesolitario assassinassassino?
382
888000
3000
JFK fu assassinato da una cospirazione o da un assassino?
15:06
Well, if you go there -- there's people there on any givendato day --
383
891000
3000
Be' se ci andate -- ci sono persone lì ogni giorno --
15:09
like when I wentandato there, here -- showingmostrando me where the differentdiverso shooterstiratori were.
384
894000
3000
che ti mostrano dove i diversi cecchini si trovavano.
15:12
My favoritefavorito one was he was in the manholetombino.
385
897000
3000
La mia teoria preferita è che si trovasse in un tombino.
15:15
And he poppedspuntato out at the last secondsecondo, tookha preso that shottiro.
386
900000
3000
Ed è saltato fuori all'ultimo momento, ed ha sparato.
15:18
But of coursecorso, LincolnLincoln was assassinatedassassinato by a conspiracycospirazione.
387
903000
2000
E naturalmente, Lincoln fu assassinato da una cospirazione.
15:20
So we can't just uniformlyuniformemente dismisschiudere
388
905000
2000
Per cui non possiamo scartare uniformemente
15:22
all patternsmodelli like that.
389
907000
2000
tutti gli schemi come quello.
15:24
Because, let's faceviso it, some patternsmodelli are realvero.
390
909000
2000
Perché, ammettiamolo, alcuni schemi sono veri.
15:26
Some conspiraciescospirazioni really are truevero.
391
911000
2000
Alcune cospirazioni sono realmente vere.
15:30
ExplainsSpiega a lot, maybe.
392
915000
2000
Spiega molte cose, forse.
15:32
And 9/11 has a conspiracycospirazione theoryteoria. It is a conspiracycospirazione.
393
917000
3000
E l'11 settembre ha una teoria cospirativa. È una cospirazione.
15:35
We did a wholetotale issueproblema on it.
394
920000
2000
Ci abbiamo dedicato tutto un numero.
15:37
NineteenDiciannove membersmembri of AlAl QuedaQueda plottingplottaggio to flyvolare planesaerei into buildingsedifici
395
922000
2000
19 membri di Al Qaida che tramano di abbattere degli aerei su degli edifici
15:39
constitutescostituisce a conspiracycospirazione.
396
924000
2000
costituisce una cospirazione.
15:41
But that's not what the "9/11 trutherstruthers" think.
397
926000
2000
Ma non è quello che "il movimento per la verità" pensa.
15:43
They think it was an insidedentro joblavoro by the BushBush administrationamministrazione.
398
928000
3000
Loro credono che si sia trattato di un lavoro interno dell'amministrazione Bush.
15:46
Well, that's a wholetotale other lectureconferenza.
399
931000
2000
Be', si tratta di una chiave di lettura completamente differente.
15:48
You know how we know that 9/11
400
933000
2000
Ma voi sapete come sappiamo che l'11 settembre
15:50
was not orchestratedorchestrato by the BushBush administrationamministrazione?
401
935000
2000
non fu orchestrato dall'amministrazione Bush?
15:52
Because it workedlavorato.
402
937000
2000
Perché funzionò.
15:54
(LaughterRisate)
403
939000
3000
(Risate)
15:57
(ApplauseApplausi)
404
942000
3000
(Applausi)
16:00
So we are natural-bornnaturale-Nato dualistsdualisti.
405
945000
2000
Siamo dei dualisti nati,
16:02
Our agenticityagenticità processprocesso comesviene from
406
947000
2000
Il nostro processo di agenticità viene
16:04
the factfatto that we can enjoygodere moviesfilm like these.
407
949000
2000
dal fatto che possiamo goderci film come questi.
16:06
Because we can imagineimmaginare, in essenceessenza,
408
951000
2000
Perché in sostanza, possiamo immaginare
16:08
continuingcontinua on.
409
953000
2000
di continuare.
16:10
We know that if you stimulatestimolare the temporaltemporale lobeLobo,
410
955000
2000
Sappiamo che, se stimoliamo il lobo temporale,
16:12
you can produceprodurre a feelingsensazione of out-of-bodyfuori dal corpo experiencesesperienze,
411
957000
2000
si può creare una sensazione di esperienza fuori dal corpo,
16:14
near-deathvicino-morte experiencesesperienze,
412
959000
2000
o di esperienze di pre-morte,
16:16
whichquale you can do by just touchingtoccante an electrodeelettrodo to the temporaltemporale lobeLobo there.
413
961000
3000
cosa che può essere fatta semplicemente toccando con un elettrodo il lobo temporale qui.
16:19
Or you can do it throughattraverso lossperdita of consciousnesscoscienza,
414
964000
2000
O si può fare tramite perdita di coscienza,
16:21
by acceleratingaccelerando in a centrifugecentrifuga.
415
966000
2000
tramite accelerazione in una centrifuga.
16:23
You get a hypoxiaipossia, or a lowerinferiore oxygenossigeno.
416
968000
3000
Ti trovi in ipossia, o basso livello di ossigeno,
16:26
And the braincervello then sensessensi
417
971000
2000
ed il cervello registra
16:28
that there's an out-of-bodyfuori dal corpo experienceEsperienza.
418
973000
2000
un'esperienza fuori dal corpo.
16:30
You can use -- whichquale I did, wentandato out and did --
419
975000
2000
Si può usare -- cosa che ho fatto, sono uscito e ho fatto --
16:32
MichaelMichael Persinger'sDi Persinger God HelmetCasco,
420
977000
2000
il casco di Dio di Michael Persinger,
16:34
that bombardsbombarda your temporaltemporale lobeslobi with electromagneticelettromagnetica wavesonde.
421
979000
2000
che bombarda i tuoi lobi temporali con delle onde elettromagnetiche
16:36
And you get a sensesenso of out-of-bodyfuori dal corpo experienceEsperienza.
422
981000
3000
e a te sembra di essere fuori dal corpo.
16:39
So I'm going to endfine here with a shortcorto videovideo clipclip
423
984000
2000
Termino qui lasciandovi con un video
16:41
that sortordinare of bringsporta all this togetherinsieme.
424
986000
2000
che in qualche modo riassume tutto.
16:43
It's just a minuteminuto and a halfmetà.
425
988000
2000
Si tratta di un minuto e mezzo.
16:45
It tiescravatte togetherinsieme all this into the powerenergia of expectationaspettativa and the powerenergia of beliefcredenza.
426
990000
3000
Mette tutto insieme, il potere della speranza e di convinzione.
16:48
Go aheadavanti and rollrotolo it.
427
993000
2000
Mandate il video.
16:50
NarratorAssistente vocale: This is the venuesede they chosescelto for theirloro fakefalso auditionsaudizioni
428
995000
3000
Narratore: questo è il luogo scelto per una falsa audizione
16:53
for an advertannuncio for liplabbro balmBalsamo.
429
998000
2000
per una pubblicità per un burro di cacao.
16:55
WomanDonna: We're hopingsperando we can use partparte of this
430
1000000
2000
Donna: Speriamo di poter usare una parte di questo
16:57
in a nationalnazionale commercialcommerciale, right?
431
1002000
2000
per una pubblicità nazionale.
16:59
And this is testTest on some liplabbro balmsbalsami
432
1004000
2000
Si tratta di un test su alcuni burri di cacao
17:01
that we have over here.
433
1006000
2000
che abbiamo qui.
17:03
And these are our modelsModelli who are going to help us,
434
1008000
2000
E questi sono i modelli che ci aiuteranno,
17:05
RogerRoger and MattMatt.
435
1010000
2000
Roger e Matt.
17:07
And we have our ownproprio liplabbro balmBalsamo,
436
1012000
2000
Qui abbiamo il nostro burro di cacao,
17:09
and we have a leadingprincipale brandmarca.
437
1014000
2000
ed abbiamo una marca popolare.
17:11
Would you have any problemproblema
438
1016000
2000
Sarebbe un problema per te
17:13
kissingbaci our modelsModelli to testTest it?
439
1018000
2000
baciare i nostri modelli per provarlo?
17:15
GirlRagazza: No.
440
1020000
2000
Ragazza: No.
17:17
WomanDonna: You wouldn'tno? (GirlRagazza: No.) WomanDonna: You'dSi farebbe think that was fine.
441
1022000
2000
-Non sarebbe un problema? -No. -Credi che vada bene.
17:19
GirlRagazza: That would be fine. (WomanDonna: Okay.)
442
1024000
2000
Ragazza: Benissimo. Donna: Ok.
17:21
So this is a blindcieco testTest.
443
1026000
3000
Questo è un test cieco.
17:24
I'm going to askChiedere you to go aheadavanti
444
1029000
2000
Ti chiederò di iniziare
17:26
and put a blindfoldbenda on.
445
1031000
2000
mettendo una benda.
17:29
KayKay, now can you see anything? (GirlRagazza: No.)
446
1034000
3000
Ora vedi qualcosa? Ragazza: No.
17:32
PullTirare it so you can't even see down. (GirlRagazza: Okay.)
447
1037000
2000
Tiralo giù, cosicché tu non possa nemmeno vedere in basso. Ragazza:OK.
17:34
WomanDonna: It's completelycompletamente blindcieco now, right?
448
1039000
2000
Donna: non vedi niente adesso, giusto?
17:36
GirlRagazza: Yes. (WomanDonna: Okay.)
449
1041000
2000
Ragazza: Si. Donna:OK.
17:38
Now, what I'm going to be looking for in this testTest
450
1043000
3000
Bene, quello che voglio scoprire con questo test
17:41
is how it protectsprotegge your lipslabbra,
451
1046000
3000
è come protegge le tue labbra,
17:44
the texturestruttura, right,
452
1049000
2000
la consistenza, ok?
17:46
and maybe if you can discerndiscernere any flavorsapore or not.
453
1051000
3000
e possibilmente se distingui alcun sapore o no?
17:49
GirlRagazza: Okay. (WomanDonna: Have you ever donefatto a kissingbaci testTest before?)
454
1054000
3000
Ragazza: OK. Donna: Hai mai fatto un test con bacio in vita tua?
17:52
GirlRagazza: No.
455
1057000
2000
Ragazza: No.
17:54
WomanDonna: Take a steppasso here.
456
1059000
2000
Donna: Fai un passo avanti.
17:56
Okay, now I'm going to askChiedere you to puckergrinza up.
457
1061000
2000
ok, adesso voglio che tu sporga le tue labbra.
17:58
PuckerGrinza up biggrande and leanmagro in just a little bitpo, okay?
458
1063000
3000
Sporgi le labbra in maniera chiara e netta, ok?
18:06
(MusicMusica)
459
1071000
4000
(Musica)
18:10
(LaughterRisate)
460
1075000
5000
(Risate)
18:19
(LaughterRisate)
461
1084000
3000
(Risate)
18:30
WomanDonna: Okay.
462
1095000
2000
OK.
18:32
And, JenniferJennifer, how did that feel?
463
1097000
2000
Allora Jennifer, come ti è sembrato?
18:34
JenniferJennifer: Good.
464
1099000
2000
Jennifer: Buono.
18:36
(LaughterRisate)
465
1101000
7000
(Risate)
18:43
GirlRagazza: Oh my God!
466
1108000
2000
Ragazza: Oh mio Dio!
18:45
(LaughterRisate)
467
1110000
4000
(Risate)
18:50
MichaelMichael ShermerShermer: Thank you very much. Thank you. ThanksGrazie.
468
1115000
3000
Michael Shermer. Grazie mille. Grazie a tutti. Grazie.
Translated by Roberta Mura
Reviewed by Giacomo Boschi

▲Back to top

ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com