ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com
TED2010

Michael Shermer: The pattern behind self-deception

Le modèle de l'auto-déception par Michael Shermer

Filmed:
2,854,890 views

Michael Shermer nous dit que la tendance humaine à croire des choses étranges -- du kidnapping par des extra-terrestres aux bâtons de sourcier -- vient de deux des réflexes de survie qui sont ancrés dans notre cerveau. Il explique ici ce qu'ils sont et comment ils peuvent nous compliquer la vie.
- Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market. Full bio

Double-click the English transcript below to play the video.

00:16
So sincedepuis I was here last in '06,
0
1000
3000
Depuis la dernière fois que j'étais ici, en 2006,
00:19
we discovereddécouvert that globalglobal climateclimat changechangement
1
4000
2000
nous avons découvert que le changement climatique mondial
00:21
is turningtournant out to be a prettyjoli serioussérieux issueproblème,
2
6000
2000
s'avère être un problème vraiment sérieux.
00:23
so we coveredcouvert that fairlyéquitablement extensivelylargement
3
8000
2000
Donc avons donc couvert le sujet assez complètement
00:25
in SkepticSceptique magazinemagazine.
4
10000
2000
dans Skeptic magazine.
00:27
We investigateenquêter all kindssortes
5
12000
2000
Nous analysons toutes sortes
00:29
of scientificscientifique and quasi-scientificquasi scientifique controversiescontroverses,
6
14000
3000
de controverses scientifiques et quasi-scientifiques.
00:32
but it turnsse tourne out we don't have to worryinquiéter about any of this
7
17000
2000
Mais finalement nous n'avons pas à nous faire de soucis sur ce sujet
00:34
because the world'smonde going to endfin in 2012.
8
19000
2000
puisque la fin du monde va arriver en 2012.
00:36
AnotherUn autre updatemettre à jour:
9
21000
2000
D'autres nouvelles :
00:38
You will recallrappel I introducedintroduit you guys
10
23000
2000
Vous vous rappelez sûrement que je vous avais
00:40
to the QuadroQuadro TrackerTracker.
11
25000
2000
présenté le Quadro Tracker.
00:42
It's like a watereau dowsingla radiesthésie devicedispositif.
12
27000
2000
C'est une sorte d'engin radiesthésique qui détecte l'eau.
00:44
It's just a hollowcreux piecepièce of plasticPlastique with an antennaantenne that swivelsjoints à rotule around.
13
29000
3000
C'est juste un tube en plastique avec une antenne qui tourne.
00:47
And you walkmarche around, and it pointspoints to things.
14
32000
2000
Et vous marchez et il pointe des choses.
00:49
Like if you're looking for marijuanamarijuana in students'élèves' lockersCasiers,
15
34000
3000
Par exemple, vous cherchez du cannabis dans les vestiaires des étudiants,
00:52
it'llça va pointpoint right to somebodyquelqu'un.
16
37000
2000
et il pointera directement vers quelqu'un.
00:54
Oh, sorry. (LaughterRires)
17
39000
2000
Oh, désolé. (rires)
00:56
This particularparticulier one that was givendonné to me
18
41000
2000
On m'a donné cette mission particulière
00:58
findstrouve golfle golf ballsdes balles,
19
43000
2000
de trouver des balles de golf,
01:00
especiallynotamment if you're at a golfle golf coursecours
20
45000
2000
spécialement si vous êtes sur un terrain de golf
01:02
and you checkvérifier underen dessous de enoughassez bushesdes buissons.
21
47000
3000
et que vous regardez en dessous d'assez de buissons.
01:05
Well, underen dessous de the categoryCatégorie of "What's the harmnuire of sillyidiot stuffdes trucs like this?"
22
50000
3000
Et bien, dans la catégorie "Quel mal pourrait faire un truc idiot comme cela ?"
01:08
this devicedispositif, the ADEADE 651,
23
53000
3000
cet engin, le ADE 651,
01:11
was soldvendu to the IraqiIrakien governmentgouvernement
24
56000
3000
a été vendu au gouvernement iraquien
01:14
for 40,000 dollarsdollars apieceun morceau.
25
59000
2000
à 40,000 dollars l'unité.
01:16
It's just like this one, completelycomplètement worthlesssans valeur,
26
61000
2000
C'est exactement comme celui-ci, complètement inutile,
01:18
in whichlequel it allegedlyprétendument workedtravaillé by "electrostaticélectrostatique
27
63000
2000
qui marcherait soit disant par "attraction électrostatique
01:20
magneticmagnétique ionion attractionattraction,"
28
65000
3000
magnétique ionique,"
01:24
whichlequel translatesse traduit par to
29
69000
2000
ce qui peut se traduire par
01:26
"pseudoscientificpseudoscientifique baloneyfoutaise" -- would be the niceagréable wordmot --
30
71000
3000
"bêtises pseudo-scientifiques" -- ce serait le bon mot --
01:29
in whichlequel you stringchaîne togetherensemble a bunchbouquet of wordsmots that sounddu son good,
31
74000
2000
dans lequel vous alignez des mots qui sonnent bien,
01:31
but it does absolutelyabsolument nothing.
32
76000
2000
mais qui ne fait absolument rien.
01:33
In this caseCas, at trespassintrusion pointspoints,
33
78000
3000
Dans ce cas, aux points de contrôle,
01:36
allowingen permettant people to go throughpar
34
81000
2000
laisser les gens passer
01:38
because your little trackerTracker devicedispositif said they were okay,
35
83000
3000
parce que votre petit détecteur a dit qu'ils n'étaient pas dangereux,
01:41
actuallyréellement costCoût livesvies.
36
86000
3000
ça peut couter des vies.
01:44
So there is a dangerdanger to pseudosciencepseudoscience,
37
89000
2000
Donc il y a des risques associés à la pseudo-science,
01:46
in believingcroire in this sortTrier of thing.
38
91000
3000
à croire à ce genre de choses.
01:49
So what I want to talk about todayaujourd'hui is beliefcroyance.
39
94000
3000
Et c'est ce dont je veux vous parler aujourd'hui : la croyance.
01:52
I want to believe,
40
97000
2000
Je veux croire,
01:54
and you do too.
41
99000
2000
et vous aussi.
01:56
And in factfait, I think my thesisthèse here is that
42
101000
2000
Et en fait, ma théorie à ce sujet est que
01:58
beliefcroyance is the naturalNaturel stateEtat of things.
43
103000
2000
croire est l'état naturel des choses.
02:00
It is the defaultpar défaut optionoption. We just believe.
44
105000
2000
C'est l'option par défaut. On croit, simplement.
02:02
We believe all sortssortes of things.
45
107000
2000
On croit des tas de choses.
02:04
BeliefCroyance is naturalNaturel;
46
109000
2000
La croyance est naturelle.
02:06
disbeliefincrédulité, skepticismscepticisme, sciencescience, is not naturalNaturel.
47
111000
2000
L'incrédulité, le scepticisme, la science ne sont pas naturels.
02:08
It's more difficultdifficile.
48
113000
2000
C'est plus difficile.
02:10
It's uncomfortableinconfortable to not believe things.
49
115000
2000
C'est inconfortable de ne pas croire aux choses.
02:12
So like FoxFox MulderMulder on "X-FilesX-Files,"
50
117000
3000
Alors qui veut, comme Fox Mulder dans "X-Files,"
02:15
who wants to believe in UFOsOVNIS? Well, we all do,
51
120000
3000
croire aux OVNIs ? Et bien nous tous.
02:18
and the reasonraison for that is because
52
123000
2000
Et c'est parce que
02:20
we have a beliefcroyance enginemoteur in our brainscerveaux.
53
125000
3000
nous avons un moteur à croyance dans nos cerveaux.
02:23
EssentiallyEssentiellement, we are pattern-seekingrecherche de motifs primatesprimates.
54
128000
3000
A la base, nous sommes des primates qui cherchent des modèles.
02:26
We connectrelier the dotspoints: A is connectedconnecté to B; B is connectedconnecté to C.
55
131000
3000
Nous connectons les points : A est connecté à B ; B est connecté à C.
02:29
And sometimesparfois A really is connectedconnecté to B,
56
134000
3000
Et quelques fois A est vraiment connecté à B.
02:32
and that's calledappelé associationassociation learningapprentissage.
57
137000
2000
Et c'est l'apprentissage par associations.
02:34
We find patternsmodèles, we make those connectionsles liaisons,
58
139000
3000
Nous trouvons des modèles, nous faisons des connexions,
02:37
whetherqu'il s'agisse it's Pavlov'sDe Pavlov dogchien here
59
142000
2000
que ce soit le cas du chien de Pavlov
02:39
associatingassociant the sounddu son of the bellcloche with the foodaliments,
60
144000
3000
qui associe le bruit de la cloche à la nourriture,
02:42
and then he salivatessalive to the sounddu son of the bellcloche,
61
147000
2000
et donc le son de la cloche le fait saliver,
02:44
or whetherqu'il s'agisse it's a SkinnerianSkinnerian ratrat,
62
149000
2000
ou que ce soit le rat de Skinner
02:46
in whichlequel he's havingayant an associationassociation
63
151000
2000
qui associe son comportement
02:48
betweenentre his behaviorcomportement and a rewardrécompense for it,
64
153000
2000
et la récompense qu'il obtient
02:50
and thereforedonc he repeatsse répète the behaviorcomportement.
65
155000
2000
et donc répète ce comportement.
02:52
In factfait, what SkinnerSkinner discovereddécouvert
66
157000
2000
En fait, ce que Skinner a découvert
02:54
is that, if you put a pigeonPigeon in a boxboîte like this,
67
159000
3000
c'est que si vous mettez un pigeon dans une boite comme celle-ci,
02:57
and he has to presspresse one of these two keysclés,
68
162000
2000
et il doit appuyer sur un de ces deux boutons,
02:59
and he triesessais to figurefigure out what the patternmodèle is,
69
164000
2000
et il essaye de comprendre le modèle à suivre,
03:01
and you give him a little rewardrécompense in the hoppertrémie boxboîte there --
70
166000
2000
et vous lui donnez de petites récompenses dans la boite, là.
03:03
if you just randomlyau hasard assignattribuer rewardsrécompenses
71
168000
3000
Si vous distribuez les récompenses de façon aléatoire,
03:06
suchtel that there is no patternmodèle,
72
171000
2000
et qu'il n'y a pas de modèle à suivre,
03:08
they will figurefigure out any kindgentil of patternmodèle.
73
173000
2000
ils vont trouver n'importe quel type de modèle.
03:10
And whateverpeu importe they were doing just before they got the rewardrécompense,
74
175000
2000
Et quoi que ce soit qu'ils faisaient avant de recevoir la récompense,
03:12
they repeatrépéter that particularparticulier patternmodèle.
75
177000
2000
ils vont le refaire.
03:14
SometimesParfois it was even spinningfilage around twicedeux fois counterclockwisedans le sens antihoraire,
76
179000
3000
Parfois c'était même tourner deux fois sur soi-même dans le sens inverse des aiguilles d'une montre,
03:17
onceune fois que clockwisedans le sens horaire and peckPeck the keyclé twicedeux fois.
77
182000
3000
une fois dans le sens des aiguilles d'une montre et toucher le bouton deux fois.
03:20
And that's calledappelé superstitionsuperstition,
78
185000
2000
Et c'est ce que l'on appelle la superstition.
03:22
and that, I'm afraidpeur,
79
187000
2000
Et ça, j'en ai peur,
03:24
we will always have with us.
80
189000
2000
nous l'aurons toujours en nous.
03:26
I call this processprocessus "patternicitypatternicity" --
81
191000
2000
J'appelle cette démarche "modélisation",
03:28
that is, the tendencytendance to find meaningfulsignificatif patternsmodèles
82
193000
2000
c'est-à-dire la tendance à trouver des modèles significatifs
03:30
in bothtous les deux meaningfulsignificatif and meaninglesssans signification noisebruit.
83
195000
3000
aussi bien dans du bruit significatif que dans du bruit non significatif.
03:33
When we do this processprocessus, we make two typesles types of errorsles erreurs.
84
198000
3000
Quand on eprocédons ainsi, on fait deux types d'erreurs.
03:36
A TypeType de I errorErreur, or falsefaux positivepositif,
85
201000
2000
Une erreur de Type I, ou faux positif,
03:38
is believingcroire a patternmodèle is realréal
86
203000
2000
est de croire que le modèle existe
03:40
when it's not.
87
205000
2000
quand ce n'est pas le cas.
03:42
Our secondseconde typetype of errorErreur is a falsefaux negativenégatif.
88
207000
2000
Le second type d'erreur est le faux négatif.
03:44
A TypeType de IIII errorErreur is not believingcroire
89
209000
2000
Une erreur de Type II est de ne pas croire qu'il y a un modèle
03:46
a patternmodèle is realréal when it is.
90
211000
3000
quand il y en a vraiment un.
03:49
So let's do a thought experimentexpérience.
91
214000
2000
Alors faisons une petite expérience.
03:51
You are a hominidhominidé threeTrois millionmillion yearsannées agodepuis
92
216000
2000
Vous êtes un humain il y a trois millions d'années
03:53
walkingen marchant on the plainsplaines of AfricaL’Afrique.
93
218000
3000
en train de marcher dans les plaines d'Afrique.
03:56
Your nameprénom is LucyLucy, okay?
94
221000
2000
Votre nom est Lucy, d'accord ?
03:58
And you hearentendre a rustlebruissement in the grassherbe.
95
223000
2000
Et vous entendez un bruissement dans l'herbe.
04:00
Is it a dangerousdangereux predatorPredator,
96
225000
2000
Est-ce un dangereux prédateur,
04:02
or is it just the windvent?
97
227000
2000
ou simplement le vent ?
04:04
Your nextprochain decisiondécision could be the mostles plus importantimportant one of your life.
98
229000
3000
La décision que vous allez prendre pourrait être la plus importante de votre vie.
04:07
Well, if you think that the rustlebruissement in the grassherbe is a dangerousdangereux predatorPredator
99
232000
3000
Bon, si vous pensez que le bruissement vient d'un dangereux prédateur
04:10
and it turnsse tourne out it's just the windvent,
100
235000
2000
et que ce n'est que le vent,
04:12
you've madefabriqué an errorErreur in cognitioncognition,
101
237000
2000
vous avez fait une erreur cognitive,
04:14
madefabriqué a TypeType de I errorErreur, falsefaux positivepositif.
102
239000
2000
une erreur de Type I, un faux positif.
04:16
But no harmnuire. You just movebouge toi away.
103
241000
2000
Mais il n'y a pas de conséquences. Vous vous êtes juste éloigné.
04:18
You're more cautiousprudent. You're more vigilantvigilant.
104
243000
2000
Vous êtes plus prudent. Vous êtes plus vigilant.
04:20
On the other handmain, if you believe that the rustlebruissement in the grassherbe is just the windvent,
105
245000
2000
D'un autre côté, si vous pensez que le bruissement n'est que du vent,
04:22
and it turnsse tourne out it's a dangerousdangereux predatorPredator,
106
247000
3000
et que c'est en fait un prédateur,
04:25
you're lunchle déjeuner.
107
250000
2000
vous devenez le plat principal.
04:27
You've just wona gagné a DarwinDarwin awardprix.
108
252000
2000
Vous venez de remporter le prix Darwin.
04:29
You've been takenpris out of the genegène poolpiscine.
109
254000
2000
Vous venez de sortir de la sélection génétique.
04:31
Now the problemproblème here is that
110
256000
2000
Maintenant le problème est que
04:33
patternicitiespatternicities will occurse produire whenevern'importe quand the costCoût
111
258000
2000
la modélisation va se produire à chaque fois que les conséquences
04:35
of makingfabrication a TypeType de I errorErreur
112
260000
2000
de faire une erreur de Type I
04:37
is lessMoins than the costCoût of makingfabrication a TypeType de IIII errorErreur.
113
262000
2000
sont moindres que celles de faire une erreur de Type II.
04:39
This is the only equationéquation in the talk by the way.
114
264000
2000
C'est la seule équation ici au fait.
04:41
We have a patternmodèle detectiondétection problemproblème
115
266000
2000
Nous avons un problème de détection de modèle
04:43
that is assessingévaluation the differencedifférence betweenentre a TypeType de I and a TypeType de IIII errorErreur
116
268000
3000
c'est-à-dire qu'évaluer la différence entre une erreur de Type I ou de Type II
04:46
is highlytrès problematicproblématique,
117
271000
2000
est très problématique,
04:48
especiallynotamment in split-secondfraction de seconde, life-and-deathvie et la mort situationssituations.
118
273000
3000
spécialement quand il faut prendre une décision immédiate pour sa survie.
04:51
So the defaultpar défaut positionposition
119
276000
2000
Donc l'approche par défaut
04:53
is just: Believe all patternsmodèles are realréal --
120
278000
2000
est simplement "croire que tous les modèles sont réels."
04:55
All rustlesfait du bruit in the grassherbe are dangerousdangereux predatorsprédateurs
121
280000
3000
"Tous les bruits dans l'herbe sont des dangereux prédateurs
04:58
and not just the windvent.
122
283000
2000
et pas simplement le vent."
05:00
And so I think that we evolvedévolué ...
123
285000
2000
Et donc je pense que nous avons évolué...
05:02
there was a naturalNaturel selectionsélection for the propensitypropension for our beliefcroyance enginesles moteurs,
124
287000
3000
qu'il y a eu une sélection naturelle par nos tendances aux croyances,
05:05
our pattern-seekingrecherche de motifs braincerveau processesprocessus,
125
290000
2000
par notre réflexion pour identifier des modèles,
05:07
to always find meaningfulsignificatif patternsmodèles
126
292000
2000
à toujours définir des modèles clairs
05:09
and infusefaire infuser them with these sortTrier of
127
294000
2000
et y incorporer ces sortes
05:11
predatoryprédateur or intentionalintentionnel agenciesagences that I'll come back to.
128
296000
3000
de toile de fond de danger auxquelles je reviendrai plus tard.
05:14
So for exampleExemple, what do you see here?
129
299000
2000
Par exemple, que voyez-vous ici ?
05:16
It's a horsecheval headtête, that's right.
130
301000
2000
C'est une tête de cheval, exactement.
05:18
It looksregards like a horsecheval. It mustdoit be a horsecheval.
131
303000
2000
Cela ressemble à un cheval, ce doit être un cheval.
05:20
That's a patternmodèle.
132
305000
2000
C'est un modèle.
05:22
And is it really a horsecheval?
133
307000
2000
Et est-ce vraiment un cheval ?
05:24
Or is it more like a froggrenouille?
134
309000
3000
Ou est-ce plutôt une grenouille ?
05:27
See, our patternmodèle detectiondétection devicedispositif,
135
312000
2000
Vous voyez, notre système de détection de modèle,
05:29
whichlequel appearsapparaît to be locatedsitué in the anterioranterior cingulatecingulaire cortexcortex --
136
314000
3000
qui semble être situé dans notre cortex cingulaire antérieur --
05:32
it's our little detectiondétection devicedispositif there --
137
317000
3000
c'est là que se trouve notre appareil de détection --
05:35
can be easilyfacilement fooledtrompé, and this is the problemproblème.
138
320000
2000
peut facilement être induit en erreur et c'est un problème.
05:37
For exampleExemple, what do you see here?
139
322000
2000
Par exemple, qu'est-ce que vous voyez ici ?
05:39
Yes, of coursecours, it's a cowvache.
140
324000
3000
Oui, bien sur c'est une vache.
05:42
OnceFois I primepremier the braincerveau -- it's calledappelé cognitivecognitif primingamorçage --
141
327000
3000
Une fois que j'amorce le cerveau -- c'est l'amorçage cognitif --
05:45
onceune fois que I primepremier the braincerveau to see it,
142
330000
2000
une fois que je demande au cerveau de le voir,
05:47
it popspolluants organiques persistants back out again even withoutsans pour autant the patternmodèle that I've imposedimposée on it.
143
332000
3000
il revient, même sans le modèle que je lui ai imposé.
05:50
And what do you see here?
144
335000
2000
Et qu'est-ce que vous voyez ici ?
05:52
Some people see a DalmatianDalmate dogchien.
145
337000
2000
Certaines personnes voient un dalmatien.
05:54
Yes, there it is. And there's the primepremier.
146
339000
2000
Oui, le voilà. Et voilà l'amorce.
05:56
So when I go back withoutsans pour autant the primepremier,
147
341000
2000
Donc quand je recommence sans l'amorce,
05:58
your braincerveau alreadydéjà has the modelmaquette
148
343000
2000
votre cerveau a déjà acquis le modèle
06:00
so you can see it again.
149
345000
2000
et vous pouvez donc le voir à nouveau.
06:02
What do you see here?
150
347000
3000
Qu'est-ce que vous voyez ici ?
06:05
PlanetPlanète SaturnSaturn. Yes, that's good.
151
350000
2000
La planète saturne. Oui, c'est bien.
06:07
How about here?
152
352000
3000
Et ici ?
06:10
Just shoutShout out anything you see.
153
355000
3000
Criez simplement ce que vous voyez.
06:14
That's a good audiencepublic, ChrisChris.
154
359000
2000
C'est un bon public, Chris.
06:16
Because there's nothing in this. Well, allegedlyprétendument there's nothing.
155
361000
3000
Parce qu'il n'y a rien ici. Bon, c'est supposé n'être rien.
06:19
This is an experimentexpérience doneterminé by JenniferJennifer WhitsonWhitson
156
364000
3000
C'est une expérience faite par Jennifer Whitson
06:22
at U.T. AustinAustin
157
367000
2000
à l'Université d'Austin
06:24
on corporateentreprise environmentsenvironnements
158
369000
2000
sur l'environnement des entreprises
06:26
and whetherqu'il s'agisse feelingssentiments of uncertaintyincertitude and out of controlcontrôle
159
371000
3000
et la question de savoir si les sentiments d'incertitude et d'absence de contrôle
06:29
makesfait du people see illusoryillusoire patternsmodèles.
160
374000
2000
poussent les gens à identifier des modèles qui n'existent pas.
06:31
That is, almostpresque everybodyTout le monde seesvoit the planetplanète SaturnSaturn.
161
376000
3000
En fait, presque tout le monde voit la planète saturne.
06:34
People that are put in a conditioncondition of feelingsentiment out of controlcontrôle
162
379000
3000
Les gens que l'on met dans une situation où ils n'ont pas le sentiment de contrôler quoi que ce soit
06:37
are more likelyprobable to see something in this,
163
382000
2000
ont davantage tendance à voir quelque chose ici,
06:39
whichlequel is allegedlyprétendument patternlessPatternless.
164
384000
3000
alors qu'il n'est pas sensé y avoir quoi que ce soit.
06:42
In other wordsmots, the propensitypropension to find these patternsmodèles
165
387000
3000
En d'autres termes, la tendance à trouver des modèles
06:45
goesva up when there's a lackmanquer de of controlcontrôle.
166
390000
3000
augmente quand il y a un manque de contrôle.
06:48
For exampleExemple, baseballbase-ball playersjoueurs are notoriouslynotoirement superstitioussuperstitieux
167
393000
3000
Par exemple, les joueurs de baseball sont connus pour être superstitieux
06:51
when they're battingfrappeur,
168
396000
2000
quand ils battent,
06:53
but not so much when they're fieldingmise en service.
169
398000
2000
et moins quand ils sont en défense.
06:55
Because fieldersFIELDERS are successfulréussi
170
400000
2000
Parce que les joueurs dans le champ réussissent
06:57
90 to 95 percentpour cent of the time.
171
402000
2000
90 à 95 pour cent du temps.
06:59
The bestmeilleur battersBatters failéchouer sevenSept out of 10 timesfois.
172
404000
3000
Les meilleurs batteurs manquent 7 fois sur 10.
07:02
So theirleur superstitionssuperstitions, theirleur patternicitiespatternicities,
173
407000
2000
Alors leurs superstitions, leurs modélisations,
07:04
are all associatedassocié with feelingssentiments of lackmanquer de of controlcontrôle
174
409000
3000
sont associées à un manque de contrôle
07:07
and so forthavant.
175
412000
2000
et ainsi de suite.
07:10
What do you see in this particularparticulier one here, in this fieldchamp?
176
415000
3000
Que voyez-vous dans celle ci, dans ce champ ?
07:13
AnybodyTout le monde see an objectobjet there?
177
418000
2000
Quelqu'un voit voit-il un objet ?
07:15
There actuallyréellement is something here,
178
420000
2000
En fait il y a quelque chose,
07:17
but it's degradeddégradé.
179
422000
2000
mais c'est dégradé.
07:19
While you're thinkingen pensant about that,
180
424000
2000
Pendant que vous y réfléchissez,
07:21
this was an experimentexpérience doneterminé by SusanSusan BlackmoreBlackmore,
181
426000
2000
c'était une expérience réalisée par Susan Blackmore,
07:23
a psychologistpsychologue in EnglandL’Angleterre,
182
428000
2000
une psychologue en Angleterre,
07:25
who showedmontré subjectssujets this degradeddégradé imageimage
183
430000
2000
qui montrait à ses sujets cette image dégradée
07:27
and then rancouru a correlationcorrélation betweenentre
184
432000
2000
et ensuite a calculé la corrélation entre
07:29
theirleur scoresscores on an ESPESP testtester:
185
434000
2000
leurs scores à un test d' ESP (perception extra sensorielle),
07:31
How much did they believe in the paranormalparanormal,
186
436000
2000
leur croyance dans le paranormal,
07:33
supernaturalsurnaturel, angelsanges and so forthavant.
187
438000
3000
le super-naturel, les anges etc.
07:36
And those who scoreda marqué highhaute on the ESPESP scaleéchelle,
188
441000
3000
Et ceux qui avaient un score élevé sur l'échelle d'EPS,
07:39
tendedtendance to not only see
189
444000
2000
avaient tendance, non seulement à voir
07:41
more patternsmodèles in the degradeddégradé imagesimages
190
446000
2000
davantage de formes dans les images dégradées,
07:43
but incorrectincorrecte patternsmodèles.
191
448000
2000
mais des formes qui n'existaient pas.
07:45
Here is what you showmontrer subjectssujets.
192
450000
2000
Voici ce que vous montrez aux sujets.
07:47
The fishpoisson is degradeddégradé 20 percentpour cent, 50 percentpour cent
193
452000
3000
Le poisson est dégradé à 20 pour cent, 50 pour cent
07:50
and then the one I showedmontré you,
194
455000
2000
et finalement celui que je vous montre,
07:52
70 percentpour cent.
195
457000
2000
à 70 pour cent.
07:54
A similarsimilaire experimentexpérience was doneterminé by anotherun autre [SwissSuisse] psychologistpsychologue
196
459000
2000
Une expérience similaire a été faite par un autre psychologue suisse,
07:56
namednommé PeterPeter BruggerBrugger,
197
461000
2000
Peter Brugger,
07:58
who founda trouvé significantlysignificativement more meaningfulsignificatif patternsmodèles
198
463000
3000
qui a découvert que davantage de formes qui avaient un sens
08:01
were perceivedperçue on the right hemispherehémisphère,
199
466000
2000
étaient perçues dans l'hémisphère droit,
08:03
viavia the left visualvisuel fieldchamp, than the left hemispherehémisphère.
200
468000
3000
par le champ visuel gauche, que dans l'hémisphère gauche.
08:06
So if you presentprésent subjectssujets the imagesimages suchtel
201
471000
2000
Donc si vous présentez des images aux sujets de façon
08:08
that it's going to endfin up on the right hemispherehémisphère insteadau lieu of the left,
202
473000
3000
qu'elles arrivent dans l'hémisphère droit plutôt que dans le gauche,
08:11
then they're more likelyprobable to see patternsmodèles
203
476000
2000
alors il y a plus de chances qu'ils identifient des formes
08:13
than if you put it on the left hemispherehémisphère.
204
478000
2000
que si vous les mettez dans l'hémisphère gauche.
08:15
Our right hemispherehémisphère appearsapparaît to be
205
480000
2000
Notre hémisphère droit semble donc être le lieu
08:17
where a lot of this patternicitypatternicity occursse produit.
206
482000
2000
où beaucoup de modélisation prend place.
08:19
So what we're tryingen essayant to do is borealésage into the braincerveau
207
484000
2000
Donc ce que nous essayons de faire est de creuser le cerveau
08:21
to see where all this happensarrive.
208
486000
2000
pour voir ce qu'y passe.
08:23
BruggerBrugger and his colleaguecollègue, ChristineChristine MohrMohr,
209
488000
3000
Brugger et sa collègue Christine Mohr
08:26
gavea donné subjectssujets L-DOPAL-DOPA.
210
491000
2000
ont donné du L-DOPA aux sujets.
08:28
L-DOPA'sL-DOPA a drugdrogue, as you know, givendonné for treatingtraitant Parkinson'sMaladie de Parkinson diseasemaladie,
211
493000
3000
Le L-DOPA comme vous le savez est un médicament utilisé pour traiter la maladie de Parkinson
08:31
whichlequel is relateden relation to a decreasediminution in dopaminedopamine.
212
496000
3000
qui est liée à une baisse en dopamine.
08:34
L-DOPAL-DOPA increasesaugmente dopaminedopamine.
213
499000
2000
L-DOPA augmente la dopamine.
08:36
An increaseaugmenter of dopaminedopamine causedcausé
214
501000
2000
Et les sujets qui avaient reçu de la dopamine
08:38
subjectssujets to see more patternsmodèles
215
503000
2000
ont commencé à percevoir plus de formes
08:40
than those that did not receiverecevoir the dopaminedopamine.
216
505000
2000
que ceux qui n'en avaient pas reçu.
08:42
So dopaminedopamine appearsapparaît to be the drugdrogue
217
507000
2000
Il semble donc que la dopamine soit la substance
08:44
associatedassocié with patternicitypatternicity.
218
509000
2000
associée avec la modélisation.
08:46
In factfait, neurolepticneuroleptique drugsdrogues
219
511000
2000
En fait les substances neuroleptiques
08:48
that are used to eliminateéliminer psychoticpsychotique behaviorcomportement,
220
513000
2000
utilisées pour éliminer les comportements psychotiques,
08:50
things like paranoiaparanoïa, delusionsidées délirantes
221
515000
2000
les choses comme la paranoïa, les illusions
08:52
and hallucinationshallucinations,
222
517000
2000
et les hallucinations,
08:54
these are patternicitiespatternicities.
223
519000
2000
qui sont toutes des formes de modélisation.
08:56
They're incorrectincorrecte patternsmodèles. They're falsefaux positivespositifs. They're TypeType de I errorsles erreurs.
224
521000
3000
Ce sont des modèles incorrects. Ce sont des faux-positifs. Ce sont des erreurs de Type I.
08:59
And if you give them drugsdrogues
225
524000
2000
Et si vous leur donnez des substances
09:01
that are dopaminedopamine antagonistsantagonistes,
226
526000
2000
qui sont des antagonistes de la dopamine,
09:03
they go away.
227
528000
2000
elles disparaissent.
09:05
That is, you decreasediminution the amountmontant of dopaminedopamine,
228
530000
2000
Donc si vous diminuez le niveau de dopamine,
09:07
and theirleur tendencytendance to see
229
532000
2000
leur tendance à voir des modèles,
09:09
patternsmodèles like that decreasesdiminue.
230
534000
2000
des formes, diminue.
09:11
On the other handmain, amphetaminesamphétamines like cocainecocaïne
231
536000
3000
A l'opposé, les amphétamines comme la cocaïne
09:14
are dopaminedopamine agonistsagonistes.
232
539000
2000
sont des agonistes de la dopamine.
09:16
They increaseaugmenter the amountmontant of dopaminedopamine.
233
541000
2000
Ils augmentent la quantité de dopamine.
09:18
So you're more likelyprobable to feel in a euphoriceuphorique stateEtat,
234
543000
3000
Donc vous avez tendance à être dans un état euphorique,
09:21
creativityla créativité, find more patternsmodèles.
235
546000
2000
créatif et à trouver davantage de formes.
09:23
In factfait, I saw RobinRobin WilliamsWilliams recentlyrécemment
236
548000
2000
En fait, j'ai récemment vu Robin Williams
09:25
talk about how he thought he was much funnierplus drôle
237
550000
2000
parler du fait qu'il était beaucoup plus drôle
09:27
when he was doing cocainecocaïne, when he had that issueproblème, than now.
238
552000
3000
quand il prenait de la cocaïne, quand il avait ce problème, que maintenant.
09:30
So perhapspeut être more dopaminedopamine
239
555000
2000
Alors peut-être que plus de dopamine
09:32
is relateden relation to more creativityla créativité.
240
557000
2000
est liée à la créativité.
09:34
DopamineDopamine, I think, changeschangements
241
559000
2000
Je pense que la dopamine change
09:36
our signal-to-noisesignal-bruit ratioratio.
242
561000
2000
notre rapport bruit-signal.
09:38
That is, how accurateprécis we are
243
563000
2000
C'est-à-dire notre fiabilité
09:40
in findingdécouverte patternsmodèles.
244
565000
2000
dans l'identification des modèles.
09:42
If it's too lowfaible, you're more likelyprobable to make too manybeaucoup TypeType de IIII errorsles erreurs.
245
567000
3000
Si il est trop bas, vous avez plus de chances de faire plus d'erreurs de Type II.
09:45
You missmanquer the realréal patternsmodèles. You don't want to be too skepticalsceptique.
246
570000
2000
Vous ratez les vrais modèles. Vous ne voulez pas être trop sceptique.
09:47
If you're too skepticalsceptique, you'lltu vas missmanquer the really interestingintéressant good ideasidées.
247
572000
3000
Si vous êtes trop sceptique, vous allez manquer les idées vraiment intéressantes.
09:51
Just right, you're creativeCréatif, and yetencore you don't falltomber for too much baloneyfoutaise.
248
576000
3000
Bien équilibré, vous êtes créatif mais sans vous laisser trop avoir.
09:54
Too highhaute and maybe you see patternsmodèles everywherepartout.
249
579000
3000
Trop élevé, et vous voyez des modèles partout.
09:57
EveryChaque time somebodyquelqu'un looksregards at you, you think people are staringregarder at you.
250
582000
3000
A chaque fois que quelqu'un vous regarde, vous pensez que les gens vous dévisagent.
10:00
You think people are talkingparlant about you.
251
585000
2000
Vous pensez que les gens parlent de vous.
10:02
And if you go too farloin on that, that's just simplysimplement
252
587000
2000
Et si vous allez trop loin dans cette direction, c'est simplement
10:04
labeledétiqueté as madnessfolie.
253
589000
2000
considéré comme de la folie.
10:06
It's a distinctiondistinction perhapspeut être we mightpourrait make
254
591000
2000
C'est peut-être la distinction que l'on pourrait faire
10:08
betweenentre two NobelPrix Nobel laureateslauréats, RichardRichard FeynmanFeynman
255
593000
2000
entre deux prix Nobel, Richard Feynman
10:10
and JohnJohn NashNash.
256
595000
2000
et John Nash.
10:12
One seesvoit maybe just the right numbernombre
257
597000
2000
L'un voit peut-être le bon nombre
10:14
of patternsmodèles to wingagner a NobelPrix Nobel PrizePrix.
258
599000
2000
de modèles pour gagner un prix Nobel.
10:16
The other one alsoaussi, but maybe too manybeaucoup patternsmodèles.
259
601000
2000
L'autre les voit aussi, mais peut-être même trop de modèles.
10:18
And we then call that schizophreniaschizophrénie.
260
603000
3000
Et alors on appelle ça la schizophrénie.
10:21
So the signal-to-noisesignal-bruit ratioratio then presentsprésente us with a pattern-detectionmodèle-détection problemproblème.
261
606000
3000
Donc le rapport bruit-signal nous pose un problème de détection de modèle.
10:24
And of coursecours you all know exactlyexactement
262
609000
2000
Et bien sûr vous savez tous exactement
10:26
what this is, right?
263
611000
2000
ce que c'est, n'est-ce pas ?
10:28
And what patternmodèle do you see here?
264
613000
2000
Et quelle forme voyez-vous ici ?
10:30
Again, I'm puttingen mettant your anterioranterior cingulatecingulaire cortexcortex to the testtester here,
265
615000
3000
Encore une fois, c'est votre cortex cingulaire antérieur que je teste ici,
10:33
causingprovoquant you conflictingcontradictoires patternmodèle detectionsdétections.
266
618000
3000
ce qui provoque chez vous des conflits de détections des formes.
10:36
You know, of coursecours, this is ViaPar l’intermédiaire UnoUno shoeschaussures.
267
621000
2000
Vous savez bien sûr que ce sont des chaussures Via Uno.
10:38
These are sandalsdes sandales.
268
623000
3000
Ce sont des sandales.
10:41
PrettyAssez sexysexy feetpieds, I mustdoit say.
269
626000
3000
Voilà de beaux pieds je dois dire.
10:44
Maybe a little PhotoshoppedPhotoshopped.
270
629000
2000
Peut-être un peu retouchés.
10:46
And of coursecours, the ambiguousambiguë figureschiffres
271
631000
2000
Et bien sûr, les formes ambigües
10:48
that seemsembler to flip-flopFlip-flop back and forthavant.
272
633000
2000
qui semblent basculer en avant et en arrière.
10:50
It turnsse tourne out what you're thinkingen pensant about a lot
273
635000
2000
En fait ce à quoi vous pensez beaucoup
10:52
influencesinfluences what you
274
637000
2000
influence ce que
10:54
tendtendre to see.
275
639000
2000
vous avez tendance à voir.
10:56
And you see the lamplampe here, I know.
276
641000
2000
Et je sais que vous voyez la lampe, là.
10:58
Because the lightslumières on here.
277
643000
3000
A cause des lumières ici.
11:01
Of coursecours, thanksMerci to the environmentalistécologiste movementmouvement
278
646000
2000
Bien sûr, grâce à la tendance écologiste
11:03
we're all sensitivesensible to the plightsituation critique of marineMarine mammalsmammifères.
279
648000
3000
nous sommes tous sensibles à la situation désespérée des mammifères marins.
11:06
So what you see in this particularparticulier ambiguousambiguë figurefigure
280
651000
3000
Donc ce que vous voyez dans cette image ambigüe
11:09
is, of coursecours, the dolphinsdauphins, right?
281
654000
2000
ce sont, bien sûr, les dauphins.
11:11
You see a dolphinDauphin here,
282
656000
2000
Vous voyez un dauphin là.
11:13
and there's a dolphinDauphin,
283
658000
2000
Et voilà un dauphin.
11:15
and there's a dolphinDauphin.
284
660000
2000
Et voilà un dauphin.
11:17
That's a dolphinDauphin tailqueue there, guys.
285
662000
3000
C'est la queue d'un dauphin là, vous voyez ?
11:20
(LaughterRires)
286
665000
3000
(rires)
11:25
If we can give you conflictingcontradictoires dataLes données, again,
287
670000
3000
Si on vous donne à nouveau des données conflictuelles,
11:28
your ACCACC is going to be going into hyperdriveHyperdrive.
288
673000
3000
votre cortex cingulaire antérieur (ACC) va accélérer.
11:31
If you look down here, it's fine. If you look up here, then you get conflictingcontradictoires dataLes données.
289
676000
3000
Si vous regardez en bas, ça va. Si vous regardez en haut, alors vous recevez des données conflictuelles.
11:34
And then we have to flipflip the imageimage
290
679000
2000
Et il faut qu'on retourne l'image
11:36
for you to see that it's a setensemble up.
291
681000
2000
pour que vous voyiez c'est un trucage.
11:40
The impossibleimpossible crateCaisse illusionillusion.
292
685000
2000
L'illusion de la boite impossible.
11:42
It's easyfacile to foolimbécile the braincerveau in 2D.
293
687000
2000
C'est facile de tromper le cerveau en 2D.
11:44
So you say, "AwAw, come on ShermerShermer, anybodyn'importe qui can do that
294
689000
2000
Alors vous dîtes, "Allez Shermer, n'importe qui peut faire ça
11:46
in a PsychPsych 101 texttexte with an illusionillusion like that."
295
691000
2000
dans un cours de psycho pour débutant avec une illusion comme celle-là ."
11:48
Well here'svoici the lateen retard, great JerryJerry Andrus''Andrus
296
693000
2000
Et bien voici l'illusion de la boite impossible en 3D
11:50
"impossibleimpossible crateCaisse" illusionillusion in 3D,
297
695000
3000
du regretté grand maître Jerry Andrus,
11:53
in whichlequel JerryJerry is standingpermanent insideà l'intérieur
298
698000
2000
où Jerry se tient debout à l'intérieur de
11:55
the impossibleimpossible crateCaisse.
299
700000
2000
la boite impossible.
11:57
And he was kindgentil enoughassez to postposter this
300
702000
2000
Et il a été assez gentil pour publier ceci
11:59
and give us the revealrévéler.
301
704000
2000
et nous expliquer le truc.
12:01
Of coursecours, cameracaméra angleangle is everything. The photographerphotographe is over there,
302
706000
3000
Bien sûr c'est l'angle de l'appareil photo qui fait tout. Le photographe est là-bas.
12:04
and this boardplanche appearsapparaît to overlapchevauchement with this one, and this one with that one, and so on.
303
709000
3000
Et cette planche semble passer au dessus de celle-là, et celle-ci au dessus de l'autre et ainsi de suite.
12:07
But even when I take it away,
304
712000
2000
Mais même quand je l'enlève,
12:09
the illusionillusion is so powerfulpuissant because of how are brainscerveaux are wiredcâblé
305
714000
2000
l'illusion est tellement puissante à cause de la façon dont nos que nos cerveaux
12:11
to find those certaincertain kindssortes of patternsmodèles.
306
716000
3000
sont programmés pour voir certains type de formes.
12:14
This is a fairlyéquitablement newNouveau one
307
719000
2000
C'est une illusion assez nouvelle
12:16
that throwsjette us off because of the conflictingcontradictoires patternsmodèles
308
721000
2000
qui nous induit en erreur à cause des formes conflictuelles
12:18
of comparingcomparant this angleangle with that angleangle.
309
723000
3000
quand on compare cet angle et cet angle.
12:21
In factfait, it's the exactexact sameMême picturephoto sidecôté by sidecôté.
310
726000
3000
En fait, c'est exactement la même image mise côte à côte.
12:24
So what you're doing is comparingcomparant that angleangle
311
729000
2000
Alors ce que vous faîtes c'est de comparer cet angle
12:26
insteadau lieu of with this one, but with that one.
312
731000
2000
avec celui-ci au lieu de celui-là.
12:28
And so your braincerveau is fooledtrompé.
313
733000
2000
Et votre cerveau se fait avoir.
12:30
YetEncore again, your patternmodèle detectiondétection devicesdispositifs are fooledtrompé.
314
735000
2000
A nouveau, votre système de détection des modèles a été induit en erreur.
12:32
FacesVisages are easyfacile to see
315
737000
2000
Les visages sont faciles à voir
12:34
because we have an additionalsupplémentaires evolvedévolué
316
739000
2000
parce que nous avons un programme avancé
12:36
facialsoin du visage recognitionreconnaissance softwareLogiciel
317
741000
2000
supplémentaire pour la reconnaissance faciale
12:38
in our temporaltemporel lobeslobes.
318
743000
3000
dans nos lobes temporaux.
12:41
Here'sVoici some facesvisages on the sidecôté of a rockRoche.
319
746000
3000
Voilà des figures gravées sur un rocher.
12:44
I'm actuallyréellement not even sure if this is -- this mightpourrait be PhotoshoppedPhotoshopped.
320
749000
3000
Je ne suis même pas sûr que ce soit --- ce pourrait être un montage.
12:47
But anywayen tous cas, the pointpoint is still madefabriqué.
321
752000
2000
Mais quoi qu'il en soit,la preuve est faite.
12:49
Now whichlequel one of these looksregards oddimpair to you?
322
754000
2000
Maintenant lequel de ceux-ci vous paraît bizarre?
12:51
In a quickrapide reactionréaction, whichlequel one looksregards oddimpair?
323
756000
2000
Vite, lequel paraît bizarre?
12:53
The one on the left. Okay. So I'll rotatetourner it
324
758000
2000
Celui sur la gauche. Okay. Alors je vais le retourner
12:55
so it'llça va be the one on the right.
325
760000
2000
donc il sera sur la droite.
12:57
And you are correctcorrect.
326
762000
2000
Et vous avez raison.
12:59
A fairlyéquitablement famouscélèbre illusionillusion -- it was first doneterminé with MargaretMargaret ThatcherThatcher.
327
764000
3000
Un truc assez connu -- fait pour la première fois avec Margaret Thatcher.
13:02
Now, they tradeCommerce up the politiciansLes politiciens everychaque time.
328
767000
2000
Maintenant ils passent d'un homme politique à l'autre tout le temps.
13:04
Well, why is this happeningévénement?
329
769000
2000
Bon, alors pourquoi est-ce que cela arrive ?
13:06
Well, we know exactlyexactement where it happensarrive,
330
771000
2000
Et bien, nous savons exactement où cela se passe,
13:08
in the temporaltemporel lobelobe, right acrossà travers, sortTrier of aboveau dessus your earoreille there,
331
773000
3000
dans le lobe temporal, juste de l'autre côté, presque au-dessus de votre oreille, là.
13:11
in a little structurestructure calledappelé the fusiformfusiforme gyrusgyrus.
332
776000
3000
Dans un petit ensemble qui s'appelle le gyrus fusiforme.
13:14
And there's two typesles types of cellscellules that do this,
333
779000
2000
Et il y a deux types de cellules qui font cela,
13:16
that recordrecord facialsoin du visage featuresfonctionnalités eithernon plus globallyglobalement,
334
781000
3000
qui enregistrent les éléments faciaux soit globalement,
13:19
or specificallyPlus précisément these largegrand, rapid-firingtir rapide cellscellules,
335
784000
2000
soit spécialement ces grosses cellules qui réagissent rapidement
13:21
first look at the generalgénéral facevisage.
336
786000
2000
et regardent en premier la forme générale d'un visage.
13:23
So you recognizereconnaître ObamaObama immediatelyimmédiatement.
337
788000
2000
Et vous reconnaissez tout de suite Obama.
13:25
And then you noticeremarquer something quiteassez
338
790000
2000
Et ensuite vous remarquez qu'il y a quelque chose
13:27
a little bitbit oddimpair about the eyesles yeux and the mouthbouche.
339
792000
2000
d'un peu bizarre avec les yeux et la bouche.
13:29
EspeciallyEn particulier when they're upsideà l'envers down,
340
794000
2000
Spécialement quand ils sont à l'envers.
13:31
you're engagingengageant that generalgénéral facialsoin du visage recognitionreconnaissance softwareLogiciel there.
341
796000
3000
C'est votre programme de reconnaissance faciale qui se met en route.
13:34
Now I said back in our little thought experimentexpérience,
342
799000
3000
Maintenant j'ai dit plus tôt quand nous faisions notre petite expérience,
13:37
you're a hominidhominidé walkingen marchant on the plainsplaines of AfricaL’Afrique.
343
802000
2000
que vous étiez un humain marchant dans les plaines d'Afrique.
13:39
Is it just the windvent or a dangerousdangereux predatorPredator?
344
804000
3000
Est-ce que c'est le vent ou un dangereux prédateur ?
13:42
What's the differencedifférence betweenentre those?
345
807000
2000
Quelle est la différence entre les deux ?
13:44
Well, the windvent is inanimateinanimé;
346
809000
2000
Et bien le vent est inanimé ;
13:46
the dangerousdangereux predatorPredator is an intentionalintentionnel agentagent de.
347
811000
2000
le dangereux prédateur est un agent avec des intentions.
13:48
And I call this processprocessus agenticityagenticity.
348
813000
2000
Et j'appelle ce process l'agenticité.
13:50
That is the tendencytendance to infusefaire infuser patternsmodèles
349
815000
2000
C'est la tendance à donner aux modèles un sens,
13:52
with meaningsens, intentionintention and agencyagence,
350
817000
2000
une intention et un agent,
13:54
oftensouvent invisibleinvisible beingsêtres from the topHaut down.
351
819000
3000
souvent des êtres invisibles qui descendent sur nous.
13:57
This is an ideaidée that we got
352
822000
2000
C'est une idée qu'on a eu
13:59
from a fellowcompagnon TEDsterTEDster here, DanDan DennettDennett,
353
824000
2000
d'un collègue TEDster ici, Dan Denett,
14:01
who talkeda parlé about takingprise the intentionalintentionnel stanceposition.
354
826000
2000
qui parlait de prendre le parti de l'intention.
14:03
So it's a typetype of that expandedétendu to explainExplique, I think, a lot of differentdifférent things:
355
828000
3000
Alors c'est ce genre de chose étendu pour expliquer, je pense, beaucoup de choses,
14:06
soulsâmes, spiritsesprits, ghostsfantômes, godsdieux, demonsdémons, angelsanges,
356
831000
3000
les âmes, les esprits, les fantômes, les dieux, les démons, les anges,
14:09
aliensextraterrestres, intelligentintelligent designersconcepteurs,
357
834000
2000
les extra-terrestres, les créateurs intelligents,
14:11
governmentgouvernement conspiracistsconspirationnistes
358
836000
2000
les gouvernements qui conspirent
14:13
and all mannermanière of invisibleinvisible agentsagents
359
838000
2000
et toutes sortes d'agents invisibles
14:15
with powerPuissance and intentionintention, are believeda cru
360
840000
2000
avec du pouvoir et une intention, qui sont considérés comme
14:17
to haunthanter our worldmonde and controlcontrôle our livesvies.
361
842000
2000
hantant notre monde et contrôlant nos vies.
14:19
I think it's the basisbase of animismanimisme
362
844000
2000
Je pense que c'est la base de l'animisme,
14:21
and polytheismpolythéisme and monotheismmonothéisme.
363
846000
3000
du polythéisme et du monothéisme.
14:24
It's the beliefcroyance that aliensextraterrestres are somehowen quelque sorte
364
849000
2000
C'est la croyance que les extra-terrestres sont
14:26
more advancedAvancée than us, more moralmoral than us,
365
851000
2000
plus évolués que nous, plus moraux que nous,
14:28
and the narrativesrécits always are
366
853000
2000
et les récits disent toujours
14:30
that they're comingvenir here to saveenregistrer us and rescueporter secours us from on highhaute.
367
855000
3000
qu'ils viennent d'en haut pour nous sauver et nous secourir.
14:33
The intelligentintelligent designer'sconcepteur always portrayedreprésenté
368
858000
2000
Le créateur intelligent est toujours représenté
14:35
as this supersuper intelligentintelligent, moralmoral beingétant
369
860000
3000
comme cet être moral, super intelligent,
14:38
that comesvient down to designconception life.
370
863000
2000
qui descend sur terre pour créer la vie.
14:40
Even the ideaidée that governmentgouvernement can rescueporter secours us --
371
865000
2000
Même l'idée que le gouvernement peut nous sauver.
14:42
that's no longerplus long the wavevague of the futureavenir,
372
867000
2000
Ce n'est plus de la science fiction.
14:44
but that is, I think, a typetype of agenticityagenticity:
373
869000
2000
Mais je pense que c'est un genre d'agenticité,
14:46
projectingen saillie somebodyquelqu'un up there,
374
871000
2000
le fait de projeter que quelqu'un là-haut,
14:48
biggros and powerfulpuissant, will come rescueporter secours us.
375
873000
2000
de grand et puissant viendra nous sauver.
14:50
And this is alsoaussi, I think, the basisbase of conspiracyconspiration theoriesthéories.
376
875000
2000
Et c'est aussi, je pense, la base des théories de conspiration.
14:52
There's somebodyquelqu'un hidingse cacher behindderrière there pullingtirant the stringscordes,
377
877000
3000
Il y a quelqu'un caché derrière les décors qui tire les ficelles,
14:55
whetherqu'il s'agisse it's the IlluminatiIlluminati
378
880000
2000
que ce soient les Illuminati
14:57
or the BilderbergersBilderbergers.
379
882000
2000
ou les Bilderbergers.
14:59
But this is a patternmodèle detectiondétection problemproblème, isn't it?
380
884000
2000
Mais c'est un problème de détection des modèles, n'est-ce pas ?
15:01
Some patternsmodèles are realréal and some are not.
381
886000
2000
Des modèles existent et d'autres non.
15:03
Was JFKJFK assassinatedassassiné by a conspiracyconspiration or by a loneseul assassinAssassin s?
382
888000
3000
Est-ce que JFK a été victime d'une conspiration ou d'un assassin isolé ?
15:06
Well, if you go there -- there's people there on any givendonné day --
383
891000
3000
Bon, si on va par là -- il y a toujours des gens --
15:09
like when I wentest allé there, here -- showingmontrer me where the differentdifférent shooterstireurs were.
384
894000
3000
comme quand j'y ai été -- qui montrent où étaient les différents tireurs .
15:12
My favoritepréféré one was he was in the manholetrou d’homme.
385
897000
3000
Mon explication préférée est celui qui était caché dans l'égout
15:15
And he poppedsauté out at the last secondseconde, tooka pris that shotcoup.
386
900000
3000
et il est sorti au dernier moment pour tirer.
15:18
But of coursecours, LincolnLincoln was assassinatedassassiné by a conspiracyconspiration.
387
903000
2000
Mais bien sûr Lincoln a été victime d'une conspiration.
15:20
So we can't just uniformlyuniformément dismissrejeter
388
905000
2000
Donc on ne peut pas se contenter d'ignorer
15:22
all patternsmodèles like that.
389
907000
2000
tous les modèles d'emblée.
15:24
Because, let's facevisage it, some patternsmodèles are realréal.
390
909000
2000
Parce qu'il faut bien reconnaître que certains modèles sont réels.
15:26
Some conspiraciescomplots really are truevrai.
391
911000
2000
Certains complots sont réels.
15:30
ExplainsExplique a lot, maybe.
392
915000
2000
Cela explique peut-être beaucoup de choses.
15:32
And 9/11 has a conspiracyconspiration theorythéorie. It is a conspiracyconspiration.
393
917000
3000
Et il y a une théorie de conspiration derrière le 11 septembre. C'est une conspiration.
15:35
We did a wholeentier issueproblème on it.
394
920000
2000
On a fait tout un sujet là-dessus.
15:37
NineteenDix-neuf membersmembres of AlAl QuedaQueda plottingtraçage to flymouche planesAvions into buildingsbâtiments
395
922000
2000
19 membres d'Al Queda qui complotent pour faire voler des avions dans des immeubles
15:39
constitutesconstitue a conspiracyconspiration.
396
924000
2000
constituent une conspiration.
15:41
But that's not what the "9/11 trutherstruthers" think.
397
926000
2000
Mais ce n'est pas ce que les "partisans de la vérité sur le 11 septembre" pensent.
15:43
They think it was an insideà l'intérieur jobemploi by the BushBush administrationadministration.
398
928000
3000
Ils pensent que c'était un coup monté de l'intérieur par l'administration Bush.
15:46
Well, that's a wholeentier other lectureconférence.
399
931000
2000
Bon, il y a de quoi faire une autre présentation la-dessus.
15:48
You know how we know that 9/11
400
933000
2000
Mais savez-vous comment on sait que le 11 septembre
15:50
was not orchestratedorchestrée by the BushBush administrationadministration?
401
935000
2000
n'a pas été organisé par l'administration Bush ?
15:52
Because it workedtravaillé.
402
937000
2000
Parce que ça a marché.
15:54
(LaughterRires)
403
939000
3000
(rires)
15:57
(ApplauseApplaudissements)
404
942000
3000
(applaudissements)
16:00
So we are natural-bornnés dualistsdualistes.
405
945000
2000
Donc nous sommes des dualistes de naissance.
16:02
Our agenticityagenticity processprocessus comesvient from
406
947000
2000
Notre process d'agenticité vient du fait
16:04
the factfait that we can enjoyprendre plaisir moviesfilms like these.
407
949000
2000
que nous pouvons apprécier des films comme ceux là.
16:06
Because we can imagineimaginer, in essenceessence,
408
951000
2000
Parce que, dans le fond, nous pouvons
16:08
continuingcontinuer on.
409
953000
2000
imaginer continuer.
16:10
We know that if you stimulatestimuler la the temporaltemporel lobelobe,
410
955000
2000
Nous savons que si vous stimulez le lobe temporal,
16:12
you can produceproduire a feelingsentiment of out-of-bodyhors du corps experiencesexpériences,
411
957000
2000
vous pouvez créer une sensation d'expérience "hors du corps",
16:14
near-deathproche de la mort experiencesexpériences,
412
959000
2000
près de la mort,
16:16
whichlequel you can do by just touchingémouvant an electrodeélectrode to the temporaltemporel lobelobe there.
413
961000
3000
ce que vous pouvez obtenir simplement en touchant le lobe temporal là avec une électrode.
16:19
Or you can do it throughpar lossperte of consciousnessconscience,
414
964000
2000
Ou vous pouvez le faire par perte de conscience,
16:21
by acceleratingaccélérer in a centrifugecentrifugeuse.
415
966000
2000
en subissant l'accélération d'une centrifugeuse.
16:23
You get a hypoxiahypoxie, or a lowerinférieur oxygenoxygène.
416
968000
3000
Vous avez une hypoxie, ou une baisse d'oxygène.
16:26
And the braincerveau then sensessens
417
971000
2000
Et le cerveau sent bien alors
16:28
that there's an out-of-bodyhors du corps experienceexpérience.
418
973000
2000
qu'il y a une expérience "hors du corps".
16:30
You can use -- whichlequel I did, wentest allé out and did --
419
975000
2000
Vous pouvez utiliser -- ce que j'ai fait --
16:32
MichaelMichael Persinger'sDe Persinger God HelmetCasque,
420
977000
2000
le "Casque de Dieu" de Michael Persinger
16:34
that bombardsbombarde your temporaltemporel lobeslobes with electromagneticélectromagnétique wavesvagues.
421
979000
2000
qui bombarde vos lobes temporaux avec des ondes électro-magnétiques.
16:36
And you get a sensesens of out-of-bodyhors du corps experienceexpérience.
422
981000
3000
Et ça vous donne une idée de c'est qu'est une expérience "hors du corps".
16:39
So I'm going to endfin here with a shortcourt videovidéo clipagrafe
423
984000
2000
Donc je vais finir avec une courte vidéo
16:41
that sortTrier of bringsapporte all this togetherensemble.
424
986000
2000
qui en quelque sorte capture bien le tout.
16:43
It's just a minuteminute and a halfmoitié.
425
988000
2000
Ca dure juste une minute et demi.
16:45
It tiescravates togetherensemble all this into the powerPuissance of expectationattente and the powerPuissance of beliefcroyance.
426
990000
3000
La vidéo résume le tout avec le pouvoir de l'espérance et le pouvoir de la croyance.
16:48
Go aheaddevant and rollrouleau it.
427
993000
2000
Alllez-y, lancez la vidéo.
16:50
NarratorNarrateur: This is the venuelieu de rendez-vous they chosechoisi for theirleur fakefaux auditionsauditions
428
995000
3000
Narrateur : C'est le cadre choisi pour les fausses auditions
16:53
for an advertannonce for lippour les lèvres balmBaume.
429
998000
2000
pour une pub pour du baume pour les lèvres.
16:55
WomanFemme: We're hopingen espérant we can use partpartie of this
430
1000000
2000
La femme : Nous espérons pouvoir en utiliser une partie
16:57
in a nationalnationale commercialcommercial, right?
431
1002000
2000
pour un spot national.
16:59
And this is testtester on some lippour les lèvres balmsbaumes
432
1004000
2000
Et voilà les tests de quelques baumes pour les lèvres
17:01
that we have over here.
433
1006000
2000
que nous avons ici.
17:03
And these are our modelsdes modèles who are going to help us,
434
1008000
2000
Et voici les modèles qui vont nous aider,
17:05
RogerRoger and MattMatt.
435
1010000
2000
Roger et Matt.
17:07
And we have our ownposséder lippour les lèvres balmBaume,
436
1012000
2000
Et nous avons notre propre baume pour les lèvres,
17:09
and we have a leadingde premier plan brandmarque.
437
1014000
2000
et nous avons une marque connue.
17:11
Would you have any problemproblème
438
1016000
2000
Est-ce que cela vous poserait un problème
17:13
kissingembrasser our modelsdes modèles to testtester it?
439
1018000
2000
d'embrasser nos modèles pour le test ?
17:15
GirlJeune fille: No.
440
1020000
2000
La fille : Non.
17:17
WomanFemme: You wouldn'tne serait pas? (GirlJeune fille: No.) WomanFemme: You'dVous le feriez think that was fine.
441
1022000
2000
La femme : Non, vraiment ? (La fille : Non) La femme : Vous pensez que ça irait.
17:19
GirlJeune fille: That would be fine. (WomanFemme: Okay.)
442
1024000
2000
La fille : Ce serait sans problème. (La femme : Okay.)
17:21
So this is a blindaveugle testtester.
443
1026000
3000
Donc c'est un test aveugle.
17:24
I'm going to askdemander you to go aheaddevant
444
1029000
2000
Je vais vous demander de commencer
17:26
and put a blindfoldavec les yeux bandés on.
445
1031000
2000
et de mettre un bandeau sur vos yeux.
17:29
KayKay, now can you see anything? (GirlJeune fille: No.)
446
1034000
3000
OK, pouvez-vous voir quoi que ce soit maintenant ?
17:32
PullTirez it so you can't even see down. (GirlJeune fille: Okay.)
447
1037000
2000
Tirez-le vers le bas pour ne pas voir par en dessous. (La fille : d'accord.)
17:34
WomanFemme: It's completelycomplètement blindaveugle now, right?
448
1039000
2000
La femme : Vous êtes complètement aveugle maintenant, n'est-ce pas ?
17:36
GirlJeune fille: Yes. (WomanFemme: Okay.)
449
1041000
2000
La fille : Oui. (La femme : D'accord.)
17:38
Now, what I'm going to be looking for in this testtester
450
1043000
3000
Maintenant ce que nous allons étudier dans ce test,
17:41
is how it protectsprotège your lipslèvres,
451
1046000
3000
c'est comment vos ça protège vos lèvres,
17:44
the texturetexture, right,
452
1049000
2000
oui, la texture, c'est ça,
17:46
and maybe if you can discerndiscerner any flavorsaveur or not.
453
1051000
3000
et peut être voir si vous pouvez distinguer un parfum ou pas.
17:49
GirlJeune fille: Okay. (WomanFemme: Have you ever doneterminé a kissingembrasser testtester before?)
454
1054000
3000
La fille : D'accord. (La femme : Avez-vous déjà fait un test avec un baiser ?)
17:52
GirlJeune fille: No.
455
1057000
2000
La fille : Non.
17:54
WomanFemme: Take a stepétape here.
456
1059000
2000
La femme : avancez d'un pas.
17:56
Okay, now I'm going to askdemander you to puckerPucker up.
457
1061000
2000
OK. Maintenant avancez vos lèvres.
17:58
PuckerPucker up biggros and leanmaigre in just a little bitbit, okay?
458
1063000
3000
Comme si vous alliez faire un bisou et penchez-vous un petit peu.
18:06
(MusicMusique)
459
1071000
4000
(Musique)
18:10
(LaughterRires)
460
1075000
5000
(rires)
18:19
(LaughterRires)
461
1084000
3000
(rires)
18:30
WomanFemme: Okay.
462
1095000
2000
D'accord.
18:32
And, JenniferJennifer, how did that feel?
463
1097000
2000
Et alors Jennifer, comment était-ce ?
18:34
JenniferJennifer: Good.
464
1099000
2000
Jennifer : Bien.
18:36
(LaughterRires)
465
1101000
7000
(rires)
18:43
GirlJeune fille: Oh my God!
466
1108000
2000
La fille : Oh mon dieu.
18:45
(LaughterRires)
467
1110000
4000
(rires)
18:50
MichaelMichael ShermerShermer: Thank you very much. Thank you. ThanksMerci.
468
1115000
3000
Michael Shermer : Merci beaucoup. Merci. Merci.
Translated by Fabienne Der Hagopian
Reviewed by Elisabeth Buffard

▲Back to top

ABOUT THE SPEAKER
Michael Shermer - Skeptic
Michael Shermer debunks myths, superstitions and urban legends -- and explains why we believe them. Along with publishing Skeptic Magazine, he's author of Why People Believe Weird Things and The Mind of the Market.

Why you should listen

As founder and publisher of Skeptic Magazine, Michael Shermer has exposed fallacies behind intelligent design, 9/11 conspiracies, the low-carb craze, alien sightings and other popular beliefs and paranoias. But it's not about debunking for debunking's sake. Shermer defends the notion that we can understand our world better only by matching good theory with good science.

Shermer's work offers cognitive context for our often misguided beliefs: In the absence of sound science, incomplete information can powerfully combine with the power of suggestion (helping us hear Satanic lyrics when "Stairway to Heaven" plays backwards, for example). In fact, a common thread that runs through beliefs of all sorts, he says, is our tendency to convince ourselves: We overvalue the shreds of evidence that support our preferred outcome, and ignore the facts we aren't looking for.

He writes a monthly column for Scientific American, and is an adjunct at Claremont Graduate University and Chapman University. His latest book is The Believing Brain: From Ghosts and Gods to Politics and Conspiracies—How We Construct Beliefs and Reinforce Them as Truths. He is also the author of The Mind of the Market, on evolutionary economics, Why Darwin Matters: Evolution and the Case Against Intelligent Design, and The Science of Good and Evil. And his next book is titled The Moral Arc of Science.

More profile about the speaker
Michael Shermer | Speaker | TED.com