ABOUT THE SPEAKER
Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures.

Why you should listen

By understanding more about our moral psychology and its biases, Jonathan Haidt says we can design better institutions (including companies, universities and democracy itself), and we can learn to be more civil and open-minded toward those who are not on our team.

Haidt is a social psychologist whose research on morality across cultures led to his 2008 TED Talk on the psychological roots of the American culture war, and his 2013 TED Talk on how "common threats can make common ground." In both of those talks he asks, "Can't we all disagree more constructively?" Haidt's 2012 TED Talk explored the intersection of his work on morality with his work on happiness to talk about "hive psychology" -- the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his book, The Righteous Mind: Why Good People are Divided by Politics and Religion.

Haidt joined New York University Stern School of Business in July 2011. He is the Thomas Cooley Professor of Ethical Leadership, based in the Business and Society Program. Before coming to Stern, Professor Haidt taught for 16 years at the University of Virginia in the department of psychology.

Haidt's writings appear frequently in the New York Times and The Wall Street Journal. He was named one of the top global thinkers by Foreign Policy magazine and by Prospect magazine. Haidt received a B.A. in Philosophy from Yale University, and an M.A. and Ph.D. in Psychology from the University of Pennsylvania.

More profile about the speaker
Jonathan Haidt | Speaker | TED.com
TED2008

Jonathan Haidt: The moral roots of liberals and conservatives

Jonathan Haidt sur les racines morales des libéraux et des conservateurs

Filmed:
3,635,704 views

Le psychologue Jonathan Haidt étudie les cinq valeurs morales qui définissent nos choix politiques, que l'on soit de gauche, de droite ou du centre. Dans ce discours révélateur, il cerne les valeurs morales que les libéraux et les conservateurs ont tendance à honorer le plus.
- Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures. Full bio

Double-click the English transcript below to play the video.

00:19
SupposeSupposons que that two AmericanAméricain friendscopains are travelingen voyageant togetherensemble in ItalyItalie.
0
1000
3000
Supposons que deux amis américains voyagent ensemble en Italie
00:22
They go to see Michelangelo'sMichel-Ange "DavidDavid,"
1
4000
2000
Ils vont voir le « David » de Michelange,
00:24
and when they finallyenfin come facevisage to facevisage with the statuestatue,
2
6000
2000
et quand ils se retrouvent face à la statue,
00:26
they bothtous les deux freezegel deadmort in theirleur tracksdes pistes.
3
8000
2000
ils s'arrêtent net tous les deux.
00:28
The first guy -- we'llbien call him AdamAdam --
4
10000
2000
Le premier -- que nous appellerons Adam --
00:30
is transfixedtranspercé by the beautybeauté of the perfectparfait humanHumain formforme.
5
12000
3000
est submergé par la beauté de cette silhouette humaine parfaite.
00:33
The secondseconde guy -- we'llbien call him BillProjet de loi --
6
15000
2000
Le second – que nous appellerons Bill --
00:35
is transfixedtranspercé by embarrassmentembarras, at staringregarder at the thing there in the centercentre.
7
17000
4000
est submergé par l'embarras en regardant ce truc là au milieu.
00:40
So here'svoici my questionquestion for you:
8
22000
2000
Alors voici ma question pour vous :
00:42
whichlequel one of these two guys was more likelyprobable to have votedvoté for GeorgeGeorge BushBush,
9
24000
4000
lequel des deux sera le plus enclin à voter pour George Bush,
00:46
whichlequel for AlAl GoreGore?
10
28000
2000
et lequel pour Al Gore ?
00:48
I don't need a showmontrer of handsmains
11
30000
1000
Je n'ai pas besoin de vote à main levée
00:49
because we all have the sameMême politicalpolitique stereotypesstéréotypes.
12
31000
3000
parce que nous avons tous les mêmes stéréotypes en politique.
00:52
We all know that it's BillProjet de loi.
13
34000
2000
Nous savons tous que c'est Bill.
00:54
And in this caseCas, the stereotypestéréotype correspondscorrespond to realityréalité.
14
36000
4000
Et dans ce cas, le stéréotype correspond à la réalité.
00:58
It really is a factfait that liberalslibéraux are much higherplus haute than conservativesconservateurs
15
40000
3000
C'est un fait que les libéraux sont plus portés que les conservateurs
01:01
on a majorMajeur personalitypersonnalité traitcaractéristique calledappelé opennessouverture to experienceexpérience.
16
43000
3000
sur ce trait de caractère appelé ouverture à l'expérience.
01:04
People who are highhaute in opennessouverture to experienceexpérience
17
46000
2000
Les personnes portées sur l'ouverture à l'expérience
01:06
just cravedemander noveltynouveauté, varietyvariété, diversityla diversité, newNouveau ideasidées, travelVoyage.
18
48000
4000
sont avides de nouveauté, variété, diversité, nouvelles idées, voyages.
01:10
People lowfaible on it like things that are familiarfamilier, that are safesûr and dependablefiable.
19
52000
5000
Les personnalités moins portées dessus préfèrent les choses familières, sécurisantes et fiables.
01:15
If you know about this traitcaractéristique,
20
57000
2000
Connaître ce trait
01:17
you can understandcomprendre a lot of puzzlescasse-têtes about humanHumain behaviorcomportement.
21
59000
2000
permet de comprendre de nombreuses énigmes du comportement humain.
01:19
You can understandcomprendre why artistsartistes are so differentdifférent from accountantscomptables.
22
61000
3000
Vous pouvez comprendre pourquoi les artistes sont si différents des comptables.
01:22
You can actuallyréellement predictprédire what kindssortes of bookslivres they like to readlis,
23
64000
2000
Vous pouvez prédire quelles sortes de livres ils aiment lire,
01:24
what kindssortes of placesdes endroits they like to travelVoyage to,
24
66000
2000
où ils aiment partir en voyage,
01:26
and what kindssortes of foodaliments they like to eatmanger.
25
68000
2000
et quel genre de nourriture ils préfèrent.
01:28
OnceFois you understandcomprendre this traitcaractéristique, you can understandcomprendre
26
70000
3000
Une fois que vous connaissez ce trait, vous pouvez comprendre
01:31
why anybodyn'importe qui would eatmanger at Applebee'sDe Applebee, but not anybodyn'importe qui that you know.
27
73000
4000
pourquoi n'importe qui mangerait à Applebee's, mais pas n'importe qui de votre connaissance.
01:35
(LaughterRires)
28
77000
6000
(Rires)
01:41
This traitcaractéristique alsoaussi tellsraconte us a lot about politicspolitique.
29
83000
2000
Ce trait nous en apprend également beaucoup sur la politique.
01:43
The mainprincipale researcherchercheur of this traitcaractéristique, RobertRobert McCraeMcCrae saysdit that,
30
85000
3000
Le principal chercheur dans ce domaine, Robert McCrae dit que
01:46
"OpenOuvert individualspersonnes have an affinityaffinité for liberallibéral, progressiveprogressive, left-wingaile gauche politicalpolitique viewsvues" --
31
88000
4000
"Les individus ouverts ont une affinité pour les opinions politiques libérales, progressives de gauche" --
01:50
they like a societysociété whichlequel is openouvrir and changingen changeant --
32
92000
2000
Ils aiment une société ouverte, qui change --
01:52
"whereastandis que closedfermé individualspersonnes preferpréférer conservativeconservateur, traditionaltraditionnel, right-wingaile droite viewsvues."
33
94000
5000
"tandis que les individus fermés préfèrent les opinions conservatrices, traditionnelles, de droite."
01:57
This traitcaractéristique alsoaussi tellsraconte us a lot about the kindssortes of groupsgroupes people joinjoindre.
34
99000
4000
Ce trait nous en dit également beaucoup sur le type de groupes que les gens rejoignent.
02:01
So here'svoici the descriptionla description of a groupgroupe I founda trouvé on the WebWeb.
35
103000
2000
Voici la description d'un groupe que j'ai trouvé sur le web.
02:03
What kindssortes of people would joinjoindre a globalglobal communitycommunauté
36
105000
2000
Quel genre de personne rejoindrait une communauté globale
02:05
welcomingaccueillant avec satisfaction people from everychaque disciplinela discipline and cultureCulture,
37
107000
2000
qui accueille les gens de chaque discipline et culture,
02:07
who seekchercher a deeperPlus profond understandingcompréhension of the worldmonde,
38
109000
2000
en quête d'une meilleure compréhension du monde,
02:09
and who hopeespérer to turntour that understandingcompréhension into a better futureavenir for us all?
39
111000
3000
espérant transformer cette compréhension en un futur meilleur pour nous tous ?
02:12
This is from some guy namednommé TedTed.
40
114000
2000
Cela nous vient d'un gars appelé TED.
02:14
(LaughterRires)
41
116000
2000
(Rires)
02:16
Well, let's see now, if opennessouverture predictsprédit who becomesdevient liberallibéral,
42
118000
4000
Bien, voyons voir, si l'ouverture prévoit qui devient libéral,
02:20
and opennessouverture predictsprédit who becomesdevient a TEDsterTEDster,
43
122000
2000
et qui devient un TEDster,
02:22
then mightpourrait we predictprédire that mostles plus TEDstersTEDsters are liberallibéral?
44
124000
3000
pourrions-nous alors prévoir que la plupart des TEDsters sont libéraux ?
02:25
Let's find out.
45
127000
1000
Voyons.
02:26
I'm going to askdemander you to raiseélever your handmain, whetherqu'il s'agisse you are liberallibéral, left of centercentre --
46
128000
4000
Je vais vous demander de lever votre main selon que vous soyez libéraux --
02:30
on socialsocial issuesproblèmes, we're talkingparlant about, primarilyprincipalement --
47
132000
2000
à propos des questions sociales dont nous parlons, principalement --
02:32
or conservativeconservateur, and I'll give a thirdtroisième optionoption,
48
134000
2000
ou conservateurs, et je laisse une troisième option
02:34
because I know there are a numbernombre of libertarianslibertaires in the audiencepublic.
49
136000
2000
parce que je sais qu'il y a quelques libertariens dans l'assistance.
02:36
So, right now, please raiseélever your handmain --
50
138000
2000
Donc, maintenant, levez la main --
02:38
down in the simulcastdiffusion simultanée roomspièces, too,
51
140000
1000
dans les salles simulcast aussi,
02:39
let's let everybodyTout le monde see who'squi est here --
52
141000
2000
que tout le monde voit qui est là.
02:41
please raiseélever your handmain if you would say that you are liberallibéral or left of centercentre.
53
143000
3000
Levez la main si vous diriez que vous êtes libéral ou à gauche du centre.
02:44
Please raiseélever your handmain highhaute right now. OK.
54
146000
3000
Levez la main bien haut maintenant. OK.
02:48
Please raiseélever your handmain if you'dtu aurais say you're libertarianlibertaire.
55
150000
2000
Levez la main si vous diriez que vous êtes libertarien.
02:51
OK, about a -- two dozendouzaine.
56
153000
2000
OK, à peu près deux douzaines.
02:53
And please raiseélever your handmain if you'dtu aurais say you are right of centercentre or conservativeconservateur.
57
155000
3000
Et levez la main si vous diriez que vous à droite du centre ou conservateur.
02:56
One, two, threeTrois, fourquatre, fivecinq -- about eighthuit or 10.
58
158000
5000
Un, deux, trois, quatre, cinq -- à peu près huit ou dix.
03:02
OK. This is a bitbit of a problemproblème.
59
164000
3000
OK. C'est un peu problématique.
03:05
Because if our goalobjectif is to understandcomprendre the worldmonde,
60
167000
3000
Parce que si notre but est de comprendre le monde,
03:08
to seekchercher a deeperPlus profond understandingcompréhension of the worldmonde,
61
170000
2000
de rechercher une compréhension plus profonde du monde,
03:10
our generalgénéral lackmanquer de of moralmoral diversityla diversité here is going to make it harderPlus fort.
62
172000
3000
notre manque général de diversité morale va rendre la tâche laborieuse.
03:13
Because when people all sharepartager valuesvaleurs, when people all sharepartager moralsmorale,
63
175000
4000
Car, lorsque les gens partagent les mêmes valeurs, lorsque les gens partagent la même morale,
03:17
they becomedevenir a teaméquipe, and onceune fois que you engageengager the psychologypsychologie of teamséquipes,
64
179000
3000
ils deviennent une équipe, et une fois que la psychologie d'équipe se met en place,
03:20
it shutss’arrête down open-mindedouvert d'esprit thinkingen pensant.
65
182000
2000
l'ouverture d'esprit se referme.
03:25
When the liberallibéral teaméquipe losesperd, as it did in 2004,
66
187000
4000
Quand l'équipe libérale perd, comme elle l'a fait en 2004
03:29
and as it almostpresque did in 2000, we comfortconfort ourselvesnous-mêmes.
67
191000
4000
et comme elle l'a presque fait en 2000, nous nous réconfortons.
03:33
(LaughterRires)
68
195000
2000
(Rires)
03:35
We try to explainExplique why halfmoitié of AmericaL’Amérique votedvoté for the other teaméquipe.
69
197000
4000
Nous essayons d'expliquer pourquoi la moitié de l'Amérique a voté pour l'autre équipe.
03:39
We think they mustdoit be blindedaveuglé by religionreligion, or by simplesimple stupiditystupidité.
70
201000
5000
Nous pensons qu'ils sont aveuglés par la religion ou simplement la stupidité.
03:44
(LaughterRires)
71
206000
3000
(Rires)
03:47
(ApplauseApplaudissements)
72
209000
8000
(Applaudissements)
03:55
So, if you think that halfmoitié of AmericaL’Amérique votesvotes RepublicanRépublicain
73
217000
6000
Donc, si vous pensez que la moitié de l'Amérique vote républicain
04:01
because they are blindedaveuglé in this way,
74
223000
3000
parce qu'elle est aveuglée de cette manière,
04:04
then my messagemessage to you is that you're trappedpiégé in a moralmoral matrixmatrice,
75
226000
3000
alors mon message est que vous êtes piégés dans une matrice morale,
04:07
in a particularparticulier moralmoral matrixmatrice.
76
229000
1000
une matrice morale particulière.
04:08
And by the matrixmatrice, I mean literallyLittéralement the matrixmatrice, like the moviefilm "The MatrixMatrice."
77
230000
4000
Et par matrice, j'entends littéralement celle du film " La Matrice."
04:12
But I'm here todayaujourd'hui to give you a choicechoix.
78
234000
2000
Mais je suis ici aujourd'hui pour vous donner un choix.
04:14
You can eithernon plus take the bluebleu pillpilule and stickbâton to your comfortingréconfortant delusionsidées délirantes,
79
236000
4000
Vous pouvez soit prendre la pilule bleue et rester avec vos confortables illusions,
04:18
or you can take the redrouge pillpilule,
80
240000
2000
ou vous pouvez prendre la pilule rouge,
04:20
learnapprendre some moralmoral psychologypsychologie and stepétape outsideà l'extérieur the moralmoral matrixmatrice.
81
242000
3000
apprendre un peu de psychologie morale et vous extraire de la matrice morale.
04:23
Now, because I know --
82
245000
2000
Maintenant, parce que je sais --
04:25
(ApplauseApplaudissements) --
83
247000
3000
(Applaudissements)
04:28
OK, I assumeassumer that answersréponses my questionquestion.
84
250000
2000
OK, je suppose que ça répond à ma question.
04:30
I was going to askdemander you whichlequel one you pickedchoisi, but no need.
85
252000
2000
J'allais vous demander laquelle vous prendriez, mais pas besoin.
04:32
You're all highhaute in opennessouverture to experienceexpérience, and besidesoutre,
86
254000
2000
Vous êtes tous portés sur l'ouverture à l'expérience, et de plus,
04:34
it looksregards like it mightpourrait even tastegoût good, and you're all epicuresépicuriens.
87
256000
3000
elle pourrait même avoir un bon goût, et vous êtes tous épicuriens.
04:37
So anywayen tous cas, let's go with the redrouge pillpilule.
88
259000
2000
OK, prenons la pilule rouge.
04:39
Let's studyétude some moralmoral psychologypsychologie and see where it takes us.
89
261000
2000
Etudions un peu de psychologie morale et voyons ou ça nous mène.
04:41
Let's startdébut at the beginningdébut.
90
263000
2000
Commençons par le début.
04:43
What is moralitymoralité and where does it come from?
91
265000
2000
Qu'est-ce que la morale et d'où vient-elle ?
04:45
The worstpire ideaidée in all of psychologypsychologie
92
267000
2000
La pire des idées en psychologie
04:47
is the ideaidée that the mindesprit is a blankblanc slateardoise at birthnaissance.
93
269000
3000
est celle que l'esprit n'est qu'une page blanche à la naissance.
04:50
DevelopmentalDu développement psychologypsychologie has shownmontré
94
272000
2000
La psychologie du développement a montré
04:52
that kidsdes gamins come into the worldmonde alreadydéjà knowingconnaissance so much
95
274000
2000
que les enfants qui viennent au monde en savent déjà énormément
04:54
about the physicalphysique and socialsocial worldsmondes,
96
276000
2000
sur les mondes physiques et sociaux,
04:56
and programmedprogrammé to make it really easyfacile for them to learnapprendre certaincertain things
97
278000
4000
et sont programmés pour qu'il leur soit simple d'apprendre certaines choses
05:00
and harddifficile to learnapprendre othersautres.
98
282000
1000
et difficile d'en apprendre d'autres.
05:01
The bestmeilleur definitiondéfinition of innatenessInnateness I've ever seenvu --
99
283000
2000
La meilleure définition de l'inné que je connaisse --
05:03
this just clarifiesprécise so manybeaucoup things for me --
100
285000
2000
ça clarifie tellement de choses pour moi --
05:05
is from the braincerveau scientistscientifique GaryGary MarcusMarcus.
101
287000
2000
est du neurologue Gary Marcus.
05:07
He saysdit, "The initialinitiale organizationorganisation of the braincerveau does not dependdépendre that much on experienceexpérience.
102
289000
5000
Il dit, " L'organisation initiale du cerveau ne dépend pas tant de l'expérience.
05:12
NatureNature providesfournit a first draftBrouillon, whichlequel experienceexpérience then revisesRévise.
103
294000
3000
La nature fournit une première ébauche que l'expérience affine.
05:15
Built-inFonction intégrée doesn't mean unmalleableunmalleable;
104
297000
2000
Intégré ne veut pas dire non malléable;
05:17
it meansveux dire organizedorganisé in advanceavance of experienceexpérience."
105
299000
3000
cela signifie organisé en prévision de l'expérience."
05:20
OK, so what's on the first draftBrouillon of the moralmoral mindesprit?
106
302000
2000
OK, alors qu'y a t-il dans la première ébauche de l'esprit moral ?
05:22
To find out, my colleaguecollègue, CraigCraig JosephJoseph, and I
107
304000
3000
Pour le savoir, mon collègue Craig Joseph et moi-même
05:25
readlis throughpar the literatureLittérature on anthropologyanthropologie,
108
307000
2000
avons parcouru la littérature sur l'anthropologie,
05:27
on cultureCulture variationvariation in moralitymoralité
109
309000
2000
sur les variations culturelles de la moralité
05:29
and alsoaussi on evolutionaryévolutionniste psychologypsychologie, looking for matchescorrespond à.
110
311000
2000
et également sur la psychologie évolutive, à la recherche de similitudes.
05:31
What are the sortssortes of things that people talk about acrossà travers disciplinesdisciplines?
111
313000
3000
Quelles sont les choses dont les gens parlent dans l'ensemble des disciplines,
05:34
That you find acrossà travers culturesdes cultures and even acrossà travers speciesespèce?
112
316000
2000
que l'on retrouve dans l'ensemble des cultures et même des espèces ?
05:36
We founda trouvé fivecinq -- fivecinq bestmeilleur matchescorrespond à,
113
318000
2000
Nous en avons trouvé cinq -- les cinq grandes similitudes,
05:38
whichlequel we call the fivecinq foundationsfondations of moralitymoralité.
114
320000
2000
que nous appelons les cinq fondations de la moralité.
05:40
The first one is harmnuire/carese soucier.
115
322000
2000
La première est la protection au mal.
05:42
We're all mammalsmammifères here, we all have a lot of neuralneural and hormonalhormonaux programmingla programmation
116
324000
4000
Nous sommes tous des mammifères ici, notre programmation neurale et hormonale
05:46
that makesfait du us really bondliaison with othersautres, carese soucier for othersautres,
117
328000
2000
nous pousse à créer des liens avec les autres, à prendre soin d’eux
05:48
feel compassionla compassion for othersautres, especiallynotamment the weakfaible and vulnerablevulnérable.
118
330000
3000
et à ressentir de la compassion pour eux, surtout les faibles et les vulnérables.
05:51
It givesdonne us very strongfort feelingssentiments about those who causecause harmnuire.
119
333000
3000
Cela nous fait ressentir une puissante animosité envers ceux qui causent du mal.
05:54
This moralmoral foundationfondation underliesest à la base about 70 percentpour cent
120
336000
3000
Cette fondation morale rassemble environ 70%
05:57
of the moralmoral statementsdéclarations I've heardentendu here at TEDTED.
121
339000
2000
des affirmations morales que j’ai entendues ici à TED.
05:59
The secondseconde foundationfondation is fairnesséquité/reciprocityréciprocité.
122
341000
3000
La seconde fondation est la réciprocité devant l'équité.
06:02
There's actuallyréellement ambiguousambiguë evidencepreuve
123
344000
2000
Il y a toujours de l'ambiguïté
06:04
as to whetherqu'il s'agisse you find reciprocityréciprocité in other animalsanimaux,
124
346000
2000
quant à la présence de la réciprocité chez les animaux,
06:06
but the evidencepreuve for people could not be clearerplus claire.
125
348000
2000
mais sa présence chez les humains ne pourrait être plus claire.
06:08
This NormanNorman RockwellRockwell paintingLa peinture is calledappelé "The GoldenOr RuleRègle,"
126
350000
2000
Ce tableau de Norman Rockwell est intitulé "Règle d’or"
06:10
and we heardentendu about this from KarenKaren ArmstrongArmstrong, of coursecours,
127
352000
2000
et nous en avons entendu parlé par Karen Armstrong
06:12
as the foundationfondation of so manybeaucoup religionsreligions.
128
354000
3000
comme étant la fondation de tellement de religions.
06:15
That secondseconde foundationfondation underliesest à la base the other 30 percentpour cent
129
357000
2000
Cette seconde fondation rassemble les 30% restants
06:17
of the moralmoral statementsdéclarations I've heardentendu here at TEDTED.
130
359000
2000
des affirmations morales que j’ai entendues à TED.
06:19
The thirdtroisième foundationfondation is in-groupendogroupe/loyaltyfidélité.
131
361000
2000
La troisième fondation est la fidélité au groupe.
06:21
You do find groupsgroupes in the animalanimal kingdomRoyaume --
132
363000
2000
On trouve des groupes au sein du royaume animal --
06:23
you do find cooperativecoopérative groupsgroupes --
133
365000
2000
des groupes coopératifs --
06:25
but these groupsgroupes are always eithernon plus very smallpetit or they're all siblingsfrères et sœurs.
134
367000
3000
mais ces groupes sont restreints ou composés de parents.
06:28
It's only amongparmi humanshumains that you find very largegrand groupsgroupes of people
135
370000
3000
Ce n'est que chez les humains que l'on trouve des groupes de grandes tailles
06:31
who are ablecapable to cooperatecoopérer, joinjoindre togetherensemble into groupsgroupes,
136
373000
3000
capables de coopérer, de se réunir en groupes --
06:34
but in this caseCas, groupsgroupes that are uniteduni to fightbats toi other groupsgroupes.
137
376000
4000
mais dans ce cas, des groupes qui s'unissent pour en combattre d'autres.
06:38
This probablyProbablement comesvient from our long historyhistoire of tribaltribal livingvivant, of tribaltribal psychologypsychologie.
138
380000
4000
Cela vient probablement de notre longue histoire de vie tribale, de psychologie tribale.
06:42
And this tribaltribal psychologypsychologie is so deeplyprofondément pleasurableagréable
139
384000
2000
Et cette psychologie tribale est si agréable
06:44
that even when we don't have tribestribus,
140
386000
2000
que même lorsque nous n'avons pas de tribus,
06:46
we go aheaddevant and make them, because it's funamusement.
141
388000
3000
nous nous en fabriquons parce que c'est amusant.
06:49
(LaughterRires)
142
391000
3000
(Rires)
06:52
SportsSport is to warguerre as pornographypornographie is to sexsexe.
143
394000
3000
Le sport est à la guerre ce que la pornographie est au sexe.
06:55
We get to exerciseexercice some ancientancien, ancientancien drivesdisques.
144
397000
3000
Cela nous permet d'assouvir de très très anciennes pulsions.
06:58
The fourthQuatrième foundationfondation is authorityautorité/respectle respect.
145
400000
3000
La quatrième fondation est le respect de l'autorité.
07:01
Here you see submissivesubmissive gesturesgestes from two membersmembres of very closelyétroitement relateden relation speciesespèce.
146
403000
3000
Vous voyez ici des gestes de soumission exécutés par deux membres d'espèces très proches --
07:04
But authorityautorité in humanshumains is not so closelyétroitement basedbasé on powerPuissance and brutalitybrutalité,
147
406000
4000
mais l'autorité chez les humains n'est pas autant basée sur le pouvoir et la brutalité
07:08
as it is in other primatesprimates.
148
410000
2000
qu'elle ne l'est chez les autres primates.
07:10
It's basedbasé on more voluntaryvolontaire deferencedéférence,
149
412000
2000
Elle est basée sur une déférence volontaire
07:12
and even elementséléments of love, at timesfois.
150
414000
2000
et même, de temps en temps, l'amour.
07:14
The fifthcinquième foundationfondation is puritypureté/sanctitycaractère sacré.
151
416000
2000
La cinquième fondation est la pureté et le sacré.
07:16
This paintingLa peinture is calledappelé "The AllegoryAllégorie Of ChastityChasteté,"
152
418000
3000
Cette peinture s'appelle "Allégorie de la chasteté",
07:19
but purity'sde pureté not just about suppressingsuppression de femalefemelle sexualitysexualité.
153
421000
3000
mais la pureté ne se résume pas à supprimer la sexualité féminine.
07:22
It's about any kindgentil of ideologyidéologie, any kindgentil of ideaidée
154
424000
3000
Elle se retrouve dans toute idéologie, toute idée
07:25
that tellsraconte you that you can attainatteindre virtuevertu
155
427000
2000
qui prétend que vous pouvez atteindre la vertu
07:27
by controllingcontrôler what you do with your bodycorps,
156
429000
1000
en contrôlant ce que vous faites avec votre corps,
07:28
by controllingcontrôler what you put into your bodycorps.
157
430000
2000
ce que vous mettez dans votre corps.
07:30
And while the politicalpolitique right maymai moralizefaire la morale sexsexe much more,
158
432000
4000
Alors que la droite politique moralise plutôt le sexe,
07:34
the politicalpolitique left is really doing a lot of it with foodaliments.
159
436000
2000
la gauche se focalise plus sur la nourriture.
07:36
FoodAlimentaire is becomingdevenir extremelyextrêmement moralizedmoralisée nowadaysaujourd'hui,
160
438000
2000
La nourriture devient extrêmement moralisée de nos jours,
07:38
and a lot of it is ideasidées about puritypureté,
161
440000
2000
et cela a beaucoup à faire avec des idées relatives à la pureté,
07:40
about what you're willingprêt to touchtoucher, or put into your bodycorps.
162
442000
3000
avec ce que vous êtes prêts à toucher ou à mettre dans votre corps.
07:43
I believe these are the fivecinq bestmeilleur candidatescandidats
163
445000
3000
Je crois que ce sont les cinq meilleurs candidats
07:46
for what's writtenécrit on the first draftBrouillon of the moralmoral mindesprit.
164
448000
2000
pour figurer sur la première ébauche de l'esprit moral.
07:48
I think this is what we come with, at leastmoins
165
450000
1000
Je pense que nous naissons avec,
07:49
a preparednessprotection civile to learnapprendre all of these things.
166
451000
3000
ou du moins avec une prédisposition à apprendre toutes ces choses.
07:52
But as my sonfils, MaxMax, growsgrandit up in a liberallibéral collegeUniversité townville,
167
454000
3000
Mais alors que mon fils Max grandit dans une cité universitaire libérale,
07:56
how is this first draftBrouillon going to get revisedrévisé?
168
458000
2000
comment cette première ébauche va t-elle être révisée ?
07:58
And how will it endfin up beingétant differentdifférent
169
460000
2000
Et en quoi sera t-elle différente
08:00
from a kidenfant bornnée 60 milesmiles southSud of us in LynchburgLynchburg, VirginiaVirginie?
170
462000
3000
de celle d'un gamin né 90 kilomètres plus au Sud à Lynchburg en Virginie ?
08:03
To think about cultureCulture variationvariation, let's try a differentdifférent metaphormétaphore.
171
465000
2000
Pour réfléchir aux variations selon les cultures, essayons une autre métaphore.
08:05
If there really are fivecinq systemssystèmes at work in the mindesprit --
172
467000
3000
S'il y a réellement cinq systèmes qui fonctionnent dans l'esprit --
08:08
fivecinq sourcessources of intuitionsintuitions and emotionsémotions --
173
470000
2000
cinq sources d'intuitions et d'émotions --
08:10
then we can think of the moralmoral mindesprit
174
472000
2000
alors nous pouvons voir l'esprit moral
08:12
as beingétant like one of those audiol'audio equalizerségaliseurs that has fivecinq channelscanaux,
175
474000
2000
comme l'un de ces égaliseurs audio à cinq canaux,
08:14
where you can setensemble it to a differentdifférent settingréglage on everychaque channelcanal.
176
476000
2000
où vous pouvez faire un réglage différent sur chaque canal.
08:16
And my colleaguescollègues, BrianBrian NosekNosek and JesseJesse GrahamGraham, and I,
177
478000
3000
Et mes collègues, Brian Nosek, Jesse Graham et moi-même,
08:19
madefabriqué a questionnairequestionnaire, whichlequel we put up on the WebWeb at wwwwww.YourMoralsYourMorals.orgorg.
178
481000
5000
avons fait un questionnaire, que nous avons mis sur le web à www.YourMorals.org.
08:24
And so farloin, 30,000 people have takenpris this questionnairequestionnaire, and you can too.
179
486000
5000
À ce jour, 30.000 personnes ont répondu à ce questionnaire, et vous le pouvez aussi.
08:29
Here are the resultsrésultats.
180
491000
1000
Voici les résultats.
08:30
Here are the resultsrésultats from about 23,000 AmericanAméricain citizenscitoyens.
181
492000
3000
Voilà les résultats pour environ 23.000 américains.
08:33
On the left, I've plottedtracés the scoresscores for liberalslibéraux;
182
495000
2000
Sur la gauche, j'ai affiché les scores pour les libéraux,
08:35
on the right, those for conservativesconservateurs; in the middlemilieu, the moderatesmodérés.
183
497000
2000
sur la droite, les conservateurs et au centre, les modérés.
08:37
The bluebleu lineligne showsmontre you people'sles gens responsesréponses
184
499000
2000
La ligne bleue vous montre les réponses des gens
08:39
on the averagemoyenne of all the harmnuire questionsdes questions.
185
501000
2000
en moyenne sur les questions concernant le mal.
08:41
So, as you see, people carese soucier about harmnuire and carese soucier issuesproblèmes.
186
503000
3000
Donc, comme vous le voyez, les gens s'intéressent aux questions de bien et de mal.
08:44
They give highhaute endorsementendossement of these sortssortes of statementsdéclarations
187
506000
2000
Ils adhèrent fortement à ce genre de déclarations
08:46
all acrossà travers the boardplanche, but as you alsoaussi see,
188
508000
2000
sur tout le tableau, mais comme vous pouvez également le constater,
08:48
liberalslibéraux carese soucier about it a little more than conservativesconservateurs -- the lineligne slopespentes down.
189
510000
3000
les libéraux y tiennent un peu plus que les conservateurs, la courbe redescend.
08:51
SameMême storyrécit for fairnesséquité.
190
513000
2000
Pareil pour l'équité.
08:53
But look at the other threeTrois lineslignes.
191
515000
2000
Mais regardez les trois autres lignes,
08:55
For liberalslibéraux, the scoresscores are very lowfaible.
192
517000
2000
pour les libéraux, les scores sont très faibles.
08:57
LiberalsLibéraux are basicallyen gros sayingen disant, "No, this is not moralitymoralité.
193
519000
2000
Les libéraux disent simplement,"Non, ce n'est pas la morale.
08:59
In-groupEndogroupe, authorityautorité, puritypureté -- this stuffdes trucs has nothing to do with moralitymoralité. I rejectrejeter it."
194
521000
3000
L'autorité dans le groupe, la pureté -- ça n'a rien a voir avec la morale. Je les rejette."
09:02
But as people get more conservativeconservateur, the valuesvaleurs riseaugmenter.
195
524000
2000
Mais plus les gens deviennent conservateurs, plus les valeurs augmentent.
09:04
We can say that liberalslibéraux have a kindgentil of a two-channeldeux canaux,
196
526000
3000
Nous pouvons dire que les libéraux ont une sorte de
09:07
or two-foundationdeux-Fondation moralitymoralité.
197
529000
1000
morale à deux canaux ou deux bases.
09:08
ConservativesConservateurs have more of a five-foundationcinq-Fondation,
198
530000
2000
Les conservateurs ont plutôt une morale
09:10
or five-channelcinq canaux moralitymoralité.
199
532000
2000
à cinq canaux ou cinq bases.
09:12
We find this in everychaque countryPays we look at.
200
534000
1000
Nous retrouvons la même chose dans chaque pays que nous observons.
09:13
Here'sVoici the dataLes données for 1,100 CanadiansCanadiens.
201
535000
2000
Voilà les données de 1.100 canadiens.
09:15
I'll just flipflip throughpar a fewpeu other slidesglisse.
202
537000
2000
Je vais survoler quelques autres diapos.
09:17
The U.K., AustraliaAustralie, NewNouveau ZealandZélande, WesternWestern EuropeL’Europe, EasternOrientale EuropeL’Europe,
203
539000
3000
La Grande Bretagne, l'Australie, la Nouvelle Zélande, l'Europe Occidentale, l'Europe de l'Est,
09:20
LatinLatine AmericaL’Amérique, the MiddleMoyen EastEast, EastEast AsiaL’Asie and SouthSud AsiaL’Asie.
204
542000
4000
l'Amérique Latine, le Moyen Orient, l'Asie de l'Est et l'Asie du Sud.
09:24
NoticeAvis alsoaussi that on all of these graphsgraphiques,
205
546000
2000
Remarquez comme, sur chacun de ces graphes,
09:26
the slopepente is steeperplus raide on in-groupendogroupe, authorityautorité, puritypureté.
206
548000
3000
la pente est plus forte pour la cohérence de groupe, l'autorité et la pureté.
09:29
WhichQui showsmontre that withindans any countryPays,
207
551000
2000
Ce qui montre que dans chaque pays,
09:31
the disagreementdésaccord isn't over harmnuire and fairnesséquité.
208
553000
3000
le désaccord n'est pas sur le mal ou l'équité
09:34
EverybodyTout le monde -- I mean, we debatedébat over what's fairjuste --
209
556000
2000
-- on peut débattre sur ce qui est équitable --
09:36
but everybodyTout le monde agreesaccepte that harmnuire and fairnesséquité mattermatière.
210
558000
3000
mais tout le monde est d'accord que le mal et l'équité sont importants.
09:39
MoralMoral argumentsarguments withindans culturesdes cultures
211
561000
2000
Les dilemmes moraux intra culturels
09:41
are especiallynotamment about issuesproblèmes of in-groupendogroupe, authorityautorité, puritypureté.
212
563000
3000
sont particulièrement dus aux problèmes de cohésion de groupe, d'autorité et de pureté.
09:44
This effecteffet is so robustrobuste that we find it no mattermatière how we askdemander the questionquestion.
213
566000
3000
Cet effet est si fort que nous le trouvons quelle que soit la manière dont nous posons la question.
09:47
In one recentrécent studyétude,
214
569000
2000
Dans une étude récente,
09:49
we askeda demandé people to supposesupposer you're about to get a dogchien.
215
571000
2000
nous avons demandé aux gens de supposer que vous alliez avoir un chien.
09:51
You pickedchoisi a particularparticulier breedrace,
216
573000
1000
Vous choisissez une race particulière
09:52
you learnedappris some newNouveau informationinformation about the breedrace.
217
574000
2000
vous en apprenez plus sur cette race.
09:54
SupposeSupposons que you learnapprendre that this particularparticulier breedrace is independent-mindedindépendance d’esprit,
218
576000
3000
Supposons que vous appreniez que cette race est indépendante,
09:57
and relatesconcerne to its ownerpropriétaire as a friendami and an equalégal?
219
579000
2000
et se considère comme l'ami ou l'égal de son propriétaire ?
09:59
Well, if you are a liberallibéral, you say, "Hey, that's great!"
220
581000
2000
Et bien, si vous êtes un libéral vous vous dites, "hé, c'est génial !"
10:01
Because liberalslibéraux like to say, "FetchFetch, please."
221
583000
2000
parce que les libéraux aiment dire " Va chercher, s'il te plaît."
10:03
(LaughterRires)
222
585000
4000
(Rires)
10:08
But if you're conservativeconservateur, that's not so attractiveattrayant.
223
590000
3000
Mais si vous êtes conservateur, ce n'est pas si intéressant.
10:11
If you're conservativeconservateur, and you learnapprendre that a dog'sde chien extremelyextrêmement loyalfidèle
224
593000
3000
Si vous êtes conservateur, et que vous découvrez qu'un chien est fidèle
10:14
to its home and familyfamille, and doesn't warmchaud up quicklyrapidement to strangersétrangers,
225
596000
2000
à son foyer et à sa famille, et ne s'ouvre pas facilement aux étrangers,
10:16
for conservativesconservateurs, well, loyaltyfidélité is good -- dogschiens oughtdevrait to be loyalfidèle.
226
598000
3000
pour les conservateurs -- et bien, la loyauté est considérée comme bien -- les chiens sont censés être loyaux.
10:19
But to a liberallibéral, it soundsdes sons like this dogchien
227
601000
2000
Mais pour un libéral, c'est tout comme si ce chien
10:21
is runningfonctionnement for the RepublicanRépublicain nominationproposition d’inscription.
228
603000
2000
allait se présenter pour l'investiture républicaine.
10:23
(LaughterRires)
229
605000
1000
(Rires)
10:24
So, you mightpourrait say, OK,
230
606000
2000
Donc vous pourriez dire, OK,
10:26
there are these differencesdifférences betweenentre liberalslibéraux and conservativesconservateurs,
231
608000
2000
Ce sont les différences entre libéraux et conservateurs,
10:28
but what makesfait du those threeTrois other foundationsfondations moralmoral?
232
610000
2000
mais qu'ont de moral ces trois autres fondations ?
10:30
Aren'tNe sont pas those just the foundationsfondations of xenophobiaxénophobie
233
612000
2000
Ne sont-elles pas juste les fondations de la xénophobie,
10:32
and authoritarianismautoritarisme and PuritanismPuritanisme?
234
614000
2000
de l'autoritarisme et du puritanisme ?
10:34
What makesfait du them moralmoral?
235
616000
1000
Qu'ont-elles de moral ?
10:35
The answerrépondre, I think, is containedcontenu in this incredibleincroyable triptychtriptyque from HieronymusHieronymus BoschBosch,
236
617000
3000
La réponse, je pense, est présente dans cet incroyable triptyque de Jérôme Bosch,
10:38
"The GardenJardin of EarthlyTerrestre DelightsDélices."
237
620000
2000
"Le jardin des délices".
10:40
In the first panelpanneau, we see the momentmoment of creationcréation.
238
622000
3000
Dans le premier tableau, nous voyons le moment de la création.
10:43
All is orderedcommandé, all is beautifulbeau, all the people and animalsanimaux
239
625000
4000
Tout est ordonné, tout est magnifique, les gens et les animaux
10:47
are doing what they're supposedsupposé to be doing, where they're supposedsupposé to be.
240
629000
3000
font ce qu'ils sont censés faire, là ou ils sont censés être.
10:50
But then, givendonné the way of the worldmonde, things changechangement.
241
632000
3000
Puis, étant donné la nature du monde, les choses changent.
10:53
We get everychaque personla personne doing whateverpeu importe he wants,
242
635000
2000
Chacun fait ce qu'il veut,
10:55
with everychaque apertureouverture of everychaque other personla personne and everychaque other animalanimal.
243
637000
3000
avec les orifices de toute autre personne et de tout autre animal.
10:58
Some of you mightpourrait recognizereconnaître this as the '60s.
244
640000
2000
Certains d'entre vous pourraient y reconnaître les années 60.
11:00
(LaughterRires)
245
642000
1000
(Rires)
11:01
But the '60s inevitablyinévitablement givesdonne way to the '70s,
246
643000
4000
Mais après les années 60 arrivent les années 70,
11:05
where the cuttingsboutures of the aperturesouvertures hurtblesser a little bitbit more.
247
647000
4000
ou le découpage des orifices est un peu plus douloureux.
11:09
Of coursecours, BoschBosch calledappelé this hellenfer.
248
651000
2000
Bien sûr, Bosch l'a appelé l'Enfer.
11:11
So this triptychtriptyque, these threeTrois panelspanneaux
249
653000
3000
Alors ce triptyque, ces trois panneaux,
11:14
portraydépeindre the timelesshors du temps truthvérité that ordercommande tendstendance to decaycarie.
250
656000
5000
représentent l'intemporelle vérité : l'ordre tend à se dégrader.
11:19
The truthvérité of socialsocial entropyentropie.
251
661000
2000
La vérité de l'entropie sociale.
11:21
But lestpeur que you think this is just some partpartie of the ChristianChrétienne imaginationimagination
252
663000
3000
Mais de peur que vous pensiez que ceci ne fasse partie que de l'imagination chrétienne
11:24
where ChristiansChrétiens have this weirdbizarre problemproblème with pleasureplaisir,
253
666000
2000
où les chrétiens ont ce problème bizarre avec la notion de plaisir,
11:26
here'svoici the sameMême storyrécit, the sameMême progressionprogression,
254
668000
3000
voici la même histoire, la même progression,
11:29
told in a paperpapier that was publishedpublié in NatureNature a fewpeu yearsannées agodepuis,
255
671000
3000
racontée dans un article publié dans Nature il y a quelques années,
11:32
in whichlequel ErnstErnst FehrFehr and SimonSimon GachterGachter had people playjouer a commonsChambre des communes dilemmadilemme.
256
674000
4000
dans lequel Ernst Fehr et Simon Gachter ont fait joué les gens au jeu du bien public.
11:36
A gameJeu in whichlequel you give people moneyargent,
257
678000
2000
Un jeu dans lequel vous donnez de l'argent aux gens,
11:38
and then, on eachchaque roundrond of the gameJeu,
258
680000
2000
et à chaque tour,
11:40
they can put moneyargent into a commoncommun potpot,
259
682000
2000
ils peuvent mettre de l'argent dans un pot commun,
11:42
and then the experimenterexpérimentateur doublesdouble what's in there,
260
684000
2000
puis l'expérimentateur double la somme du pot commun
11:44
and then it's all divideddivisé amongparmi the playersjoueurs.
261
686000
2000
qui est ensuite divisée parmi les joueurs.
11:46
So it's a really niceagréable analoganalogique for all sortssortes of environmentalenvironnement issuesproblèmes,
262
688000
3000
C'est une belle analogie pour toute sorte de problèmes environnementaux
11:49
where we're askingdemandant people to make a sacrificesacrifice
263
691000
2000
où l'on demande aux gens de faire un sacrifice
11:51
and they themselvesse don't really benefitavantage from theirleur ownposséder sacrificesacrifice.
264
693000
2000
alors qu'ils ne bénéficient pas entièrement du fruit de leur sacrifice.
11:53
But you really want everybodyTout le monde elseautre to sacrificesacrifice,
265
695000
2000
Vous voulez vraiment que les autres se sacrifient
11:55
but everybodyTout le monde has a temptationtentation to a freegratuit ridebalade.
266
697000
2000
mais chacun est tenté d'adopter le comportement du passager clandestin.
11:57
And what happensarrive is that, at first, people startdébut off reasonablyraisonnablement cooperativecoopérative --
267
699000
4000
Ce qu'il se passe, c'est qu'au début, les gens coopèrent raisonnablement --
12:01
and this is all playedjoué anonymouslyanonymement.
268
703000
2000
Tout est joué anonymement --
12:03
On the first roundrond, people give about halfmoitié of the moneyargent that they can.
269
705000
3000
au premier tour, les gens donnent la moitié de l'argent qu'ils ont.
12:06
But they quicklyrapidement see, "You know what, other people aren'tne sont pas doing so much thoughbien que.
270
708000
3000
Mais ils se disent rapidement, "Vous savez quoi, les autres ne donnent pas tant que ça.
12:09
I don't want to be a suckerMeunier. I'm not going to cooperatecoopérer."
271
711000
2000
Je ne veux pas me faire avoir. Je ne vais pas coopérer."
12:11
And so cooperationla coopération quicklyrapidement decaysdésintégrations from reasonablyraisonnablement good, down to closeFermer to zerozéro.
272
713000
4000
Et la coopération se dégrade rapidement, de raisonnablement bonne à près de zéro.
12:15
But then -- and here'svoici the tricktour --
273
717000
2000
Mais ensuite -- et là c'est intéressant --
12:17
FehrFehr and GachterGachter said, on the seventhseptième roundrond, they told people,
274
719000
2000
Fehr et Gachter disent -- au septième tour, ils ont dit aux participants
12:19
"You know what? NewNouveau ruleRègle.
275
721000
2000
"Vous savez quoi ? Nouvelle règle.
12:21
If you want to give some of your ownposséder moneyargent
276
723000
2000
Si vous voulez donner de votre argent
12:23
to punishpunir people who aren'tne sont pas contributingcontribuant, you can do that."
277
725000
4000
pour punir les gens qui ne contribuent pas, vous pouvez le faire."
12:27
And as soonbientôt as people heardentendu about the punishmentChâtiment issueproblème going on,
278
729000
3000
Et, dès que les gens ont eu la possibilité de punir,
12:30
cooperationla coopération shootstire up.
279
732000
2000
la coopération est remontée en flèche.
12:32
It shootstire up and it keepsgarde going up.
280
734000
2000
Elle remonte et continue de monter.
12:34
There's a lot of researchrecherche showingmontrer that to solverésoudre cooperativecoopérative problemsproblèmes, it really helpsaide.
281
736000
3000
Beaucoup d'études montrent que pour résoudre des problèmes de coopération, cela aide réellement.
12:37
It's not enoughassez to just appealcharme to people'sles gens good motivesmotifs.
282
739000
2000
Cela ne suffit pas de faire appel uniquement aux bonnes intentions des gens,
12:39
It really helpsaide to have some sortTrier of punishmentChâtiment.
283
741000
2000
avoir une sorte de punition aide réellement.
12:41
Even if it's just shamela honte or embarrassmentembarras or gossippotins,
284
743000
2000
Même si c'est juste de la honte, de l'embarras ou des rumeurs,
12:43
you need some sortTrier of punishmentChâtiment to bringapporter people,
285
745000
3000
il est nécessaire de mettre en place une punition pour amener les gens
12:46
when they're in largegrand groupsgroupes, to cooperatecoopérer.
286
748000
2000
en groupes, à coopérer.
12:48
There's even some recentrécent researchrecherche suggestingsuggérant that religionreligion --
287
750000
3000
Il y a même de récentes recherches qui suggèrent que la religion --
12:51
primingamorçage God, makingfabrication people think about God --
288
753000
2000
mettre Dieu en avant, faire penser à Dieu --
12:53
oftensouvent, in some situationssituations, leadspistes to more cooperativecoopérative, more pro-socialprosociales behaviorcomportement.
289
755000
5000
souvent, dans certaines situations amène à des comportements plus coopératifs, plus pro-sociaux.
12:59
Some people think that religionreligion is an adaptationadaptation
290
761000
2000
Certaines personnes pensent que la religion est une adaptation
13:01
evolvedévolué bothtous les deux by culturalculturel and biologicalbiologique evolutionévolution
291
763000
2000
générée à la fois par une évolution culturelle et biologique
13:03
to make groupsgroupes to cohereCOHERE,
292
765000
2000
pour amener les groupes à coopérer,
13:05
in partpartie for the purposeobjectif of trustingfaire confiance à eachchaque other,
293
767000
2000
en partie dans le but de se faire confiance,
13:07
and then beingétant more effectiveefficace at competingen compétition with other groupsgroupes.
294
769000
2000
puis d'être plus efficace pour se mesurer à d'autres groupes.
13:09
I think that's probablyProbablement right,
295
771000
1000
Je pense que c'est probablement vrai,
13:10
althoughbien que this is a controversialcontroversé issueproblème.
296
772000
2000
bien que ce soit une question controversée.
13:12
But I'm particularlyparticulièrement interestedintéressé in religionreligion,
297
774000
2000
Mais je suis particulièrement intéressé par la religion,
13:14
and the originorigine of religionreligion, and in what it does to us and for us.
298
776000
3000
son origine, ce qu'elle nous fait et ce qu'elle fait pour nous.
13:17
Because I think that the greatestplus grand wondermerveille in the worldmonde is not the GrandGrand CanyonCanyon.
299
779000
4000
Parce que je pense que la plus grande merveille du monde n'est pas le Grand Canyon.
13:21
The GrandGrand CanyonCanyon is really simplesimple.
300
783000
2000
Le Grand Canyon est simple.
13:23
It's just a lot of rockRoche, and then a lot of watereau and windvent, and a lot of time,
301
785000
3000
C'est juste beaucoup de roche puis beaucoup d'eau et de vent, et beaucoup de temps,
13:26
and you get the GrandGrand CanyonCanyon.
302
788000
2000
et vous obtenez le Grand Canyon.
13:28
It's not that complicatedcompliqué.
303
790000
1000
Ce n'est pas si compliqué.
13:29
This is what's really complicatedcompliqué,
304
791000
2000
Voilà ce qui est vraiment compliqué,
13:31
that there were people livingvivant in placesdes endroits like the GrandGrand CanyonCanyon,
305
793000
2000
qu'il y ait des gens qui vivent dans des endroits comme le Grand Canyon,
13:33
cooperatingcoopérant with eachchaque other, or on the savannahssavanes of AfricaL’Afrique,
306
795000
2000
coopérant les uns avec les autres, ou dans la savane africaine,
13:35
or on the frozencongelé shoresrives of AlaskaAlaska, and then some of these villagesles villages
307
797000
3000
ou sur les berges gelées de l'Alaska, et que certains de ces villages
13:38
grewgrandi into the mightyMighty citiesvilles of BabylonBabylone, and RomeRome, and TenochtitlanTenochtitlan.
308
800000
4000
deviennent les puissantes cités de Babylone, et Rome, et Tenochtitlan.
13:42
How did this happense produire?
309
804000
1000
Comment est-ce arrivé ?
13:43
This is an absoluteabsolu miraclemiracle, much harderPlus fort to explainExplique than the GrandGrand CanyonCanyon.
310
805000
3000
C'est un miracle absolu, beaucoup plus difficile à expliquer que le Grand Canyon.
13:46
The answerrépondre, I think, is that they used everychaque tooloutil in the toolboxboîte à outils.
311
808000
3000
La réponse est, je pense, qu'ils ont utilisé tous les outils de la caisse.
13:49
It tooka pris all of our moralmoral psychologypsychologie
312
811000
2000
Il a fallu toute notre psychologie morale
13:51
to createcréer these cooperativecoopérative groupsgroupes.
313
813000
2000
pour créer ces groupes coopératifs.
13:53
Yes, you do need to be concernedconcerné about harmnuire,
314
815000
2000
Oui, vous devez faire attention à ne pas faire de mal,
13:55
you do need a psychologypsychologie of justiceJustice.
315
817000
1000
vous avez besoin d'une psychologie de la justice.
13:56
But it really helpsaide to organizeorganiser a groupgroupe if you can have sub-groupssous-groupes,
316
818000
3000
Mais cela aide vraiment quand on s'organise en groupe si vous pouvez avoir des sous-groupes,
13:59
and if those sub-groupssous-groupes have some internalinterne structurestructure,
317
821000
3000
et si ces sous-groupes ont une structure interne,
14:02
and if you have some ideologyidéologie that tellsraconte people
318
824000
2000
et si vous avez une idéologie qui pousse les gens
14:04
to suppressréprimer theirleur carnalitycharnel, to pursuepoursuivre higherplus haute, noblerplus noble endsprend fin.
319
826000
4000
à supprimer leurs pulsions charnelles, à poursuivre des desseins plus nobles.
14:08
And now we get to the cruxCrux of the disagreementdésaccord
320
830000
2000
Et maintenant nous avons avez l'essentiel du désaccord
14:10
betweenentre liberalslibéraux and conservativesconservateurs.
321
832000
2000
entre libéraux et conservateurs.
14:12
Because liberalslibéraux rejectrejeter threeTrois of these foundationsfondations.
322
834000
2000
Parce que les libéraux rejettent trois de ces fondations.
14:14
They say "No, let's celebratecélébrer diversityla diversité, not commoncommun in-groupendogroupe membershipadhésion."
323
836000
3000
Ils disent "Non, célébrons la diversité, pas l'appartenance à un groupe."
14:17
They say, "Let's questionquestion authorityautorité."
324
839000
2000
Ils disent, " Remettons l'autorité en question."
14:19
And they say, "Keep your lawslois off my bodycorps."
325
841000
2000
Et ils disent,"Ne me parlez pas de vos lois."
14:21
LiberalsLibéraux have very noblenoble motivesmotifs for doing this.
326
843000
3000
Les libéraux ont de très nobles motifs pour faire ça.
14:24
TraditionalTraditionnel authorityautorité, traditionaltraditionnel moralitymoralité can be quiteassez repressiverépressif,
327
846000
3000
L'autorité traditionnelle, la morale traditionnelle peut être assez répressive
14:27
and restrictiverestrictives to those at the bottombas, to womenfemmes, to people that don't fiten forme in.
328
849000
3000
et restrictive pour ceux du bas, pour les femmes ou les gens non intégrés.
14:30
So liberalslibéraux speakparler for the weakfaible and oppressedopprimés.
329
852000
2000
Les libéraux parlent pour les faibles et les opprimés.
14:32
They want changechangement and justiceJustice, even at the riskrisque of chaosle chaos.
330
854000
2000
Ils veulent du changement et de la justice, même au risque d'obtenir le chaos.
14:34
This guy'sles gars shirtchemise saysdit, "Stop bitchingrâler, startdébut a revolutionrévolution."
331
856000
3000
Le T-shirt de cet homme dit, " Arrête de te plaindre, commence une révolution."
14:37
If you're highhaute in opennessouverture to experienceexpérience, revolutionrévolution is good,
332
859000
2000
Si vous êtes ouvert aux expériences, la révolution c'est bien,
14:39
it's changechangement, it's funamusement.
333
861000
2000
c'est du changement, c'est sympa.
14:41
ConservativesConservateurs, on the other handmain, speakparler for institutionsinstitutions and traditionstraditions.
334
863000
3000
Les conservateurs, de leur côté, parlent pour les institutions et les traditions.
14:44
They want ordercommande, even at some costCoût to those at the bottombas.
335
866000
4000
Ils veulent de l'ordre, même aux dépens des moins favorisés.
14:48
The great conservativeconservateur insightperspicacité is that ordercommande is really harddifficile to achieveatteindre.
336
870000
2000
La grande vision conservatrice est que l'ordre est très difficile à obtenir.
14:50
It's really preciousprécieux, and it's really easyfacile to loseperdre.
337
872000
3000
C'est très précieux et très facile à perdre.
14:53
So as EdmundEdmund BurkeBurke said, "The restraintsdispositifs de retenue pour on menHommes,
338
875000
2000
Alors comme a dit Edmund Burke, "Les restrictions sur les hommes,
14:55
as well as theirleur libertieslibertés, are to be reckonedcompté amongparmi theirleur rightsdroits."
339
877000
3000
comme leurs libertés doivent être considérés comme des droits."
14:58
This was after the chaosle chaos of the FrenchFrançais RevolutionRevolution.
340
880000
2000
C'était après le chaos de la révolution française.
15:00
So onceune fois que you see this -- onceune fois que you see
341
882000
2000
Une fois que vous voyez cela -- que vous voyez que
15:02
that liberalslibéraux and conservativesconservateurs bothtous les deux have something to contributecontribuer,
342
884000
3000
libéraux et conservateurs ont quelque chose à apporter,
15:05
that they formforme a balanceéquilibre on changechangement versuscontre stabilityla stabilité --
343
887000
3000
qu'ils maintiennent l'équilibre entre changement et stabilité --
15:08
then I think the way is openouvrir to stepétape outsideà l'extérieur the moralmoral matrixmatrice.
344
890000
3000
alors je pense que le chemin est ouvert pour sortir de la matrice morale.
15:11
This is the great insightperspicacité that all the AsianAsiatique religionsreligions have attainedatteint.
345
893000
5000
C'est la grande vision que les religions asiatiques ont atteinte.
15:16
Think about yinYin and yangYang.
346
898000
2000
Pensez au Yin et au Yang.
15:18
YinYin and yangYang aren'tne sont pas enemiesennemis. YinYin and yangYang don't hatehaine eachchaque other.
347
900000
2000
Yin et Yang ne sont pas ennemis. Yin et Yang ne se haïssent pas.
15:20
YinYin and yangYang are bothtous les deux necessarynécessaire, like night and day,
348
902000
2000
Yin et Yang sont tous deux nécessaires, comme le jour et la nuit,
15:22
for the functioningfonctionnement of the worldmonde.
349
904000
2000
au fonctionnement du monde.
15:24
You find the sameMême thing in HinduismHindouisme.
350
906000
2000
Vous trouverez la même chose dans l'hindouisme.
15:26
There are manybeaucoup highhaute godsdieux in HinduismHindouisme.
351
908000
2000
Il y a plusieurs divinités majeures dans l'hindouisme.
15:28
Two of them are VishnuVishnu, the preserverPreserver, and ShivaShiva, the destroyerdestroyer.
352
910000
3000
Deux d'entre elles sont Vishnu le préservateur, et Shiva la destructrice.
15:31
This imageimage actuallyréellement is bothtous les deux of those godsdieux sharingpartage the sameMême bodycorps.
353
913000
3000
Cette image représente ces deux divinités partageant le même corps.
15:34
You have the markingsmarquages of VishnuVishnu on the left,
354
916000
2000
Vous avez les symboles de Vishnu sur la gauche,
15:36
so we could think of VishnuVishnu as the conservativeconservateur god.
355
918000
3000
nous pourrions le voir comme le dieu conservateur.
15:39
You have the markingsmarquages of ShivaShiva on the right,
356
921000
2000
Vous avez les symboles de Shiva sur la droite,
15:41
Shiva'sDe Shiva the liberallibéral god. And they work togetherensemble.
357
923000
2000
Shiva est la déesse libérale -- et ils travaillent ensemble.
15:43
You find the sameMême thing in BuddhismBouddhisme.
358
925000
2000
Vous trouverez la même chose dans le bouddhisme.
15:45
These two stanzasstrophes containcontenir, I think, the deepestle plus profond insightsdes idées
359
927000
2000
Ces deux strophes contiennent, je pense, les aperçus
15:47
that have ever been attainedatteint into moralmoral psychologypsychologie.
360
929000
3000
les plus profonds de la psychologie morale.
15:50
From the ZenZen mastermaîtriser Seng-ts'anSeng-ts'an:
361
932000
2000
Du maître Zen Seng-ts'an :
15:52
"If you want the truthvérité to standsupporter clearclair before you, never be for or againstcontre.
362
934000
4000
"Si vous voulez que la vérité se révèle à vous, ne soyez jamais pour ou contre,
15:56
The strugglelutte betweenentre for and againstcontre is the mind'sde l’esprit worstpire diseasemaladie."
363
938000
4000
le conflit entre pour et contre est la pire maladie de l'esprit."
16:00
Now unfortunatelymalheureusement, it's a diseasemaladie
364
942000
2000
Malheureusement c'est une maladie
16:02
that has been caughtpris by manybeaucoup of the world'smonde leadersdirigeants.
365
944000
2000
qu'ont attrapé beaucoup de dirigeants du monde.
16:04
But before you feel superiorsupérieur to GeorgeGeorge BushBush,
366
946000
3000
Avant de vous sentir supérieur à George Bush,
16:07
before you throwjeter a stonepierre, askdemander yourselftoi même, do you acceptAcceptez this?
367
949000
4000
avant de lui lancer la pierre, demandez vous : Acceptez vous cela ?
16:11
Do you acceptAcceptez steppingpas à pas out of the battlebataille of good and evilmal?
368
953000
3000
Acceptez vous de sortir de la bataille entre bien et mal ?
16:14
Can you be not for or againstcontre anything?
369
956000
3000
Pouvez-vous être ni pour ni contre quoi que ce soit ?
16:18
So, what's the pointpoint? What should you do?
370
960000
3000
Alors quel est l'argument ? Que devriez-vous faire ?
16:21
Well, if you take the greatestplus grand insightsdes idées
371
963000
2000
Si vous prenez les plus grandes révélations
16:23
from ancientancien AsianAsiatique philosophiesphilosophies and religionsreligions,
372
965000
2000
des anciennes philosophies et religions asiatiques,
16:25
and you combinecombiner them with the latestdernier researchrecherche on moralmoral psychologypsychologie,
373
967000
2000
et que vous les combinez avec les dernières recherches en psychologie morale,
16:27
I think you come to these conclusionsconclusions:
374
969000
2000
je pense que vous parvenez à ces conclusions :
16:29
that our righteousvertueux mindsesprits were designedconçu by evolutionévolution
375
971000
4000
Que nos cerveaux vertueux ont été modelés par l'évolution
16:33
to unites’unir us into teamséquipes, to dividediviser us againstcontre other teamséquipes
376
975000
3000
pour nous unir en équipes, nous diviser des autres équipes
16:36
and then to blindaveugle us to the truthvérité.
377
978000
2000
puis de nous dissimuler la vérité.
16:39
So what should you do? Am I tellingrécit you to not strives’efforcer?
378
981000
4000
Alors que devriez-vous faire ? Suis-je en train de vous dire de ne pas vous surpasser ?
16:43
Am I tellingrécit you to embraceembrasse Seng-ts'anSeng-ts'an and stop,
379
985000
3000
Suis-je en train de vous dire d'écouter Seng-Ts'an et d'arrêter,
16:46
stop with this strugglelutte of for and againstcontre?
380
988000
3000
d'arrêter ce conflit entre le pour et le contre ?
16:49
No, absolutelyabsolument not. I'm not sayingen disant that.
381
991000
2000
Non, absolument pas. Je ne dis pas ça.
16:51
This is an amazingincroyable groupgroupe of people who are doing so much,
382
993000
3000
C'est un groupe magnifique de gens qui font tant,
16:54
usingen utilisant so much of theirleur talentTalent, theirleur brillianceéclat, theirleur energyénergie, theirleur moneyargent,
383
996000
4000
utilisent tant de leurs talents, leurs qualités, leur énergie, leur argent,
16:58
to make the worldmonde a better placeendroit, to fightbats toi --
384
1000000
2000
pour faire du monde un meilleur endroit, pour combattre --
17:00
to fightbats toi wrongstorts, to solverésoudre problemsproblèmes.
385
1002000
3000
combattre le mal, résoudre les problèmes.
17:04
But as we learnedappris from SamanthaSamantha PowerPuissance, in her storyrécit
386
1006000
4000
Mais comme nous l'a appris Samantha Power dans son histoire
17:08
about SergioSergio VieiraVieira dede MelloMello, you can't just go chargingcharger in,
387
1010000
5000
sur Sergio Vieira de Mello, vous ne pouvez pas foncer tête baissée
17:13
sayingen disant, "You're wrongfaux, and I'm right."
388
1015000
2000
en disant, "Tu as tort, et j'ai raison."
17:15
Because, as we just heardentendu, everybodyTout le monde thinkspense they are right.
389
1017000
4000
Parce que, comme nous venons de le voir, tous pensent qu'ils ont raison.
17:19
A lot of the problemsproblèmes we have to solverésoudre
390
1021000
2000
Beaucoup des problèmes que nous avons à résoudre
17:21
are problemsproblèmes that requireexiger us to changechangement other people.
391
1023000
3000
nécessitent de changer les gens.
17:24
And if you want to changechangement other people, a much better way to do it
392
1026000
3000
Et si vous voulez changer les gens, la meilleure manière de le faire
17:27
is to first understandcomprendre who we are -- understandcomprendre our moralmoral psychologypsychologie,
393
1029000
4000
est de d'abord comprendre qui nous sommes -- comprendre notre psychologie morale,
17:31
understandcomprendre that we all think we're right -- and then stepétape out,
394
1033000
3000
comprendre que nous croyons tous avoir raison -- et puis prendre du recul --
17:34
even if it's just for a momentmoment, stepétape out -- checkvérifier in with Seng-ts'anSeng-ts'an.
395
1036000
4000
même juste pour un moment, prendre du recul -- voir ce que dit Seng-Ts'an.
17:38
StepÉtape out of the moralmoral matrixmatrice,
396
1040000
2000
Sortez de la matrice morale,
17:40
just try to see it as a strugglelutte playingen jouant out,
397
1042000
2000
essayez de le voir comme un conflit qui se déroule
17:42
in whichlequel everybodyTout le monde does think they're right,
398
1044000
2000
où tout le monde pense qu'il a raison,
17:44
and everybodyTout le monde, at leastmoins, has some reasonsles raisons -- even if you disagreeêtre en désaccord with them --
399
1046000
2000
et que tout le monde a, au moins une raison -- même si vous n'êtes pas d'accord --
17:46
everybodyTout le monde has some reasonsles raisons for what they're doing.
400
1048000
2000
tout le monde a ses raisons de faire ce qu'il fait.
17:48
StepÉtape out.
401
1050000
1000
Prenez du recul.
17:49
And if you do that, that's the essentialessentiel movebouge toi to cultivatecultiver moralmoral humilityhumilité,
402
1051000
4000
Et si vous faites cela, c'est la démarche essentielle pour développer l'humilité morale,
17:53
to get yourselftoi même out of this self-righteousnesspharisaïsme,
403
1055000
1000
pour vous sortir de ce discours moralisant,
17:54
whichlequel is the normalnormal humanHumain conditioncondition.
404
1056000
2000
qui est la condition humaine normale.
17:56
Think about the DalaiDalaï LamaLama.
405
1058000
2000
Pensez au Dalai Lama.
17:58
Think about the enormousénorme moralmoral authorityautorité of the DalaiDalaï LamaLama --
406
1060000
3000
Pensez à l'énorme autorité morale du Dalai Lama --
18:01
and it comesvient from his moralmoral humilityhumilité.
407
1063000
2000
cela provient de son humilité morale.
18:05
So I think the pointpoint -- the pointpoint of my talk,
408
1067000
2000
Alors je pense que l'argument -- l'argument de mon discours,
18:07
and I think the pointpoint of TEDTED --
409
1069000
3000
et je pense l'argument de TED,
18:10
is that this is a groupgroupe that is passionatelypassionnément engagedengagé
410
1072000
3000
est que c'est un groupe qui est passionnément engagé
18:13
in the pursuitpoursuite of changingen changeant the worldmonde for the better.
411
1075000
2000
dans une lutte pour rendre le monde meilleur.
18:15
People here are passionatelypassionnément engagedengagé
412
1077000
3000
Les gens ici sont passionnément engagés
18:18
in tryingen essayant to make the worldmonde a better placeendroit.
413
1080000
2000
pour faire du monde un meilleur endroit.
18:20
But there is alsoaussi a passionatepassionné commitmentengagement to the truthvérité.
414
1082000
3000
Mais il y a aussi un engagement passionné envers la vérité.
18:23
And so I think that the answerrépondre is to use that passionatepassionné commitmentengagement
415
1085000
4000
Et je pense que la réponse est d'utiliser cet engagement passionné
18:27
to the truthvérité to try to turntour it into a better futureavenir for us all.
416
1089000
4000
envers la vérité pour essayer de le transformer en un meilleur futur pour nous tous.
18:31
Thank you.
417
1093000
1000
Merci.
18:32
(ApplauseApplaudissements)
418
1094000
3000
(Applaudissements)
Translated by yannick laignel
Reviewed by stephen lecourt

▲Back to top

ABOUT THE SPEAKER
Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures.

Why you should listen

By understanding more about our moral psychology and its biases, Jonathan Haidt says we can design better institutions (including companies, universities and democracy itself), and we can learn to be more civil and open-minded toward those who are not on our team.

Haidt is a social psychologist whose research on morality across cultures led to his 2008 TED Talk on the psychological roots of the American culture war, and his 2013 TED Talk on how "common threats can make common ground." In both of those talks he asks, "Can't we all disagree more constructively?" Haidt's 2012 TED Talk explored the intersection of his work on morality with his work on happiness to talk about "hive psychology" -- the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his book, The Righteous Mind: Why Good People are Divided by Politics and Religion.

Haidt joined New York University Stern School of Business in July 2011. He is the Thomas Cooley Professor of Ethical Leadership, based in the Business and Society Program. Before coming to Stern, Professor Haidt taught for 16 years at the University of Virginia in the department of psychology.

Haidt's writings appear frequently in the New York Times and The Wall Street Journal. He was named one of the top global thinkers by Foreign Policy magazine and by Prospect magazine. Haidt received a B.A. in Philosophy from Yale University, and an M.A. and Ph.D. in Psychology from the University of Pennsylvania.

More profile about the speaker
Jonathan Haidt | Speaker | TED.com