ABOUT THE SPEAKER
Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures.

Why you should listen

By understanding more about our moral psychology and its biases, Jonathan Haidt says we can design better institutions (including companies, universities and democracy itself), and we can learn to be more civil and open-minded toward those who are not on our team.

Haidt is a social psychologist whose research on morality across cultures led to his 2008 TED Talk on the psychological roots of the American culture war, and his 2013 TED Talk on how "common threats can make common ground." In both of those talks he asks, "Can't we all disagree more constructively?" Haidt's 2012 TED Talk explored the intersection of his work on morality with his work on happiness to talk about "hive psychology" -- the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his book, The Righteous Mind: Why Good People are Divided by Politics and Religion.

Haidt joined New York University Stern School of Business in July 2011. He is the Thomas Cooley Professor of Ethical Leadership, based in the Business and Society Program. Before coming to Stern, Professor Haidt taught for 16 years at the University of Virginia in the department of psychology.

Haidt's writings appear frequently in the New York Times and The Wall Street Journal. He was named one of the top global thinkers by Foreign Policy magazine and by Prospect magazine. Haidt received a B.A. in Philosophy from Yale University, and an M.A. and Ph.D. in Psychology from the University of Pennsylvania.

More profile about the speaker
Jonathan Haidt | Speaker | TED.com
TED2008

Jonathan Haidt: The moral roots of liberals and conservatives

Jonathan Haidt über die moralischen Wurzeln von Linksliberalen und Konservativen

Filmed:
3,635,704 views

Der Psychologe Jonathan Haidt erforscht die fünf moralischen Werte welche die Basis unserer politischen Entscheidungen formen, egal ob wir links, rechts oder Mitte sind. In diesem erhellenden Vortrag zeigt er die moralischen Werte auf, welche Linksliberale und Konservative in der Regel am meisten ehren.
- Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures. Full bio

Double-click the English transcript below to play the video.

00:19
SupposeNehmen wir an that two AmericanAmerikanische friendsFreunde are travelingReisen togetherzusammen in ItalyItalien.
0
1000
3000
Stellt euch vor, zwei Amerikaner reisen zusammen durch Italien.
00:22
They go to see Michelangelo'sVon Michelangelo "DavidDavid,"
1
4000
2000
Sie gehen sich den "David" von Michelangelo ansehen
00:24
and when they finallyendlich come faceGesicht to faceGesicht with the statueStatue,
2
6000
2000
und als sie schließlich vor der Statue stehen
00:26
they bothbeide freezeeinfrieren deadtot in theirihr tracksSpuren.
3
8000
2000
sind sie wie versteinert.
00:28
The first guy -- we'llGut call him AdamAdam --
4
10000
2000
Der Erste - lasst ihn uns Adam nennen -
00:30
is transfixedgebannt by the beautySchönheit of the perfectperfekt humanMensch formbilden.
5
12000
3000
ist gefangen von der Schönheit der makellosen menschlichen Form.
00:33
The secondzweite guy -- we'llGut call him BillBill --
6
15000
2000
Der Zweite - nennen wir ihn Bill -
00:35
is transfixedgebannt by embarrassmentVerlegenheit, at staringstarrend at the thing there in the centerCenter.
7
17000
4000
ist gelähmt von der Peinlichkeit, sich dieses Ding da in der Mitte ansehen zu müssen.
00:40
So here'shier ist my questionFrage for you:
8
22000
2000
Hier ist meine Frage an Sie:
00:42
whichwelche one of these two guys was more likelywahrscheinlich to have votedgewählt for GeorgeGeorge BushBush,
9
24000
4000
welcher dieser beiden hat wohl eher George W. Bush gewählt
00:46
whichwelche for AlAl GoreGore?
10
28000
2000
welcher Al Gore?
00:48
I don't need a showShow of handsHände
11
30000
1000
Ich brauche keine Handzeichen
00:49
because we all have the samegleich politicalpolitisch stereotypesStereotypen.
12
31000
3000
denn wir haben alle die selben politischen Stereotypen.
00:52
We all know that it's BillBill.
13
34000
2000
Wir alle wissen dass es Bill ist.
00:54
And in this caseFall, the stereotypeStereotyp correspondsentspricht to realityWirklichkeit.
14
36000
4000
Und in diesem Fall entspricht das Stereotyp der Realität.
00:58
It really is a factTatsache that liberalsliberalen are much higherhöher than conservativeskonservativen
15
40000
3000
Es stimmt wirklich dass bei Linksliberalen, im Gegensatz zu Konservativen,
01:01
on a majorHaupt personalityPersönlichkeit traitMerkmal callednamens opennessOffenheit to experienceErfahrung.
16
43000
3000
eine wichtige Charaktereigenschaft namens 'Offenheit für Erfahrung', weit mehr ausgeprägt ist.
01:04
People who are highhoch in opennessOffenheit to experienceErfahrung
17
46000
2000
Leute die sehr 'offen für Erfahrung' sind
01:06
just cravesehnen noveltyNeuheit, varietyVielfalt, diversityVielfalt, newneu ideasIdeen, travelReise.
18
48000
4000
lechzen nach Neuem, Abwechslung, Vielfalt, neuen Ideen, Reisen.
01:10
People lowniedrig on it like things that are familiarfamiliär, that are safeSafe and dependablezuverlässige.
19
52000
5000
Leute die nicht sehr 'offen' sind mögen Dinge die sie kennen, die sicher und verlässlich sind.
01:15
If you know about this traitMerkmal,
20
57000
2000
Wenn einem diese Charaktereigenschaft bekannt ist
01:17
you can understandverstehen a lot of puzzlesRätsel about humanMensch behaviorVerhalten.
21
59000
2000
kann man viele Rätsel des menschlichen Verhaltens verstehen.
01:19
You can understandverstehen why artistsKünstler are so differentanders from accountantsBuchhalter.
22
61000
3000
Man versteht, warum sich Künstler so sehr von Buchhaltern unterscheiden.
01:22
You can actuallytatsächlich predictvorhersagen what kindsArten of booksBücher they like to readlesen,
23
64000
2000
Man kann sogar prognostizieren welche Art von Literatur sie gerne lesen,
01:24
what kindsArten of placessetzt they like to travelReise to,
24
66000
2000
wo sie gerne Urlaub machen,
01:26
and what kindsArten of foodLebensmittel they like to eatEssen.
25
68000
2000
und was sie gerne essen.
01:28
OnceEinmal you understandverstehen this traitMerkmal, you can understandverstehen
26
70000
3000
Wenn man mal diese Eigenschaft verstanden hat, wird einem klar
01:31
why anybodyirgendjemand would eatEssen at Applebee'sApplebee's, but not anybodyirgendjemand that you know.
27
73000
4000
warum manche Leute gerne im Wirtshaus essen gehen, aber niemand den du persönlich kennst.
01:35
(LaughterLachen)
28
77000
6000
(Gelächter)
01:41
This traitMerkmal alsoebenfalls tellserzählt us a lot about politicsPolitik.
29
83000
2000
Diese Eigenschaft verrät uns auch viel über Politik.
01:43
The mainMain researcherForscher of this traitMerkmal, RobertRobert McCraeMcCrae sayssagt that,
30
85000
3000
Der wichtigste Forscher, der diese Eigenschaft untersucht, Robert McCrae, sagt dass
01:46
"OpenOffen individualsIndividuen have an affinityAffinität for liberalliberale, progressiveprogressiv, left-winglinke politicalpolitisch viewsAnsichten" --
31
88000
4000
"'Offene Individuen besitzen eine Affinität für liberale, linksgerichtete, 'fortschrittliche' politische Ansichten" --
01:50
they like a societyGesellschaft whichwelche is openöffnen and changingÄndern --
32
92000
2000
sie wollen eine Gesellschaft die offen ist und die sich weiterentwickelt --
01:52
"whereaswohingegen closedabgeschlossen individualsIndividuen preferbevorzugen conservativekonservativ, traditionaltraditionell, right-wingrechtsextreme viewsAnsichten."
33
94000
5000
"wohingegen 'geschlossene' Individuen eher konservative und traditionelle Ansichten vorziehen."
01:57
This traitMerkmal alsoebenfalls tellserzählt us a lot about the kindsArten of groupsGruppen people joinbeitreten.
34
99000
4000
Diese Eigenschaft sagt auch viel darüber aus welchen Gruppen Leute beitreten.
02:01
So here'shier ist the descriptionBeschreibung of a groupGruppe I foundgefunden on the WebWeb.
35
103000
2000
Hier ist die Beschreibung einer Gruppe, die ich im Internet gefunden habe.
02:03
What kindsArten of people would joinbeitreten a globalglobal communityGemeinschaft
36
105000
2000
Welche Leute würden einer globalen Gemeinschaft beitreten
02:05
welcomingBegrüßung people from everyjeden disciplineDisziplin and cultureKultur,
37
107000
2000
welche Menschen aus jeder Disziplin und Kultur willkommen heisst,
02:07
who seeksuchen a deeperTiefer understandingVerstehen of the worldWelt,
38
109000
2000
die nach einem tieferen Verständnis der Welt streben,
02:09
and who hopeHoffnung to turnWende that understandingVerstehen into a better futureZukunft for us all?
39
111000
3000
und deren Hoffnung es ist dieses Verständnis in eine bessere Zukunft für uns alle zu verwandeln?
02:12
This is from some guy namedgenannt TedTed.
40
114000
2000
Das ist von einem Typen namens TED.
02:14
(LaughterLachen)
41
116000
2000
(Gelächter)
02:16
Well, let's see now, if opennessOffenheit predictsprognostiziert who becomeswird liberalliberale,
42
118000
4000
Okay - wenn also 'Offenheit' Rückschlüsse darüber gibt wer ein Linksliberaler wird,
02:20
and opennessOffenheit predictsprognostiziert who becomeswird a TEDsterTed,
43
122000
2000
und 'Offenheit' Rückschlüsse darüber gibt wer ein TEDster wird ...
02:22
then mightMacht we predictvorhersagen that mostdie meisten TEDstersTEDster are liberalliberale?
44
124000
3000
heisst das wir können sagen dass die meisten TEDster linksliberal sind?
02:25
Let's find out.
45
127000
1000
Mal sehen!
02:26
I'm going to askFragen you to raiseerziehen your handHand, whetherob you are liberalliberale, left of centerCenter --
46
128000
4000
Ich würde Sie bitten Handzeichen zu geben, ob sie linksliberal, links oder eher in der Mitte anzuordnen sind --
02:30
on socialSozial issuesProbleme, we're talkingim Gespräch about, primarilyin erster Linie --
47
132000
2000
primär im Bezug auf gesellschaftliche Probleme, die wir ansprechen werden --
02:32
or conservativekonservativ, and I'll give a thirddritte optionMöglichkeit,
48
134000
2000
oder ob Sie eher konservativ sind, und ich werde Ihnen auch eine dritte Möglichkeit liefern,
02:34
because I know there are a numberNummer of libertarianslibertären in the audiencePublikum.
49
136000
2000
da ich weiss dass es im Publikum auch einige Liberale [vgl. FDP] gibt.
02:36
So, right now, please raiseerziehen your handHand --
50
138000
2000
Also, bitte heben Sie alle Ihre Hände --
02:38
down in the simulcastSimulcast roomsRäume, too,
51
140000
1000
unten in den Senderäumen auch,
02:39
let's let everybodyjeder see who'swer ist here --
52
141000
2000
lassen wir alle sehen wer hier ist.
02:41
please raiseerziehen your handHand if you would say that you are liberalliberale or left of centerCenter.
53
143000
3000
Bitte melden Sie sich jetzt wenn Sie sich als linksliberal oder links oder Mitte einschätzen.
02:44
Please raiseerziehen your handHand highhoch right now. OK.
54
146000
3000
Bitte melden Sie sich jetzt. Okay.
02:48
Please raiseerziehen your handHand if you'ddu würdest say you're libertarianLibertäre.
55
150000
2000
Bitte melden sich jetzt alle die sich als Liberale einschätzen.
02:51
OK, about a -- two dozenDutzend.
56
153000
2000
Okay, ungefähr - zwei Dutzend.
02:53
And please raiseerziehen your handHand if you'ddu würdest say you are right of centerCenter or conservativekonservativ.
57
155000
3000
Und jetzt melden sich bitte alle die sich als Mitte-rechts oder konservativ sehen.
02:56
One, two, threedrei, fourvier, fivefünf -- about eightacht or 10.
58
158000
5000
1, 2, 3, 4, 5 -- ungefähr acht oder zehn.
03:02
OK. This is a bitBit of a problemProblem.
59
164000
3000
Ok. Das ist ein Problem.
03:05
Because if our goalTor is to understandverstehen the worldWelt,
60
167000
3000
Denn wenn es unser Ziel ist, die Welt zu verstehen,
03:08
to seeksuchen a deeperTiefer understandingVerstehen of the worldWelt,
61
170000
2000
nach einem tieferen Verständnis der Welt zu streben,
03:10
our generalGeneral lackMangel of moralMoral- diversityVielfalt here is going to make it harderSchwerer.
62
172000
3000
dann wird das Fehlen moralischer Vielfalt hier das erschweren.
03:13
Because when people all shareAktie valuesWerte, when people all shareAktie moralsMoral,
63
175000
4000
Denn wenn Menschen die gleichen Werte haben, wenn Menschen die gleiche Moral haben,
03:17
they becomewerden a teamMannschaft, and onceEinmal you engageengagieren the psychologyPsychologie of teamsTeams,
64
179000
3000
werden sie zu einem Team, und wenn dann die Teampsychologie mal aktiviert ist
03:20
it shutsschaltet down open-mindedoffen thinkingDenken.
65
182000
2000
macht sie vorurteilsloses Denken unmöglich.
03:25
When the liberalliberale teamMannschaft losesverliert, as it did in 2004,
66
187000
4000
Wenn das linksliberale Team verliert, so wie 2004,
03:29
and as it almostfast did in 2000, we comfortKomfort ourselvesuns selbst.
67
191000
4000
oder wie es fast im Jahr 2000 verlor - dann trösten wir uns.
03:33
(LaughterLachen)
68
195000
2000
(Gelächter)
03:35
We try to explainerklären why halfHälfte of AmericaAmerika votedgewählt for the other teamMannschaft.
69
197000
4000
Wir versuchen zu erklären warum halb Amerika für das andere Team gestimmt hat.
03:39
We think they mustsollen be blindedgeblendet by religionReligion, or by simpleeinfach stupidityDummheit.
70
201000
5000
Unsere Annahme ist dass es blind vor Religion, oder schlicht Dummheit gewesen sein musste.
03:44
(LaughterLachen)
71
206000
3000
(Gelächter)
03:47
(ApplauseApplaus)
72
209000
8000
(Applaus)
03:55
So, if you think that halfHälfte of AmericaAmerika votesStimmen RepublicanRepublikaner
73
217000
6000
Wenn man also annimmt dass halb Amerika die Republikaner wählt
04:01
because they are blindedgeblendet in this way,
74
223000
3000
weil sie auf eine oder andere Art blind sind,
04:04
then my messageNachricht to you is that you're trappedgefangen in a moralMoral- matrixMatrix,
75
226000
3000
dann ist meine Nachricht an euch dass ihr in einer Moralmatrix gefangen seid,
04:07
in a particularinsbesondere moralMoral- matrixMatrix.
76
229000
1000
in einer besonderen Moralmatrix.
04:08
And by the matrixMatrix, I mean literallybuchstäblich the matrixMatrix, like the movieFilm "The MatrixMatrix."
77
230000
4000
Und wenn ich 'Matrix' sage meine ich buchstäblich die Matrix aus dem Film "Matrix".
04:12
But I'm here todayheute to give you a choiceWahl.
78
234000
2000
Doch heute stelle ich Sie vor eine Entscheidung:
04:14
You can eitherentweder take the blueblau pillPille and stickStock to your comfortingberuhigend delusionsWahnvorstellungen,
79
236000
4000
Sie können entweder die blaue Pille nehmen und bei Ihren beruhigenden Einbildungen bleiben,
04:18
or you can take the redrot pillPille,
80
240000
2000
oder Sie nehmen die rote Pille,
04:20
learnlernen some moralMoral- psychologyPsychologie and stepSchritt outsidedraußen the moralMoral- matrixMatrix.
81
242000
3000
und lernen Moralpsychologie und verlassen die Moralmatrix.
04:23
Now, because I know --
82
245000
2000
Nun, da ich weiß --
04:25
(ApplauseApplaus) --
83
247000
3000
(Applaus)
04:28
OK, I assumeannehmen that answersAntworten my questionFrage.
84
250000
2000
Ok, ich nehme an das beantwortet meine Frage.
04:30
I was going to askFragen you whichwelche one you pickedabgeholt, but no need.
85
252000
2000
Ich wollte fragen für welche Sie sich entschieden hatten, aber egal.
04:32
You're all highhoch in opennessOffenheit to experienceErfahrung, and besidesAußerdem,
86
254000
2000
Sie sind alle sehr 'offen für Erfahrung', und davon mal abgesehen
04:34
it lookssieht aus like it mightMacht even tasteGeschmack good, and you're all epicuresGenießer.
87
256000
3000
sieht sie auch ganz appetitlich aus, und Sie sind ja alle Feinschmecker.
04:37
So anywaysowieso, let's go with the redrot pillPille.
88
259000
2000
Wie auch immer, die rote Pille also.
04:39
Let's studyStudie some moralMoral- psychologyPsychologie and see where it takes us.
89
261000
2000
Lernen wir etwas Moralpsychologie und schauen wir wohin uns das führt.
04:41
Let's startAnfang at the beginningAnfang.
90
263000
2000
Fangen wir von vorne an.
04:43
What is moralityMoral and where does it come from?
91
265000
2000
Was ist Moral und woher stammt sie?
04:45
The worstam schlimmsten ideaIdee in all of psychologyPsychologie
92
267000
2000
Die schlimmste Idee der Psychologie
04:47
is the ideaIdee that the mindVerstand is a blankleer slateSchiefer at birthGeburt.
93
269000
3000
ist die Idee dass der Geist bei der Geburt ein unbeschriebenes Blatt ist.
04:50
DevelopmentalEntwicklungsbiologie psychologyPsychologie has showngezeigt
94
272000
2000
Die Entwicklungspsychologie hat gezeigt
04:52
that kidsKinder come into the worldWelt alreadybereits knowingzu wissen so much
95
274000
2000
dass Kinder in diese Welt kommen und schon viel wissen
04:54
about the physicalphysisch and socialSozial worldsWelten,
96
276000
2000
über die physischen und sozialen Welten;
04:56
and programmedprogrammiert to make it really easyeinfach for them to learnlernen certainsicher things
97
278000
4000
schon programmiert dafür sind manche Dinge rascher zu lernen
05:00
and hardhart to learnlernen othersAndere.
98
282000
1000
als andere.
05:01
The bestBeste definitionDefinition of innatenessinnateness I've ever seengesehen --
99
283000
2000
Die beste Definition von 'Angeborensein' die ich kenne --
05:03
this just clarifiesklärt so manyviele things for me --
100
285000
2000
sie erklärt so viel --
05:05
is from the brainGehirn scientistWissenschaftler GaryGary MarcusMarcus.
101
287000
2000
kommt von Hirnforscher Gary Marcus.
05:07
He sayssagt, "The initialInitiale organizationOrganisation of the brainGehirn does not dependabhängen that much on experienceErfahrung.
102
289000
5000
Er sagt, "Die anfängliche Organisation des Gehirns hängt nicht sonderlich von Erfahrung ab.
05:12
NatureNatur providesbietet a first draftEntwurf, whichwelche experienceErfahrung then revisesüberarbeitet.
103
294000
3000
Die Natur liefert einen ersten Entwurf, den die Erfahrung dann verbessert.
05:15
Built-inBuilt-in doesn't mean unmalleableunmalleable;
104
297000
2000
'integriert' heisst nicht 'unveränderlich';
05:17
it meansmeint organizedorganisiert in advanceVoraus of experienceErfahrung."
105
299000
3000
es heisst 'organisiert bevor Erfahrung'."
05:20
OK, so what's on the first draftEntwurf of the moralMoral- mindVerstand?
106
302000
2000
Ok, also was ist drin in diesem ersten Entwurf des moralischen Geistes?
05:22
To find out, my colleagueKollege, CraigCraig JosephJoseph, and I
107
304000
3000
Um das herauszufinden sind mein Kollege Craig Joseph und ich
05:25
readlesen throughdurch the literatureLiteratur on anthropologyAnthropologie,
108
307000
2000
Literatur über Anthropologie
05:27
on cultureKultur variationVariation in moralityMoral
109
309000
2000
über kulturelle Unterschiede in Moralität
05:29
and alsoebenfalls on evolutionaryevolutionär psychologyPsychologie, looking for matchesSpiele.
110
311000
2000
und über evolutionäre Psychologie durchgegangen, auf der Suche nach Übereinstimmungen.
05:31
What are the sortssortiert of things that people talk about acrossüber disciplinesDisziplinen?
111
313000
3000
Was sind die Dinge über die Leute aus allen Disziplinen reden,
05:34
That you find acrossüber culturesKulturen and even acrossüber speciesSpezies?
112
316000
2000
die man über verschiedene Kulturen hinweg findet, und sogar über verschiedene Arten hinweg?
05:36
We foundgefunden fivefünf -- fivefünf bestBeste matchesSpiele,
113
318000
2000
Wir haben fünf gefunden - die fünf besten Übereinstimmungen,
05:38
whichwelche we call the fivefünf foundationsGrundlagen of moralityMoral.
114
320000
2000
wir nennen sie die 'fünf Grundpfeiler der Moral'.
05:40
The first one is harmSchaden/carePflege.
115
322000
2000
Der erste ist 'harm-care'.
05:42
We're all mammalsSäugetiere here, we all have a lot of neuralneuronale and hormonalhormonelle programmingProgrammierung
116
324000
4000
Wir sind alle Säugetiere, wir sind alle in unseren Nerven und durch unsere Hormone so programmiert
05:46
that makesmacht us really bondBindung with othersAndere, carePflege for othersAndere,
117
328000
2000
dass wir mit anderen eine Verbindung eingehen, uns andere wichtig sind (care),
05:48
feel compassionBarmherzigkeit for othersAndere, especiallyinsbesondere the weakschwach and vulnerableverwundbar.
118
330000
3000
wir für andere Mitgefühl empfinden, besonders die Schwachen und Verletzlichen.
05:51
It givesgibt us very strongstark feelingsGefühle about those who causeUrsache harmSchaden.
119
333000
3000
Diese Programmierung gibt uns sehr starke Emotionen gegenüber denen die Leid (harm) verursachen.
05:54
This moralMoral- foundationStiftung underlieszugrunde liegt about 70 percentProzent
120
336000
3000
Dieser moralische Grundpfeiler findet sich in circa 70%
05:57
of the moralMoral- statementsAussagen I've heardgehört here at TEDTED.
121
339000
2000
der moralischen Äußerungen die ich hier bei TED zu hören bekommen habe.
05:59
The secondzweite foundationStiftung is fairnessFairness/reciprocityGegenseitigkeit.
122
341000
3000
Der zweite Grundpfeiler ist 'Fairness-Gegenseitigkeit'.
06:02
There's actuallytatsächlich ambiguousnicht eindeutig evidenceBeweise
123
344000
2000
Das Beweismaterial ist vieldeutig
06:04
as to whetherob you find reciprocityGegenseitigkeit in other animalsTiere,
124
346000
2000
im Bezug auf 'Gegenseitigkeit' in anderen Tieren,
06:06
but the evidenceBeweise for people could not be clearerklarer.
125
348000
2000
doch das Beweismaterial für Menschen könnte eindeutiger nicht sein.
06:08
This NormanNorman RockwellRockwell paintingMalerei is callednamens "The GoldenGolden RuleRegel,"
126
350000
2000
Dieses Norman Rockwell Gemälde heisst "The Golden Rule" ["Die Goldene Regel"],
06:10
and we heardgehört about this from KarenKaren ArmstrongArmstrong, of courseKurs,
127
352000
2000
und wir haben davon schon von Karen Armstrong gehört,
06:12
as the foundationStiftung of so manyviele religionsReligionen.
128
354000
3000
als dem Grundpfeiler so vieler Religionen.
06:15
That secondzweite foundationStiftung underlieszugrunde liegt the other 30 percentProzent
129
357000
2000
Dieser zweite Grundpfeiler stützt die anderen 30%
06:17
of the moralMoral- statementsAussagen I've heardgehört here at TEDTED.
130
359000
2000
der moralischen Äußerungen die ich hier bei TED gehört habe.
06:19
The thirddritte foundationStiftung is in-groupGruppe/loyaltyTreue.
131
361000
2000
Der dritte Grundpfeiler ist 'Loyalität innerhalb der Gruppe'.
06:21
You do find groupsGruppen in the animalTier kingdomKönigreich --
132
363000
2000
Man findet 'Gruppen' im Tierreich --
06:23
you do find cooperativeGenossenschaft groupsGruppen --
133
365000
2000
man findet 'Gruppen' die zusammenarbeiten --
06:25
but these groupsGruppen are always eitherentweder very smallklein or they're all siblingsGeschwister.
134
367000
3000
doch diese Gruppen sind entweder sehr klein oder sie sind alle verwandt.
06:28
It's only amongunter humansMenschen that you find very largegroß groupsGruppen of people
135
370000
3000
Nur unter Menschen findet man sehr große Gruppen von Leuten,
06:31
who are ablefähig to cooperatekooperieren, joinbeitreten togetherzusammen into groupsGruppen,
136
373000
3000
welche in der Lage sind zusammenzuarbeiten, sich in Gruppen zusammenzutun --
06:34
but in this caseFall, groupsGruppen that are unitedvereinigt to fightKampf other groupsGruppen.
137
376000
4000
aber in diesem Fall, in Gruppen die sich zusammentun um andere Gruppen zu bekämpfen.
06:38
This probablywahrscheinlich comeskommt from our long historyGeschichte of tribalStammes livingLeben, of tribalStammes psychologyPsychologie.
138
380000
4000
Das kommt wohl von unserer langen Geschichte von Leben in Stämmen, von Stammespsychologie.
06:42
And this tribalStammes psychologyPsychologie is so deeplytief pleasurableangenehme
139
384000
2000
Und diese Stammespsychologie ist so angenehm
06:44
that even when we don't have tribesStämme,
140
386000
2000
dass selbst wenn wir keine Stämme haben,
06:46
we go aheadvoraus and make them, because it's funSpaß.
141
388000
3000
wir sie einfach erfinden weil es Spaß macht.
06:49
(LaughterLachen)
142
391000
3000
(Gelächter)
06:52
SportsSport is to warKrieg as pornographyPornografie is to sexSex.
143
394000
3000
Sport ist für den Krieg was Pornographie für Sex ist.
06:55
We get to exerciseÜbung some ancientAntike, ancientAntike drivesfährt.
144
397000
3000
Er lässt uns sehr, sehr alte Triebe ausleben.
06:58
The fourthvierte foundationStiftung is authorityBehörde/respectdie Achtung.
145
400000
3000
Der vierte Grundpfeiler ist 'Autorität-Respekt'.
07:01
Here you see submissiveDevot gesturesGesten from two membersMitglieder of very closelyeng relatedverwandte speciesSpezies.
146
403000
3000
Hier sehen Sie unterwürfige Gesten von zwei Mitgliedern zweier nah verwandten Arten --
07:04
But authorityBehörde in humansMenschen is not so closelyeng basedbasierend on powerLeistung and brutalityBrutalität,
147
406000
4000
doch beim Menschen ist Autorität nicht so sehr auf Kraft und Brutalität beruhend,
07:08
as it is in other primatesPrimaten.
148
410000
2000
wie bei anderen Primaten.
07:10
It's basedbasierend on more voluntaryfreiwillig deferenceEhrerbietung,
149
412000
2000
Sie beruht auf mehr freiwilliger Ehrerbietung,
07:12
and even elementsElemente of love, at timesmal.
150
414000
2000
und manchmal sogar Elementen von Liebe.
07:14
The fifthfünfte foundationStiftung is purityReinheit/sanctityHeiligkeit.
151
416000
2000
Der fünfte Grundpfeiler ist 'Reinheit-Heiligkeit'.
07:16
This paintingMalerei is callednamens "The AllegoryAllegorie Of ChastityKeuschheit,"
152
418000
3000
Dieses Gemälde heisst "The Allegory of Chastity" ["Allegorie der Keuschheit"],
07:19
but purity'sReinheit des not just about suppressingunterdrücken femaleweiblich sexualitySexualität.
153
421000
3000
doch Reinheit hat nicht nur etwas mit dem Unterdrücken weiblicher Sexualität zu tun.
07:22
It's about any kindArt of ideologyIdeologie, any kindArt of ideaIdee
154
424000
3000
Hier geht es um jedwede Ideologie, jedwede Idee
07:25
that tellserzählt you that you can attainzu erreichen virtueTugend
155
427000
2000
die einem sagt dass man Tugendhaftigkeit dadurch erlangen kann,
07:27
by controllingControlling what you do with your bodyKörper,
156
429000
1000
indem man kontrolliert was man mit seinem Körper anstellt,
07:28
by controllingControlling what you put into your bodyKörper.
157
430000
2000
indem man kontrolliert was man in ihn hineinsteckt.
07:30
And while the politicalpolitisch right maykann moralizemoralisieren sexSex much more,
158
432000
4000
Und während die politisch Konservativen vielleicht viel mehr über Sex moralisieren,
07:34
the politicalpolitisch left is really doing a lot of it with foodLebensmittel.
159
436000
2000
macht die politische Linke das gleiche mit der Ernährung.
07:36
FoodEssen is becomingWerden extremelyäußerst moralizedsteckst nowadaysheutzutage,
160
438000
2000
Die Ernährung wird heutzutage zu einem extrem moralischen Thema,
07:38
and a lot of it is ideasIdeen about purityReinheit,
161
440000
2000
und viel davon hat mit Vorstellungen von Reinheit zu tun,
07:40
about what you're willingbereit to touchberühren, or put into your bodyKörper.
162
442000
3000
damit was du freiwillig berührst oder in deinen Körper steckst.
07:43
I believe these are the fivefünf bestBeste candidatesKandidaten
163
445000
3000
Meiner Meinung nach sind dies die fünf besten Kandidaten
07:46
for what's writtengeschrieben on the first draftEntwurf of the moralMoral- mindVerstand.
164
448000
2000
für das, was der erste Entwurf des moralischen Geistes enthält.
07:48
I think this is what we come with, at leastam wenigsten
165
450000
1000
Ich denke dass wir damit beginnen, wenigstens
07:49
a preparednessVorsorge to learnlernen all of these things.
166
451000
3000
mit einer Bereitschaft all dies zu lernen.
07:52
But as my sonSohn, MaxMax, growswächst up in a liberalliberale collegeHochschule townStadt,
167
454000
3000
Aber wenn nun mein Sohn Max in einer linksliberalen Universitätsstadt aufwächst,
07:56
how is this first draftEntwurf going to get revisedüberarbeitet?
168
458000
2000
wie wird dieser ursprüngliche Entwurf verändert werden?
07:58
And how will it endEnde up beingSein differentanders
169
460000
2000
Und wie wird er sich unterscheiden
08:00
from a kidKind borngeboren 60 milesMeilen southSüd of us in LynchburgLynchburg, VirginiaVirginia?
170
462000
3000
von dem eines Kindes, das 60 Meilen südlich von uns geboren wurde, in Lynchburg, Virginia?
08:03
To think about cultureKultur variationVariation, let's try a differentanders metaphorMetapher.
171
465000
2000
Um uns 'kultureller Variation' anzunähern sollten wir eine andere Metapher ausprobieren.
08:05
If there really are fivefünf systemsSysteme at work in the mindVerstand --
172
467000
3000
Wenn wirklich fünf Systeme in unserem Geist arbeiten --
08:08
fivefünf sourcesQuellen of intuitionsIntuitionen and emotionsEmotionen --
173
470000
2000
fünf Quellen von Intuition und Emotion --
08:10
then we can think of the moralMoral- mindVerstand
174
472000
2000
dann können wir uns den moralischen Geist vorsellen
08:12
as beingSein like one of those audioAudio- equalizersEqualizer that has fivefünf channelsKanäle,
175
474000
2000
als ein Audioequalizer der fünf Kanäle hat
08:14
where you can setSet it to a differentanders settingRahmen on everyjeden channelKanal.
176
476000
2000
wo man auf jedem Kanal eine andere Einstellung haben kann.
08:16
And my colleaguesKollegen, BrianBrian NosekNosek and JesseJesse GrahamGraham, and I,
177
478000
3000
Meine Kollegen, Brian Nosek und Jesse Graham, und ich
08:19
madegemacht a questionnaireFragebogen, whichwelche we put up on the WebWeb at wwwwww.YourMoralsYourMorals.orgorg.
178
481000
5000
haben einen Fragebogen erstellt den wir auf www.YourMorals.org hochgeladen haben.
08:24
And so farweit, 30,000 people have takengenommen this questionnaireFragebogen, and you can too.
179
486000
5000
Bisher haben 30.000 Leute diesen Fragebogen ausgefüllt (sie können auch).
08:29
Here are the resultsErgebnisse.
180
491000
1000
Hier die Ergebnisse.
08:30
Here are the resultsErgebnisse from about 23,000 AmericanAmerikanische citizensBürger.
181
492000
3000
Das sind die Resultate von ungefähr 23.000 Amerikanern.
08:33
On the left, I've plottedgeplottet the scoresNoten for liberalsliberalen;
182
495000
2000
Links sind die Werte für die Linksliberalen,
08:35
on the right, those for conservativeskonservativen; in the middleMitte, the moderatesgemäßigten.
183
497000
2000
rechts die der Konservativen, in der Mitte die der Moderaten.
08:37
The blueblau lineLinie showszeigt an you people'sMenschen responsesAntworten
184
499000
2000
Die blaue Linie zeigt die Antworten der Leute,
08:39
on the averagedurchschnittlich of all the harmSchaden questionsFragen.
185
501000
2000
im Durchschnitt, auf alle 'harm'-Fragen.
08:41
So, as you see, people carePflege about harmSchaden and carePflege issuesProbleme.
186
503000
3000
Sie können also sehen dass den Leuten 'harm' und 'care' Probleme wichtig sind.
08:44
They give highhoch endorsementBilligung of these sortssortiert of statementsAussagen
187
506000
2000
Es gibt große Zustimmung zu diesen Arten von Aussagen,
08:46
all acrossüber the boardTafel, but as you alsoebenfalls see,
188
508000
2000
aber man kann auch sehen,
08:48
liberalsliberalen carePflege about it a little more than conservativeskonservativen -- the lineLinie slopesPisten down.
189
510000
3000
dass sie Linksliberalen etwas wichtiger sind als Konservativen, die Linie sinkt ab.
08:51
SameGleichen storyGeschichte for fairnessFairness.
190
513000
2000
Das gleiche bei 'Fairness'.
08:53
But look at the other threedrei linesLinien.
191
515000
2000
Aber sehen Sie sich die anderen drei Linien an
08:55
For liberalsliberalen, the scoresNoten are very lowniedrig.
192
517000
2000
bei Linksliberalen sind die Werte sehr niedrig.
08:57
LiberalsLiberalen are basicallyGrundsätzlich gilt sayingSprichwort, "No, this is not moralityMoral.
193
519000
2000
Die Aussage der Linksliberalen ist, im Grunde genommen: "Nein, es hat nichts mit Moralität zu tun.
08:59
In-groupGruppe, authorityBehörde, purityReinheit -- this stuffSachen has nothing to do with moralityMoral. I rejectablehnen it."
194
521000
3000
Autorität innerhalb der Gruppe, Reinheit -- das hat nichts mit Moral zu tun. Ich lehne das ab."
09:02
But as people get more conservativekonservativ, the valuesWerte riseerhebt euch.
195
524000
2000
Doch umso konservativer die Leute werden, umso mehr steigen die Werte.
09:04
We can say that liberalsliberalen have a kindArt of a two-channel2-Kanal,
196
526000
3000
Wir könnten sagen dass Linksliberale eine Art -- Zweikanal haben,
09:07
or two-foundationzwei-Stiftung moralityMoral.
197
529000
1000
oder eine Moralität mit zwei Grundpfeilern.
09:08
ConservativesKonservativen have more of a five-foundationfünf-Stiftung,
198
530000
2000
Konservative haben eher 5-Grundpfeiler,
09:10
or five-channel5-Kanal moralityMoral.
199
532000
2000
oder 5-kanalige Moralität.
09:12
We find this in everyjeden countryLand we look at.
200
534000
1000
Dies gilt für jedes Land das wir untersuchen.
09:13
Here'sHier ist the dataDaten for 1,100 CanadiansKanadier.
201
535000
2000
Hier sind die Daten von 1.100 Kanadiern.
09:15
I'll just flipflip throughdurch a fewwenige other slidesFolien.
202
537000
2000
Ich gehe noch schnell durch ein paar andere Slides.
09:17
The U.K., AustraliaAustralien, NewNeu ZealandZealand, WesternWestern EuropeEuropa, EasternÖstlichen EuropeEuropa,
203
539000
3000
Großbritannien, Australien, Neuseeland, Westeuropa, Osteuropa,
09:20
LatinLatein AmericaAmerika, the MiddleMitte EastOsten, EastOsten AsiaAsien and SouthSüden AsiaAsien.
204
542000
4000
Lateinamerika, der Mittlere Osten, Ostasien und Südasien.
09:24
NoticeBekanntmachung alsoebenfalls that on all of these graphsDiagramme,
205
546000
2000
Beachten Sie dass in all diesen Graphen
09:26
the slopeSteigung is steepersteiler on in-groupGruppe, authorityBehörde, purityReinheit.
206
548000
3000
das Gefälle steiler ist bei dem 'Inneren der Gruppe', 'Autorität', 'Reinheit'.
09:29
WhichDie showszeigt an that withininnerhalb any countryLand,
207
551000
2000
Das zeigt dass in jedem beliebigen Land
09:31
the disagreementMeinungsverschiedenheit isn't over harmSchaden and fairnessFairness.
208
553000
3000
keine Unstimmigkeit existiert im Bezug auf 'harm' und 'Fairness'.
09:34
EverybodyAlle -- I mean, we debateDebatte over what's fairMesse --
209
556000
2000
Jeder -- ich meine, wir debattieren darüber 'was fair ist' --
09:36
but everybodyjeder agreesstimmt zu that harmSchaden and fairnessFairness matterAngelegenheit.
210
558000
3000
jeder stimmt zu dass 'harm' und Fairness von Bedeutung sind.
09:39
MoralMoralische argumentsArgumente withininnerhalb culturesKulturen
211
561000
2000
Bei moralischen Streits innerhalb von Kulturen
09:41
are especiallyinsbesondere about issuesProbleme of in-groupGruppe, authorityBehörde, purityReinheit.
212
563000
3000
geht es besonders über das 'Innere der Gruppe', 'Autorität', 'Reinheit'.
09:44
This effectbewirken is so robustrobust that we find it no matterAngelegenheit how we askFragen the questionFrage.
213
566000
3000
Dieser Effekt ist so stark dass wir ihn immer antreffen, egal wie wir die Frage stellen.
09:47
In one recentkürzlich studyStudie,
214
569000
2000
In einer aktuellen Studie
09:49
we askedaufgefordert people to supposeannehmen you're about to get a dogHund.
215
571000
2000
baten wir Leute sich vorstellen sie wären davor sich einen Hund anzuschaffen.
09:51
You pickedabgeholt a particularinsbesondere breedRasse,
216
573000
1000
Sie haben sich eine bestimmte Züchtung ausgesucht,
09:52
you learnedgelernt some newneu informationInformation about the breedRasse.
217
574000
2000
sie haben sich ein paar neue Informationen über diese Zucht angeeignet.
09:54
SupposeNehmen wir an you learnlernen that this particularinsbesondere breedRasse is independent-mindedunabhängig denkende,
218
576000
3000
Dann lernten sie dass diese bestimmte Züchtung eigenständig denken kann,
09:57
and relatesbezieht sich to its ownerInhaber as a friendFreund and an equalgleich?
219
579000
2000
und die Beziehung zu ihrem Besitzer als die von Freund und Gleichgestelltem sieht.
09:59
Well, if you are a liberalliberale, you say, "Hey, that's great!"
220
581000
2000
Als Linksliberaler sagt man jetzt: "Hey, das ist doch super!"
10:01
Because liberalsliberalen like to say, "FetchHolen, please."
221
583000
2000
Weil sie gerne "Hol Stöckchen - bitte" sagen.
10:03
(LaughterLachen)
222
585000
4000
(Gelächter)
10:08
But if you're conservativekonservativ, that's not so attractiveattraktiv.
223
590000
3000
Doch wenn man konservativ ist, erscheint das nicht so verlockend.
10:11
If you're conservativekonservativ, and you learnlernen that a dog'sdes Hundes extremelyäußerst loyalloyal
224
593000
3000
Wenn man konservativ ist und herausfindet dass ein Hund sehr loyal ist
10:14
to its home and familyFamilie, and doesn't warmwarm up quicklyschnell to strangersFremde,
225
596000
2000
seinem Heim und seiner Familie gegenüber, und dass er sich nur schwer an Fremde gewöhnt,
10:16
for conservativeskonservativen, well, loyaltyTreue is good -- dogsHunde oughtsollen to be loyalloyal.
226
598000
3000
für Konservative -- nun, Loyalität ist gut! -- müssen Hunde loyal sein.
10:19
But to a liberalliberale, it soundsGeräusche like this dogHund
227
601000
2000
Doch für einen Linksliberalen klingt es so als ob dieser Hund
10:21
is runningLaufen for the RepublicanRepublikaner nominationNominierung.
228
603000
2000
sich um eine Kandidatur für die Republikaner bewirbt.
10:23
(LaughterLachen)
229
605000
1000
(Gelächter)
10:24
So, you mightMacht say, OK,
230
606000
2000
Sie könnten also sagen, ok,
10:26
there are these differencesUnterschiede betweenzwischen liberalsliberalen and conservativeskonservativen,
231
608000
2000
hier haben wir diese Unterschiede zwischen Linksliberalen und Konservativen,
10:28
but what makesmacht those threedrei other foundationsGrundlagen moralMoral-?
232
610000
2000
aber was macht die anderen drei Grundpfeiler moralisch?
10:30
Aren'tSind nicht those just the foundationsGrundlagen of xenophobiaFremdenfeindlichkeit
233
612000
2000
Sind das nicht einfach die Grundpfeiler von Fremdenfeindlichkeit
10:32
and authoritarianismAutoritarismus and PuritanismPuritanismus?
234
614000
2000
und Autoritarismus und Puritanismus?
10:34
What makesmacht them moralMoral-?
235
616000
1000
Was macht sie moralisch?
10:35
The answerAntworten, I think, is containedenthalten in this incredibleunglaublich triptychTriptychon from HieronymusHieronymus BoschBosch,
236
617000
3000
Meiner Meinung nach liegt die Antwort dazu in diesem unglaublichen Triptychon von Hieronymus Bosch,
10:38
"The GardenGarten of EarthlyIrdischen DelightsKöstlichkeiten."
237
620000
2000
"The Garden of Earthly Delights" ["Der Garten der Irdischen Freuden"].
10:40
In the first panelPanel, we see the momentMoment of creationSchaffung.
238
622000
3000
Auf der ersten Tafel sehen wir den Augenblick der Schöpfung.
10:43
All is orderedbestellt, all is beautifulschön, all the people and animalsTiere
239
625000
4000
Alles ist ordentlich, alles ist schon, Menschen und Tiere
10:47
are doing what they're supposedsoll to be doing, where they're supposedsoll to be.
240
629000
3000
tun was sie tun sollen, wo sie sein sollen.
10:50
But then, givengegeben the way of the worldWelt, things changeVeränderung.
241
632000
3000
Doch dann, aufgrund der Art wie die Welt nunmal ist, ändert sich alles.
10:53
We get everyjeden personPerson doing whateverwas auch immer he wants,
242
635000
2000
Jeder treibt nur noch was er will,
10:55
with everyjeden apertureÖffnung of everyjeden other personPerson and everyjeden other animalTier.
243
637000
3000
mit jeder "Öffnung" von jedem anderen Mensch und jedem anderen Tier.
10:58
Some of you mightMacht recognizeerkenne this as the '60s.
244
640000
2000
Vielleicht erkennen manche von Ihnen darin die 60er wieder.
11:00
(LaughterLachen)
245
642000
1000
(Gelächter)
11:01
But the '60s inevitablyzwangsläufig givesgibt way to the '70s,
246
643000
4000
Doch auf die 60er folgen unweigerlich die 70er,
11:05
where the cuttingsStecklinge of the aperturesÖffnungen hurtverletzt a little bitBit more.
247
647000
4000
wo die Schneiden der "Öffnungen" ein bisschen schmerzhafter sind.
11:09
Of courseKurs, BoschBosch callednamens this hellHölle.
248
651000
2000
Natürlich bezeichnete Bosch das als Hölle.
11:11
So this triptychTriptychon, these threedrei panelsPlatten
249
653000
3000
Dieses Triptychon also, diese drei Tafeln,
11:14
portraydarzustellen the timelesszeitlose truthWahrheit that orderAuftrag tendsneigt to decayVerfall.
250
656000
5000
stellen die ewige Wahrheit dar dass Ordnung dazu neigt zu zerbrechen.
11:19
The truthWahrheit of socialSozial entropyEntropie.
251
661000
2000
Die Wahrheit sozialer Entropie.
11:21
But lestdamit you think this is just some partTeil of the ChristianChristliche imaginationPhantasie
252
663000
3000
Damit Sie nicht denken dass dies nur Teil von christlicher Vorstellungskraft ist,
11:24
where ChristiansChristen have this weirdseltsam problemProblem with pleasureVergnügen,
253
666000
2000
wo Christen dieses komische Problem mit Vergnügen haben,
11:26
here'shier ist the samegleich storyGeschichte, the samegleich progressionProgression,
254
668000
3000
gibt es hier die gleiche Geschichte noch einmal, dieselbe Entwicklung,
11:29
told in a paperPapier- that was publishedveröffentlicht in NatureNatur a fewwenige yearsJahre agovor,
255
671000
3000
in einer wissenschaftlichen Arbeit die in "Nature" vor ein paar Jahren veröffentlicht wurde,
11:32
in whichwelche ErnstErnst FehrFehr and SimonSimon GachterGächter had people playspielen a commonsCommons dilemmaDilemma.
256
674000
4000
in welcher Ernst Fehr und Simon Gachter Leute eine Allmendesituation durchspielen.
11:36
A gameSpiel in whichwelche you give people moneyGeld,
257
678000
2000
Das ist ein Spiel in dem man Leuten Geld gibt,
11:38
and then, on eachjede einzelne roundrunden of the gameSpiel,
258
680000
2000
und dann, in jeder Runde,
11:40
they can put moneyGeld into a commonverbreitet potPot,
259
682000
2000
können sie Geld in einen Gemeinschaftstopf tun,
11:42
and then the experimenterExperimentator doublesDoppel what's in there,
260
684000
2000
woraufhin der Experimentator den Betrag darin verdoppelt,
11:44
and then it's all dividedgeteilt amongunter the playersSpieler.
261
686000
2000
dann wird alles unter den Spielern aufgeteilt.
11:46
So it's a really nicenett analoganalog for all sortssortiert of environmentalUmwelt issuesProbleme,
262
688000
3000
Das ist eine sehr gute Analogie für eine Reihe von Umweltproblemen,
11:49
where we're askingfragen people to make a sacrificeOpfern
263
691000
2000
wo wir Leute um ein Opfer bitten,
11:51
and they themselvessich don't really benefitVorteil from theirihr ownbesitzen sacrificeOpfern.
264
693000
2000
und sie selber gar nicht wirklich etwas von diesem Opfer haben.
11:53
But you really want everybodyjeder elsesonst to sacrificeOpfern,
265
695000
2000
Aber du willst dass wirklich jeder andere etwas aufgibt,
11:55
but everybodyjeder has a temptationVersuchung to a freefrei rideReiten.
266
697000
2000
während jeder dazu versucht ist die anderen auszunutzen.
11:57
And what happensdas passiert is that, at first, people startAnfang off reasonablyvernünftigerweise cooperativeGenossenschaft --
267
699000
4000
Was nun geschieht ist das Leute am Anfang noch ganz gut kooperieren --
12:01
and this is all playedgespielt anonymouslyAnonym.
268
703000
2000
das Spiel verläuft unter Anonymität --
12:03
On the first roundrunden, people give about halfHälfte of the moneyGeld that they can.
269
705000
3000
in der ersten Runde geben Leute ungefähr die Hälfte des Geldes das sie geben können.
12:06
But they quicklyschnell see, "You know what, other people aren'tsind nicht doing so much thoughobwohl.
270
708000
3000
Aber ihnen wird schnell klar, "Hm, die anderen geben nicht so viel.
12:09
I don't want to be a suckerSauger. I'm not going to cooperatekooperieren."
271
711000
2000
Ich lass mich doch nicht ausnutzen. Ich werde nicht kooperieren."
12:11
And so cooperationZusammenarbeit quicklyschnell decayszerfällt from reasonablyvernünftigerweise good, down to closeschließen to zeroNull.
272
713000
4000
Und somit verfällt Kooperation schnell, von 'ganz gut' bis 'so gut wie gar nicht'.
12:15
But then -- and here'shier ist the trickTrick --
273
717000
2000
Aber dann -- und das ist der Clou! --
12:17
FehrFehr and GachterGächter said, on the seventhsiebte roundrunden, they told people,
274
719000
2000
Fehr und Gachter sagten in der siebten Runde den Leuten
12:19
"You know what? NewNeu ruleRegel.
275
721000
2000
"Wisst ihr was? Neue Regel.
12:21
If you want to give some of your ownbesitzen moneyGeld
276
723000
2000
Falls ihr etwas von eurem Geld dafür geben wollt
12:23
to punishbestrafen people who aren'tsind nicht contributingbeitragend, you can do that."
277
725000
4000
andere Leute zu bestrafen die nichts geben, könnt ihr das tun."
12:27
And as soonbald as people heardgehört about the punishmentBestrafung issueProblem going on,
278
729000
3000
Und sobald Leute von diesem Bestrafungsding hörten
12:30
cooperationZusammenarbeit shootsschießt up.
279
732000
2000
schoss Kooperation nach oben.
12:32
It shootsschießt up and it keepshält going up.
280
734000
2000
Sie ging steil aufwärts und immer weiter.
12:34
There's a lot of researchForschung showingzeigt that to solvelösen cooperativeGenossenschaft problemsProbleme, it really helpshilft.
281
736000
3000
Eine Menge Forschung beweist dass dies als Lösung für das Kooperationsproblem wirklich hilft.
12:37
It's not enoughgenug to just appealBeschwerde to people'sMenschen good motivesMotive.
282
739000
2000
Es reicht nicht nur an die guten Motive der Leute zu appellieren,
12:39
It really helpshilft to have some sortSortieren of punishmentBestrafung.
283
741000
2000
es hilft wirklich auch eine Art Bestrafung bereit zu haben.
12:41
Even if it's just shameSchande or embarrassmentVerlegenheit or gossipKlatsch,
284
743000
2000
Selbst wenn es nur Scham oder Peinlichkeit oder Getratsche ist,
12:43
you need some sortSortieren of punishmentBestrafung to bringbringen people,
285
745000
3000
man braucht eine Form von Bestrafung um Leute dazu zu bringen
12:46
when they're in largegroß groupsGruppen, to cooperatekooperieren.
286
748000
2000
- in großen Gruppen - zu kooperieren.
12:48
There's even some recentkürzlich researchForschung suggestingschlägt vor that religionReligion --
287
750000
3000
Aktuelle Forschungsergebnisse suggerieren sogar dass Religion --
12:51
primingGrundierung God, makingHerstellung people think about God --
288
753000
2000
indem sie Gott in den Vordergrund stellt, Leute dazu bringt über Gott nachzudenken --
12:53
oftenhäufig, in some situationsSituationen, leadsführt to more cooperativeGenossenschaft, more pro-socialprosoziale behaviorVerhalten.
289
755000
5000
oft, in manchen Situationen zu kooperativerem, sozialerem Verhalten führt.
12:59
Some people think that religionReligion is an adaptationAnpassung
290
761000
2000
Manche denken dass Religion eine Art 'Angleichung' ist,
13:01
evolvedentwickelt bothbeide by culturalkulturell and biologicalbiologisch evolutionEvolution
291
763000
2000
die sich aus sowohl kultureller als auch biologischer Evolution heraus entwickelt hat,
13:03
to make groupsGruppen to coherezusammenhängen,
292
765000
2000
um Gruppenzusammenhalt zu schaffen,
13:05
in partTeil for the purposeZweck of trustingVertrauen eachjede einzelne other,
293
767000
2000
teils damit sich Leute gegenseitig vertrauen,
13:07
and then beingSein more effectiveWirksam at competingim Wettbewerb with other groupsGruppen.
294
769000
2000
und dann effektiver darin sind sich mit anderen Gruppen zu messen.
13:09
I think that's probablywahrscheinlich right,
295
771000
1000
Das ist wahrscheinlich korrekt,
13:10
althoughobwohl this is a controversialumstritten issueProblem.
296
772000
2000
auch wenn es ein kontroverses Thema ist.
13:12
But I'm particularlyinsbesondere interestedinteressiert in religionReligion,
297
774000
2000
Ich bin jedoch sehr interessiert an Religion,
13:14
and the originUrsprung of religionReligion, and in what it does to us and for us.
298
776000
3000
und den Ursprung von Religion, und was es uns antut und für uns tut.
13:17
Because I think that the greatestgrößte wonderWunder in the worldWelt is not the GrandGrand CanyonCanyon.
299
779000
4000
Denn meiner Meinung nach ist der Grand Canyon nicht das größte Wunder der Welt.
13:21
The GrandGrand CanyonCanyon is really simpleeinfach.
300
783000
2000
Der Grand Canyon ist recht simpel.
13:23
It's just a lot of rockRock, and then a lot of waterWasser and windWind, and a lot of time,
301
785000
3000
Eine Menge Fels, und dann noch eine Menge Wasser und Wind, und viel Zeit,
13:26
and you get the GrandGrand CanyonCanyon.
302
788000
2000
und dann hat man den Grand Canyon.
13:28
It's not that complicatedkompliziert.
303
790000
1000
Das ist nicht so kompliziert.
13:29
This is what's really complicatedkompliziert,
304
791000
2000
Was wirklich kompliziert ist,
13:31
that there were people livingLeben in placessetzt like the GrandGrand CanyonCanyon,
305
793000
2000
ist dass Leute in Orten wie dem Grand Canyon gelebt haben,
13:33
cooperatingZusammenarbeit with eachjede einzelne other, or on the savannahsSavannen of AfricaAfrika,
306
795000
2000
in Kooperation miteinander, oder in der afrikanischen Savanne,
13:35
or on the frozengefroren shoresUfer of AlaskaAlaska, and then some of these villagesDörfer
307
797000
3000
oder an den gefrorenen Küsten Alaskas, und dass dann ein paar dieser Dörfer
13:38
grewwuchs into the mightymächtige citiesStädte of BabylonBabylon, and RomeRom, and TenochtitlanTenochtitlan.
308
800000
4000
zu mächtigen Städten wie Babylon, und Rom, und Tenochtitlan geworden sind.
13:42
How did this happengeschehen?
309
804000
1000
Wie ist das passiert?
13:43
This is an absoluteAbsolute miracleWunder, much harderSchwerer to explainerklären than the GrandGrand CanyonCanyon.
310
805000
3000
Es ist ein absolutes Wunder, viel schwerer zu erklären als der Grand Canyon.
13:46
The answerAntworten, I think, is that they used everyjeden toolWerkzeug in the toolboxToolbox.
311
808000
3000
Meiner Meinung nach liegt die Antwort darin dass sie alles benutzt hatten was ihnen zur Verfügung stand.
13:49
It tookdauerte all of our moralMoral- psychologyPsychologie
312
811000
2000
Es hat all unsere Moralpsychologie gebraucht
13:51
to createerstellen these cooperativeGenossenschaft groupsGruppen.
313
813000
2000
um diese kooperativen Gruppen zu schaffen.
13:53
Yes, you do need to be concernedbesorgt about harmSchaden,
314
815000
2000
Ja, man muss sich Gedanken über 'harm' machen,
13:55
you do need a psychologyPsychologie of justiceGerechtigkeit.
315
817000
1000
man braucht eine Psychologie der Gerechtigkeit.
13:56
But it really helpshilft to organizeorganisieren a groupGruppe if you can have sub-groupsUntergruppen,
316
818000
3000
Doch es hilft sehr eine Gruppe zu organisieren wenn man Untergruppen haben kann,
13:59
and if those sub-groupsUntergruppen have some internalintern structureStruktur,
317
821000
3000
und wenn diese Untergruppen eine interne Struktur besitzen,
14:02
and if you have some ideologyIdeologie that tellserzählt people
318
824000
2000
und wenn man eine Ideologie hat die den Leuten vorschreibt
14:04
to suppressunterdrücken theirihr carnalityFleischlichkeit, to pursueverfolgen higherhöher, nobleredler endsendet.
319
826000
4000
ihre Fleischlichkeit zu unterdrücken, um höhere, edlere Ziele zu verfolgen.
14:08
And now we get to the cruxCrux of the disagreementMeinungsverschiedenheit
320
830000
2000
Und jetzt kommen wir zum Kern der Unstimmigkeit
14:10
betweenzwischen liberalsliberalen and conservativeskonservativen.
321
832000
2000
zwischen Linksliberalen und Konservativen.
14:12
Because liberalsliberalen rejectablehnen threedrei of these foundationsGrundlagen.
322
834000
2000
Denn Linksliberale lehnen drei dieser 'Grundpfeiler' ab.
14:14
They say "No, let's celebratefeiern diversityVielfalt, not commonverbreitet in-groupGruppe membershipMitgliedschaft."
323
836000
3000
Sie sagen "Nein, lasst uns Vielfalt feiern, nicht die gemeinsame Mitgliedschaft in einer Gruppe."
14:17
They say, "Let's questionFrage authorityBehörde."
324
839000
2000
Sie sagen, "Lasst uns Autorität in Frage stellen."
14:19
And they say, "Keep your lawsGesetze off my bodyKörper."
325
841000
2000
Und sie sagen, "Haltet eure Gesetze von meinem Körper fern."
14:21
LiberalsLiberalen have very nobleedel motivesMotive for doing this.
326
843000
3000
Linksliberale haben sehr edle Motive dafür dass sie dies tun.
14:24
TraditionalTraditionelle authorityBehörde, traditionaltraditionell moralityMoral can be quiteganz repressiverepressiv,
327
846000
3000
Traditionelle Autorität, traditionelle Moral, können sehr repressiv sein,
14:27
and restrictiverestriktive to those at the bottomBoden, to womenFrau, to people that don't fitpassen in.
328
849000
3000
und einschränkend für die ganz unten, für Frauen, für Menschen die nicht 'hineinpassen'.
14:30
So liberalsliberalen speaksprechen for the weakschwach and oppressedunterdrückt.
329
852000
2000
Linksliberale sprechen also für die Schwachen und Unterdrückten.
14:32
They want changeVeränderung and justiceGerechtigkeit, even at the riskRisiko of chaosChaos.
330
854000
2000
Sie wollen Veränderung und Gerechtigkeit, sogar unter Risiko von Chaos.
14:34
This guy'sJungs shirtHemd sayssagt, "Stop bitchingschimpfen, startAnfang a revolutionRevolution."
331
856000
3000
Das T-Shirt dieses Typen sagt, "Hör auf zu jammern, beginne eine Revolution."
14:37
If you're highhoch in opennessOffenheit to experienceErfahrung, revolutionRevolution is good,
332
859000
2000
Wenn man sehr 'offen für Erfahrung' ist, dann ist Revolution gut,
14:39
it's changeVeränderung, it's funSpaß.
333
861000
2000
sie bedeutet Veränderung, sie macht Spaß.
14:41
ConservativesKonservativen, on the other handHand, speaksprechen for institutionsInstitutionen and traditionsTraditionen.
334
863000
3000
Konservative, auf der anderen Seite, stehen für Institutionen und Traditionen.
14:44
They want orderAuftrag, even at some costKosten to those at the bottomBoden.
335
866000
4000
Sie wollen Ordnung, auch zu Kosten derer die sich ganz unten befinden.
14:48
The great conservativekonservativ insightEinblick is that orderAuftrag is really hardhart to achieveleisten.
336
870000
2000
Die große konservative Erkenntnis ist, dass Ordnung schwer zu erreichen ist.
14:50
It's really preciouskostbar, and it's really easyeinfach to loseverlieren.
337
872000
3000
Sie ist sehr kostbar, und schnell verloren.
14:53
So as EdmundEdmund BurkeBurke said, "The restraintsBeschränkungen on menMänner,
338
875000
2000
Wie Edmund Burke sagte, "Was Menschen zurückhält,
14:55
as well as theirihr libertiesFreiheiten, are to be reckonedgerechnet amongunter theirihr rightsRechte."
339
877000
3000
genauso wie ihre Freiheiten, muss man zu ihren Rechten zählen."
14:58
This was after the chaosChaos of the FrenchFranzösisch RevolutionRevolution.
340
880000
2000
Das war nach dem Chaos der französischen Revolution.
15:00
So onceEinmal you see this -- onceEinmal you see
341
882000
2000
Wenn man das mal verstanden hat -- wenn man verstanden hat
15:02
that liberalsliberalen and conservativeskonservativen bothbeide have something to contributebeitragen,
342
884000
3000
dass sowohl Linksliberale als auch Konservative etwas beizusteuern haben,
15:05
that they formbilden a balanceBalance on changeVeränderung versusgegen stabilityStabilität --
343
887000
3000
dass sie eine Balance von Veränderung gegen Stabilität formen --
15:08
then I think the way is openöffnen to stepSchritt outsidedraußen the moralMoral- matrixMatrix.
344
890000
3000
dann ist, meiner Meinung nach, der Weg frei die Moralmatrix zu verlassen.
15:11
This is the great insightEinblick that all the AsianAsiatische religionsReligionen have attainederreicht.
345
893000
5000
Das ist die große Erkenntnis zu der die asiatischen Religionen gelangt sind.
15:16
Think about yinYin and yangYang.
346
898000
2000
Denken Sie an Yin und Yang.
15:18
YinYin and yangYang aren'tsind nicht enemiesFeinde. YinYin and yangYang don't hateHass eachjede einzelne other.
347
900000
2000
Yin und Yang sind keine Feinde. Yin und Yang hassen sich nicht.
15:20
YinYin and yangYang are bothbeide necessarynotwendig, like night and day,
348
902000
2000
Man braucht sowohl Yin als auch Yang, wie die Nacht und den Tag,
15:22
for the functioningFunktion of the worldWelt.
349
904000
2000
damit die Welt funktionieren kann.
15:24
You find the samegleich thing in HinduismHinduismus.
350
906000
2000
Dasselbe findet man im Hinduismus.
15:26
There are manyviele highhoch godsGötter in HinduismHinduismus.
351
908000
2000
Es gibt so viele hohe Götter im Hinduismus.
15:28
Two of them are VishnuVishnu, the preserverErhalter, and ShivaShiva, the destroyerZerstörer.
352
910000
3000
Zwei davon sind Vishnu, der Erhalter, und Shiva, der Zerstörer.
15:31
This imageBild actuallytatsächlich is bothbeide of those godsGötter sharingTeilen the samegleich bodyKörper.
353
913000
3000
Dieses Bild zeigt beide Götter im selben Körper.
15:34
You have the markingsMarkierungen of VishnuVishnu on the left,
354
916000
2000
Man hat die Zeichen von Vishnu zur Linken,
15:36
so we could think of VishnuVishnu as the conservativekonservativ god.
355
918000
3000
man könnte sich Vishnu als den konservativen Gott denken.
15:39
You have the markingsMarkierungen of ShivaShiva on the right,
356
921000
2000
Und wir haben die Zeichen von Shiva zur Rechten,
15:41
Shiva'sShivas the liberalliberale god. And they work togetherzusammen.
357
923000
2000
Shiva ist der linksliberale Gott -- und beide arbeiten zusammen.
15:43
You find the samegleich thing in BuddhismBuddhismus.
358
925000
2000
Dasselbe findet sich im Buddhismus.
15:45
These two stanzasStrophen containenthalten, I think, the deepestam tiefsten insightsEinblicke
359
927000
2000
Diese beiden Strophen beinhalten, meiner Meinung nach, die tiefste Erkenntnis
15:47
that have ever been attainederreicht into moralMoral- psychologyPsychologie.
360
929000
3000
die jemals in der Moralpsychologie erreicht wurde.
15:50
From the ZenZen masterMeister Seng-ts'anSeng-ts:
361
932000
2000
Von Zenmeister Seng-ts'an:
15:52
"If you want the truthWahrheit to standStand clearklar before you, never be for or againstgegen.
362
934000
4000
"Wenn du willst dass die Wahrheit klar vor dir steht, sei niemals dafür oder dagegen,
15:56
The struggleKampf betweenzwischen for and againstgegen is the mind'sdes Geistes worstam schlimmsten diseaseKrankheit."
363
938000
4000
der Kampf zwischen dem dafür und dem dagegen ist die schlimmste Krankheit des Geistes."
16:00
Now unfortunatelyUnglücklicherweise, it's a diseaseKrankheit
364
942000
2000
Unglücklicherweise ist es eine Krankheit
16:02
that has been caughterwischt by manyviele of the world'sWelt leadersFührer.
365
944000
2000
die von vielen führenden Politikern weltweit aufgeschnappt wurde.
16:04
But before you feel superiorüberlegen to GeorgeGeorge BushBush,
366
946000
3000
Doch bevor Sie sich George W. Bush überlegen fühlen,
16:07
before you throwwerfen a stoneStein, askFragen yourselfdich selber, do you acceptakzeptieren this?
367
949000
4000
bevor Sie einen Stein werfen, fragen Sie sich: Akzeptieren Sie dies?
16:11
Do you acceptakzeptieren steppingStepping out of the battleSchlacht of good and evilböse?
368
953000
3000
Akzeptieren Sie es die Schlacht von Gut und Böse zu verlassen?
16:14
Can you be not for or againstgegen anything?
369
956000
3000
Können Sie weder für etwas noch gegen etwas sein?
16:18
So, what's the pointPunkt? What should you do?
370
960000
3000
Was soll es dann? Was soll man tun?
16:21
Well, if you take the greatestgrößte insightsEinblicke
371
963000
2000
Naja, wenn man nun die wichtigsten Erkenntnisse
16:23
from ancientAntike AsianAsiatische philosophiesPhilosophien and religionsReligionen,
372
965000
2000
von uralten asiatischen Philosophien und Religionen nimmt,
16:25
and you combinekombinieren them with the latestneueste researchForschung on moralMoral- psychologyPsychologie,
373
967000
2000
und sie mit der neuesten Moralpsychologieforschung kombiniert,
16:27
I think you come to these conclusionsSchlussfolgerungen:
374
969000
2000
kommt man, denke ich, zu folgenden Schlussfolgerungen:
16:29
that our righteousgerecht mindsKöpfe were designedentworfen by evolutionEvolution
375
971000
4000
Dass unsere rechtschaffenen Geister von der Evolution dafür gemacht wurden
16:33
to unitevereinen us into teamsTeams, to divideTeilen us againstgegen other teamsTeams
376
975000
3000
uns in Teams zu vereinigen, uns gegen andere Teams abzutrennen
16:36
and then to blindblind us to the truthWahrheit.
377
978000
2000
und um uns dann für die Wahrheit blind zu machen.
16:39
So what should you do? Am I tellingErzählen you to not strivebemühen uns?
378
981000
4000
Was also soll man machen? Rate ich Ihnen es gar nicht erst zu versuchen?
16:43
Am I tellingErzählen you to embraceUmarmung Seng-ts'anSeng-ts and stop,
379
985000
3000
Rate ich ihnen Seng-ts'an zu akzeptieren und aufzuhören,
16:46
stop with this struggleKampf of for and againstgegen?
380
988000
3000
mit diesem Kampf des dafür und des dagegen aufzuhören?
16:49
No, absolutelyunbedingt not. I'm not sayingSprichwort that.
381
991000
2000
Nein, auf keinen Fall. Das sage ich nicht.
16:51
This is an amazingtolle groupGruppe of people who are doing so much,
382
993000
3000
Dies hier ist eine tolle Gruppe von Menschen die so viel tun,
16:54
usingmit so much of theirihr talentTalent, theirihr brillianceBrillanz, theirihr energyEnergie, theirihr moneyGeld,
383
996000
4000
so viel ihres Talents, ihrer Brillianz, ihrer Energie, ihres Geld dafür aufwenden
16:58
to make the worldWelt a better placeOrt, to fightKampf --
384
1000000
2000
diese Welt zu einem besseren Ort zu machen, um zu kämpfen --
17:00
to fightKampf wrongsUnrecht, to solvelösen problemsProbleme.
385
1002000
3000
um das Schlechte zu bekämpfen, um Probleme zu lösen.
17:04
But as we learnedgelernt from SamanthaSamantha PowerMacht, in her storyGeschichte
386
1006000
4000
Doch wie wir gelernt haben von Samantha Power und ihrer Geschichte
17:08
about SergioSergio VieiraVieira dede MelloMello, you can't just go chargingAufladen in,
387
1010000
5000
über Sergio Vieira de Mello - man kann nicht einfach loslegen
17:13
sayingSprichwort, "You're wrongfalsch, and I'm right."
388
1015000
2000
und sagen, "Du hast unrecht, und ich habe recht."
17:15
Because, as we just heardgehört, everybodyjeder thinksdenkt they are right.
389
1017000
4000
Denn, wie wir gerade gehört haben, jeder denkt dass er recht hat.
17:19
A lot of the problemsProbleme we have to solvelösen
390
1021000
2000
Viele der Probleme die wir lösen müssen
17:21
are problemsProbleme that requireerfordern us to changeVeränderung other people.
391
1023000
3000
sind Probleme die es erfordern dass wir andere Menschen verändern.
17:24
And if you want to changeVeränderung other people, a much better way to do it
392
1026000
3000
Und wenn man andere Menschen verändern will, ist es am besten
17:27
is to first understandverstehen who we are -- understandverstehen our moralMoral- psychologyPsychologie,
393
1029000
4000
erst einmal zu verstehen wer wir sind -- unsere Moralpsychologie zu verstehen,
17:31
understandverstehen that we all think we're right -- and then stepSchritt out,
394
1033000
3000
zu verstehen dass wir alle denken dass wir recht haben -- und uns dann auszuschalten --
17:34
even if it's just for a momentMoment, stepSchritt out -- checkprüfen in with Seng-ts'anSeng-ts.
395
1036000
4000
sei es auch nur für einen Augenblick, sich auszuschalten -- und mit Seng-ts'an in Verbindung zu treten.
17:38
StepSchritt out of the moralMoral- matrixMatrix,
396
1040000
2000
Die Moralmatrix zu verlassen,
17:40
just try to see it as a struggleKampf playingspielen out,
397
1042000
2000
nur um es als Kampf zu sehen
17:42
in whichwelche everybodyjeder does think they're right,
398
1044000
2000
in dem wirklich jeder denkt er habe recht,
17:44
and everybodyjeder, at leastam wenigsten, has some reasonsGründe dafür -- even if you disagreenicht zustimmen with them --
399
1046000
2000
und jeder wenigstens ein paar Gründe dafür hat -- auch wenn man ihm nicht zustimmt --
17:46
everybodyjeder has some reasonsGründe dafür for what they're doing.
400
1048000
2000
jeder hat Gründe für was er tut.
17:48
StepSchritt out.
401
1050000
1000
Tretet heraus.
17:49
And if you do that, that's the essentialwesentlich moveBewegung to cultivatekultivieren moralMoral- humilityDemut,
402
1051000
4000
Und wenn Sie das tun, war das der entscheidende Schritt dafür, moralische Demut zu kultivieren,
17:53
to get yourselfdich selber out of this self-righteousnessSelbstgerechtigkeit,
403
1055000
1000
diese Selbstgerechtigkeit hinter sich zu lassen,
17:54
whichwelche is the normalnormal humanMensch conditionBedingung.
404
1056000
2000
welche der menschliche Normalzustand ist.
17:56
Think about the DalaiDalai LamaLama.
405
1058000
2000
Denken Sie an den Dalai Lama.
17:58
Think about the enormousenorm moralMoral- authorityBehörde of the DalaiDalai LamaLama --
406
1060000
3000
Denken Sie an die riesige moralische Autorität des Dalai Lama --
18:01
and it comeskommt from his moralMoral- humilityDemut.
407
1063000
2000
sie kommt aus moralischer Demut.
18:05
So I think the pointPunkt -- the pointPunkt of my talk,
408
1067000
2000
Ich denke das, was ich sagen will -- die Aussage meines Vortrags,
18:07
and I think the pointPunkt of TEDTED --
409
1069000
3000
und, ich denke, der Sinn -- der Sinn von TED,
18:10
is that this is a groupGruppe that is passionatelyleidenschaftlich engagedbeschäftigt
410
1072000
3000
ist, dass dies eine Gruppe ist die sich mit Eifer dafür einsetzt
18:13
in the pursuitVerfolgung of changingÄndern the worldWelt for the better.
411
1075000
2000
diese Welt zu einer besseren zu machen.
18:15
People here are passionatelyleidenschaftlich engagedbeschäftigt
412
1077000
3000
Diese Leute setzen sich mit Eifer dafür ein
18:18
in tryingversuchen to make the worldWelt a better placeOrt.
413
1080000
2000
diese Welt einen besseren Ort zu machen.
18:20
But there is alsoebenfalls a passionateleidenschaftlich commitmentEngagement to the truthWahrheit.
414
1082000
3000
Doch es gibt auch eine leidenschaftliche Hingabe zur Wahrheit.
18:23
And so I think that the answerAntworten is to use that passionateleidenschaftlich commitmentEngagement
415
1085000
4000
Und somit ist die Antwort, meiner Meinung nach, diese leidenschaftliche Hingabe
18:27
to the truthWahrheit to try to turnWende it into a better futureZukunft for us all.
416
1089000
4000
zur Wahrheit zu benutzen und versuchen sie in eine bessere Zukunft für uns alle zu verwandeln.
18:31
Thank you.
417
1093000
1000
Danke sehr.
18:32
(ApplauseApplaus)
418
1094000
3000
(Applaus)
Translated by Andreas Walther
Reviewed by Anne Büch

▲Back to top

ABOUT THE SPEAKER
Jonathan Haidt - Social psychologist
Jonathan Haidt studies how -- and why -- we evolved to be moral and political creatures.

Why you should listen

By understanding more about our moral psychology and its biases, Jonathan Haidt says we can design better institutions (including companies, universities and democracy itself), and we can learn to be more civil and open-minded toward those who are not on our team.

Haidt is a social psychologist whose research on morality across cultures led to his 2008 TED Talk on the psychological roots of the American culture war, and his 2013 TED Talk on how "common threats can make common ground." In both of those talks he asks, "Can't we all disagree more constructively?" Haidt's 2012 TED Talk explored the intersection of his work on morality with his work on happiness to talk about "hive psychology" -- the ability that humans have to lose themselves in groups pursuing larger projects, almost like bees in a hive. This hivish ability is crucial, he argues, for understanding the origins of morality, politics, and religion. These are ideas that Haidt develops at greater length in his book, The Righteous Mind: Why Good People are Divided by Politics and Religion.

Haidt joined New York University Stern School of Business in July 2011. He is the Thomas Cooley Professor of Ethical Leadership, based in the Business and Society Program. Before coming to Stern, Professor Haidt taught for 16 years at the University of Virginia in the department of psychology.

Haidt's writings appear frequently in the New York Times and The Wall Street Journal. He was named one of the top global thinkers by Foreign Policy magazine and by Prospect magazine. Haidt received a B.A. in Philosophy from Yale University, and an M.A. and Ph.D. in Psychology from the University of Pennsylvania.

More profile about the speaker
Jonathan Haidt | Speaker | TED.com